Arthur D. Little: Was Nvidia von Investitionen in OpenAI und Intel hat

Wenige Tage nach einer 5-Milliarden-US-Dollar-Investition in Intel kündigte Nvidia ein 100-Milliarden-Investment in den ChatGPT-Entwickler OpenAI an. In der Investition in OpenAI "sehen wir zunächst einmal ein smartes Manöver zur Nachfragesicherung und einen Umsatzhebel für die Zukunft. Die stufenweise Finanzierung ist direkt an die Ausrollung je Gigawatt gebunden" , sagte Thomas Thiele, Digitalexperte(öffnet im neuen Fenster) bei der Unternehmensberatung Arthur D. Little(öffnet im neuen Fenster) im Gespräch mit Golem. Damit sichere Nvidia sich eine mehrjährige, planbare Abnahme von Millionen GPUs und Systemsätzen – zunächst GB200/ Blackwell, ab dem Jahr 2026 dann Vera‑Rubin.
Das Ergebnis für Nvidia seien hohe Visibilität für Datacenter‑Umsätze sowie Möglichkeiten für Cross‑Selling der anderen Produktlinien NVSwitch/NVLink, DPU und Netzwerktechnik, erklärte Thiele weiter.
Dies ermögliche gleichzeitig eine strategische Blockade gegen Alternativen. Durch die Preferred-Partner-Struktur verringere Nvidia für OpenAI den Anreiz, kurzfristig AMD-/Intel-/TPU-Alternativen in großem Stil zu substituieren. "Hier gilt es auch, die Lösungen der Hyperscaler auszustechen. Der Schritt schützt Margen und Standard-Settings, lässt aber auch die anderen großen Tech-Konzerne wie Google oder Meta ein stückweit außen vor" , betonte Thiele.
Microsoft bleibt nur ein gewisses Mitspracherecht
Microsoft bleibe als Investor der ersten Stunde lediglich ein gewisses Mitspracherecht bei OpenAI. Bisher nutzte OpenAI ausschließlich Rechenleistung von Microsoft; ein Großteil der Investition von Microsoft in OpenAI von rund 14 Milliarden US-Dollar erfolgte in Form von Cloud-Computing-Guthaben.
Laut Thiele sichert Nvidia sich ein Mitsprachrecht bei Entscheidungen zu Standorten, Energie und Standards, inklusive Netzwerkinfrastruktur und Lieferketten. Die Investition sei weniger eine reine Finanzbeteiligung als eine Schaffung "strategischer Nachfrage, Standard- und Ökosystem-Play" .
Das alte Mantra "Software dominiert die Wertschöpfung" müsse überdacht werden und die US-Regierung werde zudem die Bildung einer starken Industrievereinigung zu schätzen wissen, die auch Kräfte gegenüber der Konkurrenz aus Fernost bündele, sagte Thiele weiter.
Angebotsvielfalt für Kunden erheblich erweitert
Doch was hat Nvidia technisch bewogen, in den angeschlagenen Konkurrenten Intel zu investieren? "Nvidia verfolgt künftig einen Co-Design-Ansatz für eine vollständige Systempalette. Neben Grace, das für ARM-basierte Systeme entwickelt wurde, kann das Unternehmen zukünftig auch x86-basierte NVLink-Racks anbieten" , so Thiele. Das erweitere die Angebotsvielfalt für Kunden erheblich. Gleichzeitig reagiere Nvidia auf die Konkurrenz durch AMDs EPYC- und Instinct-Produkte und erleichtere Migrationen innerhalb des Hyperscaler-Standards.
Ein weiterer Schwerpunkt liege auf der Stärkung der Systemintegration. Thiele erklärte: "So ermöglichen speziell entwickelte x86-CPUs mit NVLink im Vergleich zu PCIe 5 eine kohärente und wesentlich schnellere Verbindung zwischen CPU und GPU. Dies eröffnet neue Möglichkeiten für die Parallelisierung großer Modelle über viele GPUs hinweg und steigert zudem die technische Output-Performance. Besonders vorteilhaft wirkt sich das bei modernen Architekturen wie Mixture of Experts oder bei der Entkopplung von Prefill- und Decode-Prozessen in der LLM-Inference aus."
Woher Nvidias Vorsprung bei KI-Beschleunigern rührt
Seinen Vorsprung bei KI-Beschleunigern gegenüber Intel verdanke Nvidia dem Softwareökosystem als "Burggraben" , erklärte Thiele. "Cuda, mit Tools und Bibliotheken, wird seit mehr als 15 Jahren aufgebaut mit gegenwärtig über 4 Millionen Entwicklern. Darüber liegen TensorRT‑LLM oder Triton Inference Server."
Diese Breite senke Portierungskosten, beschleunige Releases und binde Workloads an Nvidia-Hardware. Der Marktführer könne außerdem mit einer aggressiven Roadmap aufwarten und dabei auf "bewährte Architektursprünge verweisen" . Die Chips seien im Betrieb deutlich schneller, effizienter und günstiger geworden. Dokumentierte Sprünge seien zum Beispiel 3,5 Exaflops FP4 Inferenz und 1,2 Exaflops FP8 Training pro NVL144 sowie neue Datenformate wie FP4, die die Total Cost of Ownership (Gesamtbetriebskosten) optimierten.
Rubin sei in der zweiten Hälfte des Jahres 2026 und Rubin Ultra im Jahr 2027 schon "klar verortet. Damit ist klar, wann die nächsten Generationen erscheinen, was Nvidia eine größere Kredibilität auf dem Markt gibt" , sagte Thiele(öffnet im neuen Fenster) .