Bei Inferenz: Nvidias GPUs sind OpenAI zu langsam

OpenAI ist einer der wichtigsten Kunden von Nvidia, und um den zu sichern, wollte der GPU-Hersteller Milliarden in das KI-Unternehmen investieren . Doch es kriselt zwischen den beiden Partnern, OpenAI versucht, seine Hardwarebasis breiter aufzustellen. Auf einen Deal mit AMD 2025 folgte Mitte Januar 2026 einer mit Cerebras(öffnet im neuen Fenster) . OpenAI will in großem Stil dessen Waferscale Engine nutzen.
Die Nachrichtenagentur Reuters berichtet(öffnet im neuen Fenster) nun über den Grund für die breitere Aufstellung: Bei OpenAI sei man mit der Inferenzleistung von Nvidias GPUs unzufrieden. Insbesondere beim neuen Coding-Modell Codex mache sich dies bemerkbar. Bei der Inferenz soll trotz schnellem HBM die Speicherbandbreite bei Nvidia-GPUs zum Problem werden. Speziell für KI-Inferenz, die Verarbeitung von Eingaben durch trainierte Modelle, ausgelegte Beschleuniger lösen das durch einen anderen Aufbau.
So setzen sie stärker auf integrierten SRAM, in dem Teile des Modells direkt im Chip abgelegt werden können. Zudem werden oft sogenannte systolische Arrays genutzt, bei denen das Ergebnis einer Einheit direkt im Chip an die nächste weitergeleitet wird. Diesen Ansatz verfolgt auch Groq, das Nvidia Ende Dezember 2025 effektiv übernahm .
Nvidia-Einstieg verhindert Kooperation mit OpenAI
Mit dem Start-up soll OpenAI laut Reuters Gespräche über eine Kooperation geführt haben, welche der Einstieg von Nvidia abrupt beendete. Zwar bleibt Groq auf dem Papier eigenständig, praktisch hat Nvidia aber die Entwickler übernommen. Ähnliche Gespräche soll Nvidia auch mit Cerebras geführt haben, das ablehnte.
Die Gespräche über Nvidias Investition in OpenAI hätten sich zudem entgegen Erwartungen über Monate hingezogen, was laut Reuters ebenfalls auf ein angespannteres Verhältnis hindeutet. Die CEOs beider Unternehmen spielten die angeblichen Differenzen öffentlich herunter – Jensen Huang von Nvidia sagte, was er immer sagt: Mit Nvidia erreichten Kunden die beste Total Cost of Ownership. Sam Altman postete bei X, OpenAI hoffe, noch lange ein gigantischer Kunde von Nvidia zu bleiben.
Dass OpenAI auf der Suche nach Alternativen ist, ist indes nicht zu übersehen. Neben anderen Hardwarelieferanten kursiert auch regelmäßig, OpenAI arbeite an eigener Hardware . Zeitweise wollte CEO Sam Altman sogar eigene Halbleiterfabriken bauen (g+) . Während AWS, Google und Microsoft längst Modelle auf selbst entwickelter Hardware betreiben, hat OpenAI hier bislang keine Erfolge vorzuweisen.