Konkurrenz für Nvidia: Google verhandelt mit Meta über TPU-Einsatz

Google verhandelt derzeit mit Meta über den Einsatz seiner Tensor-Prozessoren (Tensor Processing Unit, TPU) in KI-Rechenzentren. Wie The Information (Paywall) berichtet(öffnet im neuen Fenster) , könnte Google mit einem solchen Geschäft Umsätze in Höhe von etwa 10 Prozent des Jahresumsatzes von Nvidia erzielen.
Bei den Verhandlungen gehe es um Investitionen in Milliardenhöhe ab dem Jahr 2027, heißt es weiter. Meta verwendet derzeit Chips von Nvidia in seinen Rechenzentren, ist aber bestrebt, seine Abhängigkeit von dem Grafikkartenhersteller zu reduzieren .
Im Vergleich zu Nvidia-Chips lassen sich Googles TPUs deutlich günstiger betreiben. Zudem konnte Google mit dem Training seines eigenen Sprachmodells Gemini zeigen, dass sich damit ähnliche Erfolge wie mit Nvidia-Chips erzielen lassen. Mit dem neuen TPU Command Center versucht Google zudem eine Alternative zu Nvidias Cuda-Toolkit zu schaffen, um potenziellen Kunden die Nutzung von TPUs für KI-Anwendungen zu erleichtern.
Google wendet sich auch an kleine Cloudanbieter
Neben Meta versuchen auch andere KI-Unternehmen ihre Abhängigkeit von Nvidia zu reduzieren. So plant OpenAI zum Beispiel TPUs von Google Cloud zu mieten und auch Anthropic investierte in ein gemeinsames Projekt mit Google , bei dem TPUs zum Einsatz kommen.
Google bietet seinen Cloudkunden auch Server mit Nvidia-Chips an und generiert damit deutlich mehr Umsatz, als mit TPU-Servern. Um TPUs weiterzuverbreiten, kontaktierte der Konzern aber bereits kleinere Cloudanbieter, die hauptsächlich Nvidia-Chips einsetzen, und bot diesen an, auch TPUs einzusetzen.
Mit dem Londoner Cloudanbieter Fluidstack erklärte sich bereits mindestens ein Unternehmen dazu bereit, Googles TPUs zu verwenden und erhielt im Gegenzug die Zusage, dass Google Fluidstack mit bis zu 3,2 Milliarden US-Dollar bei der Anmietung eines geplanten Rechenzentrums in New York unterstützt.



