Rechenzentren: Microsoft möchte sich von AMD und Nvidia lossagen
Microsoft plant, in seinen Rechenzentren künftig verstärkt auf die selbstentwickelten Maia-KI-Beschleuniger zu setzen und sich von AMD- und Nvidia-GPUs zu lösen. Das geht aus Äußerungen von Microsofts CTO Kevin Scott(öffnet im neuen Fenster) hervor.
Den hauseigenen KI-Beschleuniger Azure Maia 100 stellte Microsoft erstmalig 2023 vor. Dieser wurde speziell entwickelt, um Lasten wie OpenAI ChatGPT zu beschleunigen, und ist schon in einigen Rechenzentren der Firma im Einsatz.
Langfristig sei der Plan laut Scott hauptsächlich, diese eigenen Chips in Rechenzentren einzusetzen. Dabei ginge es vor allem darum, das Systemdesign durch Anpassungen an Kühlung und Verbindungen auf bestimmte Anforderungen zu optimieren. Für die Maia-100-Boards etwa entwickelte Microsoft neue Serverracks und dedizierte Wasserkühlungen.
Microsoft muss zunächst Bedarf decken
Zunächst ginge es aber darum, überhaupt genügend Kapazitäten für den massiven Bedarf durch ChatGPT und Co. bereitzustellen. Laut Scott sei es für Microsoft nahezu unmöglich, Rechenzentren schnell genug zu bauen.
Dabei interessiere es Microsoft nicht, welcher Name auf den genutzten Chips stehe. Wichtig sei das Verhältnis von Preis und Performance, bei dem laut Scott seit Jahren Nvidia am besten abschneidet. Die Firma würde aber jede Option in Betracht ziehen, damit genug Kapazitäten verfügbar seien, um den Bedarf zu decken.
Auch andere Hyperscaler wie Google und Amazon setzen bei ihren Rechenzentren auf die hauseigenen Entwicklungen TPU (Google) und Trainium (Amazon). Daneben kommen weiterhin Chips von Nvidia und AMD zum Einsatz. Nur mit eigenen Chips wäre auch hier der hohe Bedarf nicht zu decken.
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.