Azure: Microsofts Supercomputer soll unter den Top 5 sein
Gehostet wird das System in der Azure-Cloud. Es soll ausschließlich für das Berechnen von komplexen KI-Modellen von OpenAI verwendet werden.

Microsoft nutzt die Bühne der Online-Konferenz Build 2020, um seinen neuen Supercomputer vorzustellen. Das System wird komplett in der Azure-Cloud gehostet und soll dem Unternehmen OpenAI beim Training diverser neuronaler Netze und von Machine-Learning-Modellen helfen. "Wir beobachten, dass größere Computersysteme eine wichtige Komponente für das Training von mächtigeren Modellen sind", sagt OpenAI-CEO Sam Altman.
Wohl deshalb umfasst der dafür entwickelte Azure-Cluster insgesamt über 285.000 CPU-Kerne und 10.000 Grafikkarten. Die GPU-Einheiten sind jeweils mit 400-GBit-Ethernet verbunden. Ohne auf eine genaue Rechenleistung einzugehen oder Hardwaredetails zu nennen, bewertet Microsoft das System als eines der fünf schnellsten Systeme auf der Top-500-Liste der weltweiten Supercomputer. Es sollte demnach im Linpack-Benchmark eine praktische FP64-Leistung von mindestens 23,6 Petaflops aufweisen.
Microsoft stellt eigenes Sprachmodell Open Source
Allerdings sind dort zumeist zusammenhängende Cluster gelistet, die nur einem bestimmten Zweck dienen. Da der Microsoft-Computer an die Azure-Infrastruktur angeschlossen ist, kann er theoretisch auch für andere Zwecke genutzt werden und hat Zugriff auf diverse Dienste, die Microsoft für Azure-Kunden anbietet. Weitere Vorteile eines Cloud-Supercomputers sind laut Hersteller die hohe Redundanz und die relativ schnelle Expansionsmöglichkeit der Hardwarekapazitäten.
Im Rahmen der Ankündigung hat Microsoft zudem mitgeteilt, das eigene Turing-Sprachverarbeitungsmodell quelloffen zu machen. Dieses umfasst etwa 17 Milliarden Parameter und wird in diversen Microsoft-Diensten genutzt, die Textverarbeitung, Übersetzungen, Bots und automatisch generierte Texte verwenden. Entwickler sollen so per API Zugriff auf das Modell haben, das interessanterweise auch ein Konkurrenzprodukt zu OpenAIs eigenem Sprachmodell GPT-2 ist. Turing soll, gemessen an den Parametern, das bisher komplexeste Modell dieser Art sein.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed