Project Brainwave: Microsoft beschleunigt KI-Technik mit Cloud-FPGAs
Statt auf fest verdrahtete ASICs, wie Googles TPU, setzt Microsoft für sein Azure-Cloud-Geschäft auf flexiblere FPGAs. Mit diesen sollen künftig Machine-Learning-Modelle beschleunigt werden, um "Echtzeit-KI" bereitzustellen.

Die wohl am weitesten verbreitete Möglichkeit, maschinelles Lernen zu beschleunigen, ist die Verwendung von Grafikkarten. Einige Hersteller setzen inzwischen aber fest verdrahtete ASICs, wie etwa Google mit seinen TPU, zum Anwenden und Trainieren von Modellen. Microsoft will unter dem Projektnamen Brainwave künftig für derartige Einsatzgebiete auf FPGAs in seiner Azure Cloud zurückgreifen.
In der Ankündigung heißt es, dass damit "Echtzeit-KI" ermöglicht werden soll, wobei entsprechende Daten möglichst schnell von dem System verarbeitet werden. Microsoft setzt hierfür auf drei verschiedene Bestandteile: eine leistungsfähige Cloud-Architektur, eine in den FPGAs synthetisierte Engine für neuronale Netze sowie einen Compiler und eine Laufzeitumgebung, um trainierte Modelle auszurollen.
Direkt ans Netzwerk angebunden
Die FPGAs werden als PCIe-Karten in den Servern untergebracht, werden aber über eigene Schnittstellen direkt mit dem Netzwerk des Rechenzentrums verbunden, so dass die CPU der Server umgangen werden kann. Ebenso lassen sich die so verfügbaren FPGAs leicht zu Pools zusammenschließen. Google verfolgt für die Anbindung seiner TPUs eine ähnliche Strategie.
Zur Umsetzung der neuronalen Netze in den FPGAs greift Microsoft auf das Konzept des sogenannten Soft-Prozessors zurück. Diese DPU (Deep Neural Network Processing Unit) seien im Vergleich zu ASICs flexibler, da zum Zeitpunkt der DPU-Synthese zwischen verschiedenen Datentypen gewählt werden kann. Darüber hinaus können dank der FPGAs Neuerungen im Bereich des maschinellen Lernens innerhalb von nur wenigen Wochen in den Rechenzentren ausgerollt werden.
Breite Unterstützung für Software und Modelle
Brainwave könne bisher für Machine-Learning-Anwendungen genutzt werden, die mit Microsofts Cognitive Toolkit umgesetzt worden sind oder mit Googles Tensorflow. Die Unterstützung für weitere Frameworks soll folgen. Die Modelle werden dann zunächst in eine Graph-Repräsentation überführt und anschließend für die Brainwave-Infrastruktur kompiliert.
Microsoft hebt außerdem hervor, dass sich das FPGA-System nicht nur für die leicht parallelisierbaren Convolutional Neural Networks (CNN) einsetzen lasse, sondern insbesondere auch für die Beschleunigung von rekurrenten neuronalen Netzen (RNN) wie LSTMs oder jenen mit GRUs. RNNs enthalten eine Art Rückkanal und werden etwa zur Verarbeitung natürlicher Sprache verwendet.
Fast 40 TOPS dank Altera-FPGAs
Als FPGA-Hardware verwendet Microsoft die Stratix 10 der Intel-Tochter Altera. Laut Hersteller bieten die Chips eine Rechengeschwindigkeit von 10 Teraflops bei einfacher Genauigkeit (FP32). Den Tests von Microsoft zufolge erreicht das Brainwave-System beim Ausführen eines GRU-Modells gar fast 40 Teraflops bei reduzierter Genauigkeit von 8-Bit (FP8), die im Machine-Learning teilweise üblich ist.
Zum Vergleich: Die zweite Generation von Googles TPU, die auch über die Google-Cloud genutzt werden können, bietet pro Board 180 Teraops (INT8) und damit pro ASIC theoretisch rund 45 Teraops.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed