Project Brainwave: Microsoft beschleunigt KI-Technik mit Cloud-FPGAs

Statt auf fest verdrahtete ASICs, wie Googles TPU, setzt Microsoft für sein Azure-Cloud-Geschäft auf flexiblere FPGAs. Mit diesen sollen künftig Machine-Learning-Modelle beschleunigt werden, um "Echtzeit-KI" bereitzustellen.

Artikel veröffentlicht am ,
Eines der FPGA-Boards von Microsofts Project Brainwave
Eines der FPGA-Boards von Microsofts Project Brainwave (Bild: Microsoft)

Die wohl am weitesten verbreitete Möglichkeit, maschinelles Lernen zu beschleunigen, ist die Verwendung von Grafikkarten. Einige Hersteller setzen inzwischen aber fest verdrahtete ASICs, wie etwa Google mit seinen TPU, zum Anwenden und Trainieren von Modellen. Microsoft will unter dem Projektnamen Brainwave künftig für derartige Einsatzgebiete auf FPGAs in seiner Azure Cloud zurückgreifen.

Stellenmarkt
  1. DevOps Engineer (m/f/d) for Embedded Software Integration
    Elektrobit Automotive GmbH, Erlangen
  2. Fachinformatiker (m/w/d) im Kundenservice
    Anstalt für Kommunale Datenverarbeitung in Bayern (AKDB), verschiedene Standorte
Detailsuche

In der Ankündigung heißt es, dass damit "Echtzeit-KI" ermöglicht werden soll, wobei entsprechende Daten möglichst schnell von dem System verarbeitet werden. Microsoft setzt hierfür auf drei verschiedene Bestandteile: eine leistungsfähige Cloud-Architektur, eine in den FPGAs synthetisierte Engine für neuronale Netze sowie einen Compiler und eine Laufzeitumgebung, um trainierte Modelle auszurollen.

Direkt ans Netzwerk angebunden

Die FPGAs werden als PCIe-Karten in den Servern untergebracht, werden aber über eigene Schnittstellen direkt mit dem Netzwerk des Rechenzentrums verbunden, so dass die CPU der Server umgangen werden kann. Ebenso lassen sich die so verfügbaren FPGAs leicht zu Pools zusammenschließen. Google verfolgt für die Anbindung seiner TPUs eine ähnliche Strategie.

Zur Umsetzung der neuronalen Netze in den FPGAs greift Microsoft auf das Konzept des sogenannten Soft-Prozessors zurück. Diese DPU (Deep Neural Network Processing Unit) seien im Vergleich zu ASICs flexibler, da zum Zeitpunkt der DPU-Synthese zwischen verschiedenen Datentypen gewählt werden kann. Darüber hinaus können dank der FPGAs Neuerungen im Bereich des maschinellen Lernens innerhalb von nur wenigen Wochen in den Rechenzentren ausgerollt werden.

Breite Unterstützung für Software und Modelle

Golem Akademie
  1. Ansible Fundamentals: Systemdeployment & -management: virtueller Drei-Tage-Workshop
    6.–8. Dezember 2021, Virtuell
  2. LDAP Identitätsmanagement Fundamentals: virtueller Drei-Tage-Workshop
    , Virtuell
Weitere IT-Trainings

Brainwave könne bisher für Machine-Learning-Anwendungen genutzt werden, die mit Microsofts Cognitive Toolkit umgesetzt worden sind oder mit Googles Tensorflow. Die Unterstützung für weitere Frameworks soll folgen. Die Modelle werden dann zunächst in eine Graph-Repräsentation überführt und anschließend für die Brainwave-Infrastruktur kompiliert.

Microsoft hebt außerdem hervor, dass sich das FPGA-System nicht nur für die leicht parallelisierbaren Convolutional Neural Networks (CNN) einsetzen lasse, sondern insbesondere auch für die Beschleunigung von rekurrenten neuronalen Netzen (RNN) wie LSTMs oder jenen mit GRUs. RNNs enthalten eine Art Rückkanal und werden etwa zur Verarbeitung natürlicher Sprache verwendet.

Fast 40 TOPS dank Altera-FPGAs

Als FPGA-Hardware verwendet Microsoft die Stratix 10 der Intel-Tochter Altera. Laut Hersteller bieten die Chips eine Rechengeschwindigkeit von 10 Teraflops bei einfacher Genauigkeit (FP32). Den Tests von Microsoft zufolge erreicht das Brainwave-System beim Ausführen eines GRU-Modells gar fast 40 Teraflops bei reduzierter Genauigkeit von 8-Bit (FP8), die im Machine-Learning teilweise üblich ist.

Zum Vergleich: Die zweite Generation von Googles TPU, die auch über die Google-Cloud genutzt werden können, bietet pro Board 180 Teraops (INT8) und damit pro ASIC theoretisch rund 45 Teraops.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Aktuell auf der Startseite von Golem.de
Discovery Staffel 4
Star Trek mit viel zu viel Pathos

Die ersten beiden Folgen der neuen Staffel von Star Trek Discovery bieten zwar interessante Story-Ansätze, gehen aber in teils unerträglichen Gefühlsduseleien unter. Achtung, Spoiler!
Eine Rezension von Tobias Költzsch

Discovery Staffel 4: Star Trek mit viel zu viel Pathos
Artikel
  1. Telekom-Internet-Booster: Feldtest bringt über 600 statt 50 MBit/s ins Haus
    Telekom-Internet-Booster
    Feldtest bringt über 600 statt 50 MBit/s ins Haus

    Die Telekom beginnt mit 5G DSL. Dafür wird im Haushalt eine Außenantenne benötigt.

  2. Österreich: Telekom sucht weitere Partner für Glasfaserausbau
    Österreich
    Telekom sucht weitere Partner für Glasfaserausbau

    Für sein Koaxialkabelnetz in Österreich will die Telekom eine Partnerschaft für mehr Glasfaser aufbauen.

  3. Fire TV Stick 4K Max im Test: Amazons bisher bester Streaming-Stick
    Fire TV Stick 4K Max im Test
    Amazons bisher bester Streaming-Stick

    Viel Streaming-Leistung für wenig Geld - das liefert der neue Fire TV Stick 4K Max. Es ist ganz klar Amazons bisher bester Streaming-Stick.
    Ein Test von Ingo Pakalski

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • Heute ist Cyber Monday • AMD Ryzen 7 5800X 348€ • 3 für 2: Star Wars & Marvel • Bis 300€ Direktabzug auf TVs, Laptops uvm. • Bis 50% auf beyerdynamic + Gratis-Kopfhörer • Cyber Monday bei MM/Saturn (u. a. Xiaomi 11 Lite 5G 299€) • Alternate (u. a. be quiet CPU-Kühler 29,99€) [Werbung]
    •  /