Radeon Instinct: AMD plant Beschleunigerkarten für Deep Learning
Geht es nach AMD, wird Nvidia im Deep-Learning-Segment bald überholt werden. Dafür sorgen sollen die neuen Radeon Instinct, darunter ein Modell mit der neuen Vega-Architektur, und die offene MI-Open-Software.

AMD hat auf dem Tech Summit im kalifornischen Sonoma seine Strategie für Deep Learning und Machine Intelligence erläutert. Grafikchef Raja Koduri sagte vor Ort, AMD werde die nächsten fünf Jahre gewinnen - passend dazu zeigte er einen Benchmark, bei dem schon der mittlere der kommenden Beschleuniger Nvidias Topmodell Titan X (Pascal-basiert) schlägt. AMD hat sich schon früher mit Machine Intelligence beschäftigt, etwa 2008 mit einer AI-Demo namens Froblins die Wegfindung auf der GPU berechnet.
Grundlage für Deep Learning bei AMD ist eine neue Produktlinie von Beschleunigerkarten, die Radeon Instinct heißen. Drei Modelle sollen im ersten Halbjahr 2017 erscheinen: Die Radeon Instinct MI6 auf Polaris-Basis erreicht 5,7 Teraflops bei der für das Training und Inference relevanten Rechenleistung bei halber Genauigkeit (Half Precision, FP16). Es handelt sich also um eine Karte ähnlich der Radeon RX 480 oder Radeon Pro WX 7100. Die Radeon Instinct MI8 entspricht einer Radeon R9 Nano mit Fiji-Grafikchip und liefert 8,2 Teraflops. Die Radeon Instinct MI25 mit Vega-Architektur schafft 25 Teraflops.
Wer sich über den Sprung zwischen MI8 und MI25 wundert: Die Vega-Architektur beinhaltet Verbesserungen (siehe Playstation 4 Pro), darunter die Funktion, zwei FP16-Operationen statt einem FP32-Befehl pro Takt auszuführen. Polaris und Fiji können das nicht, ihre FP16-Rate entspricht daher der FP32-Geschwindigkeit. Der Vollständigkeit halber sei erwähnt, dass MI abkürzend für Machine Intelligence steht und zusammen mit der gerundeten FP16-Leistung den Namen der Radeon Instinct ergibt. Weitere Informationen zur MI25 und Vega haben wir in einem Artikel zusammengefasst.
Da Hardware ohne Software nutzlos ist, hat AMD eine Deep-Learning-Bibliothek entwickelt, die MI-Open heißt. Die Bibliothek setzt auf die Radeon Open Compute (ROCm) Platform, die ebenfalls quelloffen ist. MI-Open bildet die Basis für Frameworks wie Caffe oder Tensor Flow, mit denen wiederum die entsprechenden Deep-Learning-Anwendungen umgesetzt werden sollen. Eine erste Implementierung im Deep Bench sieht schon die Radeon Instinct MI8 bei einer GEMM-Messung vor Nvidias aktueller Titan X und die Radeon Instinct MI25 liegt mit fast 50 Prozent Abstand in Front. Aufgrund unbekannter Matrizengröße ist dieser Vergleich allerdings ziemlich irreführend.
AMD plant, zusammen mit Partnern wie Inventec und Supermicro Racks zu entwickeln, in denen bis zu 25 Beschleuniger vom Typ Radeon Instinct MI25 mit dem kommenden Naples-Prozessor mit 32 Zen-Kernen kombiniert werden. Ein solches System kommt auf bis zu 3 Petaflops bei halber Genauigkeit.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Siehe unten ROCm den Punkt HIP, womit CUDA in C++ übersetzt wird.
https://scr3.golem.de/screenshots/1612/AMD-Radeon-Instinct/AMD-Radeon-Instinct-03.png