Zum Hauptinhalt Zur Navigation

Project Trillium: ARM integriert Nvidias DLA für AI-Geräte

GTC 2018
Wer künftig Chips mit ARM-Kernen entwickelt, kann darin auch Nvidias Deep Learning Accelerator verwenden. Passend dazu ist die TensorRT-Bibliothek nun Teil von Googles Tensorflow für eine höhere Leistung.
/ Marc Sauter
Kommentare News folgen (öffnet im neuen Fenster)
ARM integriert Nvidias DLA (Bild: ARM)
ARM integriert Nvidias DLA Bild: ARM

ARM und Nvidia arbeiten zusammen: Umfasste das Project Trillium bisher nur je eine IP für Machine Learning und eine für Object Detection von ARM selbst, so wird mit Nvidias Deep Learning Accelerator(öffnet im neuen Fenster) (DLA) nun auch eine offene Architektur für Inferencing eines weiteren Herstellers unterstützt.

Hinter dem DLA(öffnet im neuen Fenster) verbirgt sich spezielle Hardware: Diese beschleunigt ein für einen bestimmten Zweck angelerntes Netz, um etwa spezifische Details eines eingelesenen Bildes zu erkennen. Für Training müssen weiterhin schnelle FPGAs, GPUs, TPUs oder allgemein ASICs verwendet werden. Das Project Trillium ist hingegen auf das Internet der Dinge, also sogenannte Edge-Devices, und unter anderem auch Smartphones ausgelegt. Denkbare Einsatzzwecke sind Kühlschränke oder Überwachungskameras.

Nvidia kündigt Drive Xavier an (CES 2018)
Nvidia kündigt Drive Xavier an (CES 2018) (08:29)

Ursprünglich hatte Nvidia den Deep Learning Accelerator als Teil des Xavier-Tegra vorgestellt, einem SoC, das bei den Automotive-Plattformen Drive Xavier und dem leistungsstärkeren Drive Pegasus eingesetzt wird. Der DLA soll von einer künftigen Version von Nvidias TensorRT-Bibliothek unterstützt werden.

Das neue TensorRT 4(öffnet im neuen Fenster) , das ab April 2018 verfügbar sein soll, enthält diverse Verbesserungen: Es wurde in Googles Tensorflow 1.7 integriert, was in einer höheren Geschwindigkeit resultieren soll. Hinzu kommen Optimierungen für die Spracherkennungs-Software Kaldi. Überdies ist TensorRT 4 nun kompatibel zum Open-Source-AI-Industriestandard ONNX (Open Neural Network Exchange), dem auch Microsofts neues WinML -Framework (Windows Machine Learning) folgt.

Zu den beiden zusätzlichen GPUs auf dem Drive Pegasus äußerte sich Nvidia nicht, zumindest ein früheres Rendering zeigte aber GDDR6-Videospeicher. Somit ist anzunehmen, dass es sich um kommende Volta-Chips handelt. Die neue simplifizierte Darstellung erinnert an HBM2-Speicher, was aber nicht sein kann. Denn Nvidia verwendet diese Vereinfachung auch für das Drive PX2 (Lite), was zumindest im Falle eines Tesla Model S einen GP106-Chip mit GDDR5-Speicher(öffnet im neuen Fenster) nutzt.

Offenlegung: Golem.de hat auf Einladung von Nvidia an der GTC 2018 im kalifornischen San Jose teilgenommen. Die Reisekosten wurden zur Gänze von Nvidia übernommen. Unsere Berichterstattung ist davon nicht beeinflusst und bleibt gewohnt neutral und kritisch. Der Artikel ist, wie alle anderen auf unserem Portal, unabhängig verfasst und unterliegt keinerlei Vorgaben seitens Dritter.


Relevante Themen