• IT-Karriere:
  • Services:

Project Trillium: ARM integriert Nvidias DLA für AI-Geräte

Wer künftig Chips mit ARM-Kernen entwickelt, kann darin auch Nvidias Deep Learning Accelerator verwenden. Passend dazu ist die TensorRT-Bibliothek nun Teil von Googles Tensorflow für eine höhere Leistung.

Artikel veröffentlicht am ,
ARM integriert Nvidias DLA
ARM integriert Nvidias DLA (Bild: ARM)

ARM und Nvidia arbeiten zusammen: Umfasste das Project Trillium bisher nur je eine IP für Machine Learning und eine für Object Detection von ARM selbst, so wird mit Nvidias Deep Learning Accelerator (DLA) nun auch eine offene Architektur für Inferencing eines weiteren Herstellers unterstützt.

Stellenmarkt
  1. Universitätsmedizin der Johannes Gutenberg-Universität Mainz, Mainz
  2. Roche Diagnostics Automation Solutions GmbH, Kornwestheim

Hinter dem DLA verbirgt sich spezielle Hardware: Diese beschleunigt ein für einen bestimmten Zweck angelerntes Netz, um etwa spezifische Details eines eingelesenen Bildes zu erkennen. Für Training müssen weiterhin schnelle FPGAs, GPUs, TPUs oder allgemein ASICs verwendet werden. Das Project Trillium ist hingegen auf das Internet der Dinge, also sogenannte Edge-Devices, und unter anderem auch Smartphones ausgelegt. Denkbare Einsatzzwecke sind Kühlschränke oder Überwachungskameras.

Ursprünglich hatte Nvidia den Deep Learning Accelerator als Teil des Xavier-Tegra vorgestellt, einem SoC, das bei den Automotive-Plattformen Drive Xavier und dem leistungsstärkeren Drive Pegasus eingesetzt wird. Der DLA soll von einer künftigen Version von Nvidias TensorRT-Bibliothek unterstützt werden.

Das neue TensorRT 4, das ab April 2018 verfügbar sein soll, enthält diverse Verbesserungen: Es wurde in Googles Tensorflow 1.7 integriert, was in einer höheren Geschwindigkeit resultieren soll. Hinzu kommen Optimierungen für die Spracherkennungs-Software Kaldi. Überdies ist TensorRT 4 nun kompatibel zum Open-Source-AI-Industriestandard ONNX (Open Neural Network Exchange), dem auch Microsofts neues WinML-Framework (Windows Machine Learning) folgt.

Zu den beiden zusätzlichen GPUs auf dem Drive Pegasus äußerte sich Nvidia nicht, zumindest ein früheres Rendering zeigte aber GDDR6-Videospeicher. Somit ist anzunehmen, dass es sich um kommende Volta-Chips handelt. Die neue simplifizierte Darstellung erinnert an HBM2-Speicher, was aber nicht sein kann. Denn Nvidia verwendet diese Vereinfachung auch für das Drive PX2 (Lite), was zumindest im Falle eines Tesla Model S einen GP106-Chip mit GDDR5-Speicher nutzt.

Offenlegung: Golem.de hat auf Einladung von Nvidia an der GTC 2018 im kalifornischen San Jose teilgenommen. Die Reisekosten wurden zur Gänze von Nvidia übernommen. Unsere Berichterstattung ist davon nicht beeinflusst und bleibt gewohnt neutral und kritisch. Der Artikel ist, wie alle anderen auf unserem Portal, unabhängig verfasst und unterliegt keinerlei Vorgaben seitens Dritter.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Anzeige
Hardware-Angebote
  1. täglich neue Deals bei Alternate.de
  2. 139,90€

Folgen Sie uns
       


Watch Dogs Legion angespielt

Mit Legion bekommt die Serie Watch Dogs eine dritte Chance von Ubisoft. Schauplatz ist London nach dem Brexit, eine korrupte Regierung und Banden unterdrücken die Bevölkerung, die sich allerdings wehrt. Wichtigste Neuerung gegenüber den Vorgängern: Spieler können Passanten für den Widerstand rekrutieren.

Watch Dogs Legion angespielt Video aufrufen
    •  /