Xavier-Tegra: Nvidia entwickelt eigene TPU für autonome Autos

Googles Deep-Learning-Beschleuniger TPU lassen sich nur in der Cloud mieten. Nvidia will ähnliche Chips künftig als Teil seiner Xavier-SoCs verkaufen und als Open Source anbieten.

Artikel veröffentlicht am , /
Xavier-Tegra-SoC mit INT8-Beschleunigung
Xavier-Tegra-SoC mit INT8-Beschleunigung (Bild: Nvidia)

Auf der GTC Europe 2016 in London hat Nvidia den Xavier-Chip vorgestellt. Das SoC nutzt 512 Shader-Kerne mit Volta-Architektur und laut Nvidia auch sogenannte Computer-Vision-Beschleuniger. Dahinter verbergen sich Funktionseinheiten, die pro Takt doppelt so viele INT8- wie FP16-Berechnungen durchführen können. Nvidia bezeichnet diese auf der GTC 2017 nun offiziell als DLA (Deep Learning Accelerator). Gedacht sind die DLA für das Inferencing beim maschinellen Lernen und im Xavier-SoC für den Automotive-Markt.

Stellenmarkt
  1. Embedded C++ Software Entwickler (m/w/d)
    RMG Messtechnik GmbH, Beindersheim (Raum Mannheim)
  2. SAP HCM Senior Berater (m/w/x)
    über duerenhoff GmbH, Haßfurt
Detailsuche

Dort werden Nvidias Tegras häufig eingesetzt, neuester Partner ist Toyota - der momentan größte Automobilhersteller der Welt. Auf der CES 2017 kündigte Nvidia bereits Audi, ZF und Bosch als Partner an. Den Einsatzzweck für die DLA benennt Nvidia entsprechend sehr deutlich: autonome Autos.

Dedizierte Einheiten zur Modellanwendung

Obwohl Nvidia die DLA zuvor noch als Computer-Vision-Beschleuniger bezeichnet hat, können diese prinzipiell auch für jede andere Deep-Learning-Aufgabe genutzt werden. Mit den DLA lassen sich so zusätzlich zur Modellverarbeitung bei der Bilderkennung auch die Umgebungsdaten unterschiedlicher Sensoren analysieren.

  • Tensorflow- und Caffe-Modelle lassen sich für Nvidias-Hardware optimieren. (Bild: Nvidia)
  • Tensorflow- und Caffe-Modelle lassen sich für Nvidias-Hardware optimieren.  (Bild: Nvidia)
  • Tensorflow- und Caffe-Modelle lassen sich für Nvidias-Hardware optimieren.  (Bild: Nvidia)
  • Tensorflow- und Caffe-Modelle lassen sich für Nvidias-Hardware optimieren.  (Bild: Nvidia)
  • Tensorflow- und Caffe-Modelle lassen sich für Nvidias-Hardware optimieren.  (Bild: Nvidia)
  • Tensorflow- und Caffe-Modelle lassen sich für Nvidias-Hardware optimieren.  (Bild: Nvidia)
  • Der Xavier SoC wird für autonome Autos vermarktet ... (Bild: Nvidia)
  • ... das nutzt künftig auch Toyota. (Bild: Nvidia)
  • Der Xavier SoC enthält DLA für das Inferencing. (Bild: Nvidia)
  • Die Xavier DLA sollen Open Source werden. (Bild: Nvidia)
Tensorflow- und Caffe-Modelle lassen sich für Nvidias-Hardware optimieren. (Bild: Nvidia)

Die DLA-Einheiten sind wie bei den TPU von Google nicht für das Training von neuronalen Netzen gedacht. Das wird von der GPU mit Shader-Kernen erledigt. Stattdessen hat Nvidia die DLA für das sogenannte Inferencing ausgelegt, diese beschleunigen also ein für einen bestimmten Zweck angelerntes Netz, um etwa spezifische Details eines eingelesenen Bildes zu erkennen.

Golem Akademie
  1. Python kompakt - Einführung für Softwareentwickler
    28.-29. Oktober 2021, online
  2. Terraform mit AWS
    14.-15. Dezember 2021, online
  3. Linux-Systemadministration Grundlagen
    25.-29 Oktober 2021, online
Weitere IT-Trainings

Auf der GTC 2017 in San Jose gab Nvidia eine Leistung von 30 Teraops bei 30 Watt für den Xavier-Chip an, eine frühere Angabe lautete 20 TOPS bei 20 Watt. Googles TPU schaffen bei einer maximalen TDP von 75 Watt bei 700 MHz immerhin 91,8 TOPS. Anders als die DLA von Nvidia im Xavier-SoC können Googles TPU aber nicht gekauft, sondern nur in den Cloud-Diensten von Google gemietet werden.

Vages Open-Source-Versprechen

Bei der Ankündigung der DLA sagte Nvidia-Chef Jensen Huang: "Wir machen die Xavier DLA Open Source". Was genau damit gemeint ist, ist allerdings unklar. Dass Nvidia die eigentliche Hardware offenlegen wird, wäre angesichts der bisherigen Firmenpolitik ein geradezu revolutionärer Umbruch und damit eher unwahrscheinlich.

Vermutlich wird allerdings der Open-Source-Support, etwa durch Treiber, Compiler und Werkzeuge, relativ weitgehend ausfallen. Für die bisherigen Tegra-Chips hat Nvidia zum Beispiel auch den freien Linux-Grafiktreiber Nouveau aktiv unterstützt und an dessen Entwicklung mitgewirkt.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Aktuell auf der Startseite von Golem.de
Venturi-Tunnel
Elektro-Motorrad mit Riesenloch auf der Teststrecke

White Motorcycle Concepts testet sein Elektromotorrad WMC250EV, bei dem der Fahrer auf einem riesigen Tunnel sitzt. Später soll es 400 km/h erreichen.

Venturi-Tunnel: Elektro-Motorrad mit Riesenloch auf der Teststrecke
Artikel
  1. Elektroauto: Cadillac Lyriq nach 19 Minuten weg
    Elektroauto
    Cadillac Lyriq nach 19 Minuten weg

    Einen der ersten Cadillac Lyriq zu reservieren, glich mehr einer Lotterie als einem Autokauf. In wenigen Minuten waren alle Luxus-Elektroautos vergriffen.

  2. Autos, Scooter und Fahrräder: Berlin reguliert Sharing-Mobilitätsangebote
    Autos, Scooter und Fahrräder
    Berlin reguliert Sharing-Mobilitätsangebote

    Die Nutzung des öffentlichen Raums durch Autos, Scooter und Fahrräder von Sharing-Unternehmen wird in Berlin reguliert.

  3. Abonnenten verunsichert: Apple hat Hörbücher aus Apple Music entfernt
    Abonnenten verunsichert
    Apple hat Hörbücher aus Apple Music entfernt

    Wer mit einem Musikstreamingabo Hörbücher hören will, muss von Apple Music zu Deezer, Spotify oder einem anderen Anbieter wechseln.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • Nur noch heute: MM-Club-Tage (u. a. SanDisk Ultra 3D 2 TB 142,15€) • Corsair Vengeance RGB PRO 16-GB-Kit DDR4-3200 71,39€ • Corsair RM750x 750 W 105,89€ • WD Elements Desktop 12 TB 211,65€ • Alternate (u. a. Creative SB Z SE 71,98€) • ASUS ROG Crosshair VIII Hero WiFi 269,99€ [Werbung]
    •  /