Zum Hauptinhalt Zur Navigation

Xavier: Nvidias nächster Tegra soll extrem effizient sein

GTC Europe 2016
Optimiert auf Deep Learning: Nvidia hat einen neuen Tegra -Chip angekündigt, Codename Xavier. Das SoC soll ein KI-Supercomputer sein, denn Nvidias Ziel ist mit 1 TOPS pro Watt ambitioniert.
/ Marc Sauter
10 Kommentare News folgen (öffnet im neuen Fenster)
Xavier ist der Codename von Nvidias nächstem Tegra-Chips. (Bild: Tobias Költzsch/Golem.de)
Xavier ist der Codename von Nvidias nächstem Tegra-Chips. Bild: Tobias Költzsch/Golem.de

Nvidia-Chef Jen-Hsun Huang hat auf der Keynote der europäischen GPU Technology Conference 2016 in Amsterdam den Tegra Xavier angekündigt – übrigens ohne die ikonische Lederjacke, die hatte Huang ein paar Minuten zuvor ausgezogen. Benannt ist der neue Chip für Deep Learning nach Charles Xavier, dem Gründer der X-Men aus den Marvel-Comics. Schon der Vorvorgänger Logan (Wolverine) alias Tegra K1 ist an einen der X-Men angelehnt.

Der Tegra Xavier wird im 16FF+ (16 Nanometer FinFET Plus) genannten Verfahren beim taiwanischen Auftragsfertiger TSMC hergestellt, dieselbe Technik nutzt Nvidia unter anderem für seinen Grafikchip GP104 in der Geforce GTX 1080/1070 . Der neue Tegra soll aus sieben Milliarden Transistoren bestehen – zum Vergleich: Der GP102 der Titan X und der Tesla P40 bringen es auf zwölf Milliarden Transistoren, ebenfalls mit 16FF+.

In der kurzen Vorstellung des Tegra Xavier nannte Nvidia noch einige Details: Der Chip nutzt acht selbst entwickelte Kerne mit ARMs 64-Bit-Architektur ARMv8, vermutlich die dritte Generation der eigenen Denver-Entwicklung oder eine andere Technik mit neuer Bezeichnung. Die integrierte GPU weist, anders als beim kommenden Tegra Parker , 512 statt 256 Shader-Einheiten auf, zudem basierend auf der Volta- statt der Pascal-Architektur. Weitere SoC-Bestandteile sind zwei 8K-Bildsensoren und neue Computer-Vision-Beschleuniger.

Auch Leistungsangaben hatte Huang parat – der Tegra Xavier soll 1 TOPS pro Watt erreichen. Die setzen sich zusammen aus 20 Watt Leistungsaufnahme und 20 TOPS Rechengeschwindigkeit. Damit dürften wahrscheinlich 8-Bit-Integer-Operationen gemeint sein, die für Deep Learning relevant sind. Das Ziel, 1 TOPS/Watt, wäre extrem effizient. Muster des Tegra Xavier möchte Nvidia ab dem vierten Quartal 2017 seinen Partnern zur Verfügung stellen.


Relevante Themen