Original-URL des Artikels: https://www.golem.de/news/gpu-technology-conference-nvidia-laesst-sich-zeit-1903-140119.html    Veröffentlicht: 21.03.2019 15:30    Kurz-URL: https://glm.io/140119

GPU Technology Conference

Nvidia lässt sich Zeit

Alles sei exzellent, sagte Nvidia-Chef Jensen Huang über die Hard- und Software seines Unternehmens. Statt echter Neuheiten gab es auf der Hausmesse des Unternehmens inkrementelle Verbesserungen, für die Einstein eine wichtige Rolle spielte.

Jensen Huang ist ein Redner, der nicht die ganz großen Ankündigungen benötigt, um in Lederjacke eine Präsentation interessant zu machen. Bei der Eröffnungsansprache auf Nvidias Hausmesse GTC ließ sich Huang aber zu viel Zeit: Kein Wort zu neuen Grafikchips wie Ampere für maschinelles Lernen oder wie Orin für autonomes Fahren, stattdessen sprach der CEO erneut über Raytracing und handelte gegen Ende der fast drei statt zwei Stunden noch schnell Themen wie Drive Constellation und Jetson Nano ab.

Die Keynote-Ansprache verdeutlichte, dass Nvidia in einigen Bereichen kaum Konkurrenz hat und sich auf bestehende Projekte fokussiert: Die Cuda-Software, deren beschleunigte Bibliotheken nun als Cuda X zusammengefasst werden, ist der De-facto-Standard in der Industrie und läuft auf Geforce-, Quadro- sowie Tesla-Karten. Die Datacenter-Sparte von Nvidia macht jedes Jahr mehr Umsatz und Gewinn, wenngleich das Gaming-Segment mit den Turing-basierten Geforce RTX für Raytracing noch stärker ist. Der Kauf des Netzwerkspezialisten Mellanox für knapp 7 Milliarden US-Dollar verdeutlicht zudem, wo Nvidia weitere Wachstumschancen sieht.

Eine neue Datacenter-GPU wie das angeblich Ampere genannte Design wurde auf der Messe allerdings nicht angekündigt, hier bleibt es beim GV100-Chip für Beschleuniger wie die Tesla V100 von vor zwei Jahren. Kurzer Rückblick: An der grundsätzlichen Architektur von Volta und somit auch Turing hat Nvidias Entwicklungsabteilung sehr viele Jahre gearbeitet, die Basis war ein Einstein/Echelon genanntes Projekt: Mindestens seit 2010 wurde daran geforscht, wobei Nvidia einer damaligen Präsentation zufolge mit einem 10-nm-Verfahren, rund 20 Teraflops und weit über 1 TByte/s Bandbreite für Exaflop-Systeme plante. Zwei von drei solcher US-amerikanischen Supercomputer, der Frontier und der El Capitan, werden IBM-/Nvidia-Hardware nutzen. Nur der Aurora setzt auf Intel-Technik, genauer kommende Xeon-Prozessoren und Xe-Compute-Beschleuniger.

Ganz so schnell wie einst angedacht ist eine Tesla V100 allerdings nicht und der GV100-Chip entsteht auch noch im 12FFN-Verfahren (kurz für FinFet Nvidia). Auf die Frage, warum Nvidia die aktuellen Turing-Grafikchips in 12FFN fertigt und nicht in 7 nm, sagte Huang, es komme mehr auf die Architektur und die Sofware als auf den Node an. Und hier sei "alles exzellent", sagte Huang. Schon mit der Maxwell-Technik habe Nvidia gezeigt, dass trotz weiterhin 28 nm verglichen zu Kepler die Leistung und die Effizienz drastisch steigen können. Auch einen Seitenhieb auf AMDs Vega 20 in 7 nm und die Radeon VII konnte er sich nicht verkneifen: Die benötigt 300 Watt und hat dennoch weniger Leistung als eine sparsamere Geforce RTX 2080 und ist nur bedingt konkurrenzfähig zu einer Tesla V100 mit ebenfalls 300 Watt.

Im ohnehin langsam voranschreitenden Automotive-Segment hat Nvidia die Drive Constellation genannte Simulationsplattform für (teil-)autonome Fahrzeuge so weit fertiggestellt, dass Partner wie Toyota sie nutzen können. Die dazugehörige Hardware, das Drive AGX Pegasus mit zwei Turing-TU104- und zwei Xavier-Chips, zeigt Nvidia weiterhin nicht öffentlich; alle Mockups sind stattdessen mit GP100-Chips versehen. Das Orion-SoC, das in doppelter Form die gleiche Geschwindigkeit bei drastisch weniger Leistungsaufnahme erreichen soll, war auf der GTC 2019 ebenfalls kein Thema - auch hier nimmt sich Nvidia Zeit. Als Nächstes soll das BB8-Testfahrzeug nach erfolgreichen Versuchen auf dem Highway in der Innenstadt auf Erfahrungstouren rollen.

Einstein und darauf basierend Volta für Datacenter sowie Turing für autonome Fahrzeuge und Raytracing-Render-Farmen bilden somit die Grundlage für viele Ankündigungen von Nvidia, die eher inkrementelle Verbesserungen denn echte Neuheiten sind. Nvidia lässt sich offenbar bewusst Zeit mit kommender Hardware und baut währenddessen das ohnehin schon starke Ökosystem aus - bisher ein erfolgreiches Geschäftsmodell.  (ms)


Verwandte Artikel:
Grafikkarte: Jensen Huang verteilt CEO-Edition der Titan V   
(21.06.2018, https://glm.io/135086 )
EC2 G4: AWS nutzt Nvidias Tesla T4 für Inferencing-Cloud   
(19.03.2019, https://glm.io/140110 )
DGX-2H: Nvidia packt 450-Watt-Module in Mini-Supercomputer   
(21.11.2018, https://glm.io/137829 )
Grafikkarte: Nvidias neuer Gamer-Chip soll Turing heißen   
(13.02.2018, https://glm.io/132749 )
Game-Streaming: Geforce Now erhält RTX-Server für Raytracing-Spiele   
(19.03.2019, https://glm.io/140087 )

© 1997–2019 Golem.de, https://www.golem.de/