Original-URL des Artikels: https://www.golem.de/news/ai-beschleuniger-nvidia-bringt-zwei-varianten-der-tesla-v100-1706-128497.html    Veröffentlicht: 21.06.2017 14:05    Kurz-URL: https://glm.io/128497

AI-Beschleuniger

Nvidia bringt zwei Varianten der Tesla V100

PCIe oder SXM2: Nvidia wird die Tesla V100 genannte Volta-basierte Rechenkarte für Deep Learning noch 2017 in zwei Formfaktoren veröffentlichen. Die Tesla V100 in Modul-Bauweise ist wie beim Vorgänger etwas schneller und benötigt mehr Energie.

Nvidia hat zwei Modelle der Tesla V100 angekündigt. So heißen die neuen Rechenkarten, die zur Entwicklung neuronaler Netze im Bereich künstlicher Intelligenz oder allgemein für Deep Learning eingesetzt werden sollen. Die beiden Tesla V100 basieren auf dem GV100-Chip mit Volta-Architektur und beinhalten Ausführungseinheiten zur Matrix-Multiplikation.

Wie schon bei der Tesla P100 unterscheidet Nvidia zwischen einer PCIe- und einer SXM2-Variante. Das PCIe-Modell ist eine Steckkarte für PEG-Slots mit passiver Kühlung, die Frischluft durch Lüfter in einem Server-Rack erhält. Sie weist 5.120 Shader-Einheiten bei 1.367 MHz auf und erreicht so eine Rechenleistung von 14 Teraflops (FP32); die Tensor-Cores für Deep Learning schaffen 112 Teraflops. Die 16 GByte HBM2-Speicher liefern 900 GByte die Sekunde. Nvidia nennt eine Leistungsaufnahme von 250 Watt.

Das Modul-Pendant in SXM2-Bauweise mit Mezzanine-Anschlüssen unterstützt den NV-Link 2.0, der eine schnelle Kommunikation der Beschleuniger untereinander oder mit IBMs Power9-Prozessoren ermöglicht. Die SMX2-Varianten takten mit 1.455 MHz etwas höher und schaffen daher 14,9 Teraflops (FP32) sowie 119,2 Teraflops (Matrix-Multiplikation). Die Speichergeschwindigkeit ist identisch zum PCIe-Modell, durch den höheren Chiptakt steigt die TDP aber auf 300 Watt. Die wenigen Server-Hersteller, die bereits die Tesla P100 einsetzen, können ihre Kühlungen für die Tesla V100 weiter verwenden.

Preise und Verfügbarkeit für die beiden neuen Tesla V100 nennt Nvidia nicht. Sie sollen aber noch 2017 erhältlich sein und durch Partner oder Hersteller vertrieben werden. HPE etwa möchte mehrere Systeme anbieten.  (ms)


Verwandte Artikel:
8-GByte-Stapelspeicher: Samsung steigert HBM2-Produktion   
(18.07.2017, https://glm.io/128979 )
Nvidias GV100-Chip: "Wir sind am Limit des technisch Möglichen"   
(11.05.2017, https://glm.io/127773 )
Grafikkarten: Nvidias Quartalszahlen zeigen 18 Prozent mehr Umsatz   
(10.11.2017, https://glm.io/131086 )
Autonomes Fahren: Baidu darf fahrerlose Autos in Peking testen   
(26.03.2018, https://glm.io/133521 )
Mali-G72: ARMs Grafikeinheit für Deep-Learning-Smartphones   
(29.05.2017, https://glm.io/128065 )

© 1997–2019 Golem.de, https://www.golem.de/