Original-URL des Artikels: https://www.golem.de/news/tesla-v100-drei-volta-systeme-fuer-ki-berechnungen-1705-127758.html    Veröffentlicht: 11.05.2017 08:40    Kurz-URL: https://glm.io/127758

Tesla V100

Drei Volta-Systeme für KI-Berechnungen

Nvidias DGX-1, die wassergekühlte DGX-Station und das HGX-1 eignen sich für Deep Learning. Die Preise haben es in sich, frühe Käufer erhalten aber ein kostenloses Volta-Upgrade. Alle drei Systeme basieren auf der neuen Tesla V100.

Nvidia hat auf der Hausmesse GTC 2017 drei neue Systeme zur Berechnung von künstlicher Intelligenz angekündigt: ein aktualisiertes DGX-1, die neue DGX-Station und eine verbesserte Variante des HGX-1. Die technische Basis stellen jeweils mehrere Rechenmodule, genauer die kürzlich vorgestellte Tesla V100. Die Leistung der drei Varianten variiert je nach Anwendungszweck.

Beim DGX-1 handelt es sich um ein komplettes System mit zwei Prozessoren und acht Volta-Modulen. Nvidia verbaut zwei Xeon E5-2698 v4 (Broadwell-EP mit 20 Kernen) samt 512 GByte DDR4-Arbeitsspeicher. Hinzu kommen acht Tesla V100 statt acht Tesla P100, weshalb die für Inferencing wichtige FP16-Rechenleistung von 170 auf 960 Teraflops ansteigt. Beim Training mit Microsofts Resnet-50 soll das neue DGX-1 daher nur noch 7,4 statt 18 Stunden benötigen. Es kostet 150.000 US-Dollar und wird im dritten Quartal 2017 ausgeliefert. Wer jetzt ein DGX-1 mit Tesla P100 kauft, bekommt laut Nvidia kostenlos ein Volta-Upgrade.

Die DGX-Station ist eine Workstation basierend auf dem DGX-1: Statt acht stecken vier Tesla V100 darin, als Prozessor rechnet ein Xeon E5-2698 v4 mit 256 GByte RAM. Zwar werden PCIe-Karten statt Mezzanine-Module genutzt, die drei Displayports aber werden über eine auf dem Mainboard integrierte Grafikeinheit bereitgestellt. Die CPU und die GPUs sind wassergekühlt. Das System kostet 70.000 US-Dollar und soll im vierten Quartal 2017 verfügbar sein.

Für Hyperscale-Server ist die Neuauflage des HGX-1 gedacht: Bis zu acht Tesla V100 sind per NV-Link 2.0 verbunden, das System selbst kommuniziert per PCIe mit dem Host. Die Plattform ist Teil des Open Compute Projects, sie soll unter anderem von Microsoft für dessen Azure-Cloud eingesetzt werden. Je nach Kundenwunsch kann das Volta-HGX-1 mit einer CPU und zwei GPUs (1C:2G) oder als 2C:4G- oder als 4C:8G-Konfiguration bestückt sein.  (ms)


Verwandte Artikel:
DGX-1: Nvidias Supercomputerchen mit 8x Tesla P100   
(06.04.2016, https://glm.io/120155 )
Open Compute Project: Nvidias KI-Beschleuniger HGX-1 wird Teil von Project Olympus   
(09.03.2017, https://glm.io/126623 )
Grafikkarte: Nvidias neuer Gamer-Chip soll Turing heißen   
(13.02.2018, https://glm.io/132749 )
Xavier-Tegra: Nvidia entwickelt eigene TPU für autonome Autos   
(17.05.2017, https://glm.io/127854 )
Wintersport: Roboter Curly spielt Curling   
(08.03.2018, https://glm.io/133219 )

© 1997–2019 Golem.de, https://www.golem.de/