Abo
  • Services:
Anzeige
Nvidia-Chef Jen-Hsun Huang stellt die Tesla V100 vor
Nvidia-Chef Jen-Hsun Huang stellt die Tesla V100 vor (Bild: Marc Sauter/Golem.de)

AI-Beschleuniger: Nvidias Tesla V100 nutzt 815-mm²-Volta-Chip

Nvidia-Chef Jen-Hsun Huang stellt die Tesla V100 vor
Nvidia-Chef Jen-Hsun Huang stellt die Tesla V100 vor (Bild: Marc Sauter/Golem.de)

Nvidia hat die Tesla V100 angekündigt, eine für Deep-Learning gedachte Beschleunigerkarte mit Volta-GPU. Die ist absurd groß, weist 5.376 Shader-Einheiten auf und beherrscht neue Tensor-Op-Instruktionen für Training und Inferencing.

Nvidia-Chef Jen-Hsun Huang hat auf der GPU Technology Conference 2017 im kalifornischen San Jose die Tesla V100 vorgestellt. Das neue Beschleunigermodul basiert auf der Volta-Architektur und ist für Cloud-Plattformen, Deep Learning und künstliche Intelligenz ausgelegt. Laut Huang war der zugrunde liegende Chip das komplexeste Produkt seiner Karriere, was die technischen Daten der GV100 genannten GPU mit 5.376 Rechenkernen unterstreichen.

Anzeige
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)

Der Chip misst 815 mm² und damit der größte der bisher in Serie gefertigt wurde. Er wird bei der TSMC im 12-nm-FinFET-Verfahren produziert, einem verbesserten 16-nm-Node. Das erklärt die enormen Abmessungen, welche das Limit dessen darstellen dürften, was technisch noch möglich ist. Die GPU integriert 21,1 Milliarden Transistoren und weist 5.120 aktive Shader-Einheiten bei 1.455 MHz sowie 300 Watt TDP auf. Zum Vergleich: Der auf der GTC 2016 vorgestellte GP100-Chip der Tesla P100 kommt auf 15,3 Milliarden Transistoren auf 610 mm² für 3.840 ALUs bei 1.480 MHz und 300 Watt TDP.

Einer der Gründe für die Maße sind die satten 20 MByte an Registerspeicher, hinzu kommen 10 MByte L1- und 6 MByte L2-Cache. Diese sehr großen Zwischenpuffer ermöglichen es Nvidia mehr Daten lokal vorzuhalten, wodurch die Geschwindigkeit steigt. Die theoretische Rechenleistung beträgt 15 Teraflops bei einfacher Genauigkeit (FP32) und 7,5 Teraflops bei doppelter Genauigkeit (FP64). Zu beschleunigtem INT8 äußerte sich Nvidia nicht, stattdessen beherrscht die Tesla V100 sogenannte Tensor-Op-Instruktionen für FP16 und FP32.

  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)

Hierzu verbaut Nvidia 672 dedizierte Tensor-Cores (640 in der V100), die 4x4- Matrizen mit FP16-Input und FP32-Output per FMA berechnen. Das macht 64 FLOPS pro Taktzyklus und Tensor-Kern und somit 120 Teraflops im Falle der Tesla V100. Die Instruktion soll Training um Faktor 12 und Inferencing um Faktor 6 verglichen mit der älteren Tesla P100 beschleunigen. Die FP32-/F64-Leistung steigt mit Tesla V100 um gut 40 Prozent. Der Speicherausbau der neuen Karte beläuft sich auf 16 GByte HBM2, die Transferrate liegt aber bei 900 statt 720 GByte die Sekunde. Mehrere Tesla V100 lassen sich per NV-Link 2.0 koppeln: Die Bandbreite pro Link liegt bei 25 statt 20 bidirektionale GByte die Sekunde, zudem gibt es sechs statt vier Verbindungen, also 300 statt 200 GByte/s.

Neben dem SXM2-Modul mit Mezzanine-Anschlüssen plant Nvidia auch eine Tesla V100 für Inferencing. Diese PCIe-Karte in FHHL-Bauweise (Full Height Half Length) benötigt 150 Watt. Leistungsangaben gibt es nicht, der Beschleuniger soll aber um bis zu Faktor 20 schneller sein als Intels neue Skylake-SP mit AVX512. Das gilt freilich nur bei Inferencing und ist ein geschätzter Wert.

  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
  • Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)
Nvidia stellt die Tesla V100 vor (Foto: Marc Sauter/Golem.de)

Die Tesla V100 möchte Nvidia ab dem vierten Quartal 2017 ausliefern. Wer früher ein Modell benötigt, muss zu einem aktualisierten DGX-1- oder HGX-1-System oder der neuen wassergekühlten DGX-Station greifen.


eye home zur Startseite
tangonuevo 11. Mai 2017

Nvidia hat unter anderem mal dreist ein Holzmodell einer Graphikkarte auf einer Messe...

dabbes 11. Mai 2017

orientieren sich stark an der intel Enterprise-Strategie.

Trollversteher 11. Mai 2017

Die verschiedenen Netz-Layer verarbeiten die Daten auf verschiedenen Abstraktionsebenen...

M.P. 11. Mai 2017

Da musste ich sofort an diesen Film denken...



Anzeige

Stellenmarkt
  1. AKDB Anstalt für kommunale Datenverarbeitung in Bayern, Regensburg
  2. Oemus Media AG, Leipzig
  3. LEONI AG, Nürnberg
  4. Hornbach-Baumarkt-AG, Neustadt


Anzeige
Spiele-Angebote
  1. ab 59,99€ (Vorbesteller-Preisgarantie)
  2. 99,99€ mit Vorbesteller-Preisgarantie
  3. 17,46€

Folgen Sie uns
       


  1. Docsis 3.0

    Huawei erreicht 1,6 GBit/s mit altem Kabelnetzstandard

  2. Tasty One Top

    Buzzfeed stellt vernetzte Kochplatte vor

  3. Automated Valet Parking

    Lass das Parkhaus das Auto parken!

  4. Log-in-Allianz

    Prosieben, GMX und Zalando starten Single-Sign-on-Dienst

  5. Andreas Kaufmann

    Leica-Chef träumt vom eigenen Kamera-Smartphone

  6. Elektromobilität

    Porsche kommt in die Formel E

  7. Keylogger

    Arbeitgeber dürfen Mitarbeiter nicht generell ausspähen

  8. Schulden

    Toshiba-Partner und Geldgeber wollen Insolvenzverfahren

  9. Sysadmin Day 2017

    Zum Admin-Sein fehlen mir die Superkräfte!

  10. Ipod Touch günstiger

    iPod Nano und iPod Shuffle eingestellt



Haben wir etwas übersehen?

E-Mail an news@golem.de


Anzeige
Anker Powercore+ 26800 PD im Test: Die Powerbank für (fast) alles
Anker Powercore+ 26800 PD im Test
Die Powerbank für (fast) alles
  1. SW271 Benq bringt HDR-Display mit 10-Bit-Panel
  2. Toshiba Teures Thunderbolt-3-Dock mit VGA-Anschluss
  3. Asus Das Zenbook Flip S ist 10,9 mm flach

Creoqode 2048 im Test: Wir programmieren die größte portable Spielkonsole der Welt
Creoqode 2048 im Test
Wir programmieren die größte portable Spielkonsole der Welt
  1. Arduino 101 Intel stellt auch das letzte Bastler-Board ein
  2. 1Sheeld für Arduino angetestet Sensor-Platine hat keine Sensoren und liefert doch Daten
  3. Calliope Mini im Test Neuland lernt programmieren

Poets One im Test: Kleiner Preamp, großer Sound
Poets One im Test
Kleiner Preamp, großer Sound
  1. Dunkirk Interstellar-Regisseur setzt weiter auf 70mm statt 4K
  2. Umfrage Viele wollen weg von DVB-T2
  3. DVB-T2 Freenet TV will wohl auch über Astra ausstrahlen

  1. Re: Ich habe in den Spiegel geschaut

    eugenJohannes | 12:54

  2. Re: So what?!?

    ChMu | 12:54

  3. Englisch 6

    RaphvsMaximvs | 12:53

  4. Re: Da sind die Admins selbst dran schuld

    TC | 12:52

  5. Re: Hier mal meine Admin Erfahrung

    Quantumsuicide | 12:51


  1. 12:45

  2. 12:29

  3. 11:58

  4. 11:47

  5. 11:34

  6. 11:20

  7. 11:06

  8. 10:41


  1. Themen
  2. A
  3. B
  4. C
  5. D
  6. E
  7. F
  8. G
  9. H
  10. I
  11. J
  12. K
  13. L
  14. M
  15. N
  16. O
  17. P
  18. Q
  19. R
  20. S
  21. T
  22. U
  23. V
  24. W
  25. X
  26. Y
  27. Z
  28. #
 
    •  / 
    Zum Artikel