Abo
  • Services:
Anzeige
Tesla P100 mit GP100-Chip
Tesla P100 mit GP100-Chip (Bild: Marc Sauter/Golem.de)

Pascal-Grafikchip: Benchmarks und Details zum GP100

Tesla P100 mit GP100-Chip
Tesla P100 mit GP100-Chip (Bild: Marc Sauter/Golem.de)

Nvidia hat ein paar zusätzliche Informationen zum GP100-Chip und der Tesla P100 mit Pascal-Technik verraten: Das Package ist für 32 statt 16 GByte HBM2-Speicher vorbereitet, was für künftige Modelle interessant wird. Erste Benchmarks zeigen, dass der Beschleuniger wie erwartet vor allem bei FP16- und FP64-Berechnungen stark ist.

Nvidia hat auf der GPU Technology Conference 2016 in San Jose, Kalifornien weitere Details und erste Messwerte zum GP100-Grafikchip und dem darauf basierenden Rechenbeschleuniger Tesla P100 bekannt gegeben. Im Nachgang der Keynote von CEO Jen-Hsun Huang gab es eine kurze Q&A mit Jonah Alben, Senior Vice President von GPU Engineering, und eine Deep-Dive-Session über die neue Pascal-Architektur. Die pickte sich aber nur einige Informationen aus dem Blog-Eintrag heraus und ließ daher Fragen offen.

Anzeige

Interessant war hierbei ein rudimentäres Blockdiagramm des GP100-Chips: Zwar fehlen dort die Raster- und die für Tessellation wichtigen Polymorph-Engines, dafür wird der Aufbau der sechs Graphics Processor Cluster klarer. Jeder enthält fünf TPCs - diese Bezeichnung verwendete Nvidia zuletzt beim G80, damals stand sie für Texture Processor Cluster. Pro TPC gibt es zwei Streaming Multiprocessors (SMP), die in zwei Blöcke mit jeweils 32 Shader-ALUs, eigenen Schedulern, Dispach-Ports und Register-Files unterteilt sind. Der Aufbau erinnert stark an AMDs aktuelle GCN-Technik (Graphics Core Next), die seit 2011 verwendet wird.

  • Blockdiagramm des GP100 (Bild: Marc Sauter/Golem.de)
  • Aufbau eines SM des GP100 (Bild: Marc Sauter/Golem.de)
  • Durch die reduzierte ALU-Anzahl in einem SM kann jede Einheit auf mehr Ressourcen zugreifen (Bild: Marc Sauter/Golem.de)
  • GP100 berechnet HP, SP und DP im Verhältnis 4:2:1 (Bild: Marc Sauter/Golem.de)
  • Auf der Rückseite sitzen die NV-Link-Anschlüsse (Bild: Marc Sauter/Golem.de)
  • Jede Tesla P100 nutzt vier NV-Links (Bild: Marc Sauter/Golem.de)
  • GP100 kommuniziert per NV-Link statt per PCIe (Bild: Marc Sauter/Golem.de)
  • Bei Power-CPUs können diese ebenfalls über NV-Link angesprochen werden (Bild: Marc Sauter/Golem.de)
  • Derzeit nutzt Nvidia 4-Hi-Stacks, der Spacer ist aber schon für 8-Hi-Stacks vorbereitet (Bild: Marc Sauter/Golem.de)
  • SK Hynix zeigt mögliche HBM2-Lösungen samt Datenraten (Bild: Marc Sauter/Golem.de)
  • HBM2 ist deutlich größer als HBM1 (Bild: Marc Sauter/Golem.de)
  • Theoretische Rechenleistung und Bandbreite von Tesla P100 im Vergleich mit einer M40 und K40 (Bild: Marc Sauter/Golem.de)
  • Benchmarks von Tesla P100 und K80 (Bild: Marc Sauter/Golem.de)
  • Tesla P100 (Bild: Marc Sauter/Golem.de)
  • GP100-Chip mit vier HBM2-Stacks (Bild: Marc Sauter/Golem.de)
  • Acht Tesla P100 in einem Rack (Bild: Marc Sauter/Golem.de)
Aufbau eines SM des GP100 (Bild: Marc Sauter/Golem.de)

Verglichen mit der Maxwell-v2-Architektur fällt beim GP100-Chip auf, dass Nvidia die Anzahl der ALUs pro Streaming Multiprocessor halbiert hat. Dadurch verdoppeln sich pro Shader-Einheit die verfügbaren Ressourcen wie der Warp-Scheduler, das Register-File und die interne Bandbreite. Der gemeinsame Speicher der ALUs fasst 64 statt 96 KByte, allerdings greifen auf diesen 64 statt 128 Einheiten zu - das macht ein Drittel mehr Shared Memory pro Rechenwerk. Unterm Strich kann der GP100 also mehr Daten lokal vorhalten und schneller abarbeiten, sodass die Geschwindigkeit pro ALU und Takt steigt.

  • Blockdiagramm des GP100 (Bild: Marc Sauter/Golem.de)
  • Aufbau eines SM des GP100 (Bild: Marc Sauter/Golem.de)
  • Durch die reduzierte ALU-Anzahl in einem SM kann jede Einheit auf mehr Ressourcen zugreifen (Bild: Marc Sauter/Golem.de)
  • GP100 berechnet HP, SP und DP im Verhältnis 4:2:1 (Bild: Marc Sauter/Golem.de)
  • Auf der Rückseite sitzen die NV-Link-Anschlüsse (Bild: Marc Sauter/Golem.de)
  • Jede Tesla P100 nutzt vier NV-Links (Bild: Marc Sauter/Golem.de)
  • GP100 kommuniziert per NV-Link statt per PCIe (Bild: Marc Sauter/Golem.de)
  • Bei Power-CPUs können diese ebenfalls über NV-Link angesprochen werden (Bild: Marc Sauter/Golem.de)
  • Derzeit nutzt Nvidia 4-Hi-Stacks, der Spacer ist aber schon für 8-Hi-Stacks vorbereitet (Bild: Marc Sauter/Golem.de)
  • SK Hynix zeigt mögliche HBM2-Lösungen samt Datenraten (Bild: Marc Sauter/Golem.de)
  • HBM2 ist deutlich größer als HBM1 (Bild: Marc Sauter/Golem.de)
  • Theoretische Rechenleistung und Bandbreite von Tesla P100 im Vergleich mit einer M40 und K40 (Bild: Marc Sauter/Golem.de)
  • Benchmarks von Tesla P100 und K80 (Bild: Marc Sauter/Golem.de)
  • Tesla P100 (Bild: Marc Sauter/Golem.de)
  • GP100-Chip mit vier HBM2-Stacks (Bild: Marc Sauter/Golem.de)
  • Acht Tesla P100 in einem Rack (Bild: Marc Sauter/Golem.de)
Derzeit nutzt Nvidia 4-Hi-Stacks, der Spacer ist aber schon für 8-Hi-Stacks vorbereitet (Bild: Marc Sauter/Golem.de)

Um Informationen zum Grafikchip und dessen internen Speichern zu transportieren, hat Nvidia dem GP100 ein Speicherinterface für High Bandwidth Memory spendiert. Die Tesla P100 nutzt 16 GByte HBM2 in Form von vier 4-Hi-Stacks. Die takten mit rund 1,4 GHz und hängen jeweils an einem 1.024 Bit breiten Interface, was eine Datentransfer-Rate von 720 GByte pro Sekunde ergibt. Mittelfristig dürfte die Karte jedoch mit doppelt so viel Videospeicher ausgerüstet werden, was Nvidia beim Design berücksichtigt hat.

  • Blockdiagramm des GP100 (Bild: Marc Sauter/Golem.de)
  • Aufbau eines SM des GP100 (Bild: Marc Sauter/Golem.de)
  • Durch die reduzierte ALU-Anzahl in einem SM kann jede Einheit auf mehr Ressourcen zugreifen (Bild: Marc Sauter/Golem.de)
  • GP100 berechnet HP, SP und DP im Verhältnis 4:2:1 (Bild: Marc Sauter/Golem.de)
  • Auf der Rückseite sitzen die NV-Link-Anschlüsse (Bild: Marc Sauter/Golem.de)
  • Jede Tesla P100 nutzt vier NV-Links (Bild: Marc Sauter/Golem.de)
  • GP100 kommuniziert per NV-Link statt per PCIe (Bild: Marc Sauter/Golem.de)
  • Bei Power-CPUs können diese ebenfalls über NV-Link angesprochen werden (Bild: Marc Sauter/Golem.de)
  • Derzeit nutzt Nvidia 4-Hi-Stacks, der Spacer ist aber schon für 8-Hi-Stacks vorbereitet (Bild: Marc Sauter/Golem.de)
  • SK Hynix zeigt mögliche HBM2-Lösungen samt Datenraten (Bild: Marc Sauter/Golem.de)
  • HBM2 ist deutlich größer als HBM1 (Bild: Marc Sauter/Golem.de)
  • Theoretische Rechenleistung und Bandbreite von Tesla P100 im Vergleich mit einer M40 und K40 (Bild: Marc Sauter/Golem.de)
  • Benchmarks von Tesla P100 und K80 (Bild: Marc Sauter/Golem.de)
  • Tesla P100 (Bild: Marc Sauter/Golem.de)
  • GP100-Chip mit vier HBM2-Stacks (Bild: Marc Sauter/Golem.de)
  • Acht Tesla P100 in einem Rack (Bild: Marc Sauter/Golem.de)
GP100-Chip mit vier HBM2-Stacks (Bild: Marc Sauter/Golem.de)

Der 4-Hi-HBM2 ist flacher als der GP100-Chip, weshalb ein Spacer beide Dies auf die gleiche Höhe bringt. Bei AMDs Fury X gleicht schlicht Wärmeleitpaste die geringfügig unterschiedliche Bauhöhe aus. Auch wenn SK Hynix oder Samsung 8-Hi-Stacks mit 8 statt 4 GByte Kapazität liefern können und Nvidia die Tesla P100 aktualisiert hat, bleibt der der Spacer gleich, da das Package bei HBM2 auch mit 8Hi gleich hoch ausfällt. Beide Speicherhersteller geben an, 8-Hi-Stacks ab Ende 2016 in Serie produzieren zu wollen. Da die Beschleunigerkarte aber so schnell keinen Nachfolger erhalten dürfte, bleibt ausreichend Zeit eine Version mit verdoppeltem Videospeicher nachzuschieben - zuletzt ging Nvidia bei der Quadro M6000 ähnlich vor.

  • Blockdiagramm des GP100 (Bild: Marc Sauter/Golem.de)
  • Aufbau eines SM des GP100 (Bild: Marc Sauter/Golem.de)
  • Durch die reduzierte ALU-Anzahl in einem SM kann jede Einheit auf mehr Ressourcen zugreifen (Bild: Marc Sauter/Golem.de)
  • GP100 berechnet HP, SP und DP im Verhältnis 4:2:1 (Bild: Marc Sauter/Golem.de)
  • Auf der Rückseite sitzen die NV-Link-Anschlüsse (Bild: Marc Sauter/Golem.de)
  • Jede Tesla P100 nutzt vier NV-Links (Bild: Marc Sauter/Golem.de)
  • GP100 kommuniziert per NV-Link statt per PCIe (Bild: Marc Sauter/Golem.de)
  • Bei Power-CPUs können diese ebenfalls über NV-Link angesprochen werden (Bild: Marc Sauter/Golem.de)
  • Derzeit nutzt Nvidia 4-Hi-Stacks, der Spacer ist aber schon für 8-Hi-Stacks vorbereitet (Bild: Marc Sauter/Golem.de)
  • SK Hynix zeigt mögliche HBM2-Lösungen samt Datenraten (Bild: Marc Sauter/Golem.de)
  • HBM2 ist deutlich größer als HBM1 (Bild: Marc Sauter/Golem.de)
  • Theoretische Rechenleistung und Bandbreite von Tesla P100 im Vergleich mit einer M40 und K40 (Bild: Marc Sauter/Golem.de)
  • Benchmarks von Tesla P100 und K80 (Bild: Marc Sauter/Golem.de)
  • Tesla P100 (Bild: Marc Sauter/Golem.de)
  • GP100-Chip mit vier HBM2-Stacks (Bild: Marc Sauter/Golem.de)
  • Acht Tesla P100 in einem Rack (Bild: Marc Sauter/Golem.de)
Benchmarks von Tesla P100 und K80 (Bild: Marc Sauter/Golem.de)

Erste Messungen zur neuen Tesla P100 legte Nvidia ebenfalls vor: Abseits theoretischer Zahlenspielchen, die keine architektonischen Verbesserungen berücksichtigen, zeigte der Hersteller Messwerte mehrerer Karten. Zwei Tesla P100 schlagen demzufolge zwei Tesla K80 durchweg. Das ist durchaus spannend, denn auf jeder K80 sitzen zwei GK210-Chips. Diese GPUs hat Nvidia für den HPC-Markt mit vergrößerten Registern und Caches ausgestattet. Die Tesla K80 basiert allerdings auf der zwei Generationen alten Kepler-Architektur.


eye home zur Startseite
michi5579 07. Apr 2016

Wenn du Aufrüstbedarf hast und weisst wann die neuen Karten kommen und was sie können...

goosefx 07. Apr 2016

Ach ja, lang lang ist es her, da habe ich auch einen Vobis Highscreen Rechner mein...



Anzeige

Stellenmarkt
  1. Jos. Schneider Optische Werke GmbH, Bad Kreuznach
  2. Loh Services GmbH & Co. KG, Haiger
  3. Ratbacher GmbH, Frankfurt am Main
  4. SICK AG, Waldkirch bei Freiburg im Breisgau


Anzeige
Hardware-Angebote
  1. ab 449,94€
  2. (Core i5-7600K + Asus GTX 1060 Dual OC)
  3. (u. a. DXRacer OH/RE9/NW für 199,90€ statt 226€ im Preisvergleich)

Folgen Sie uns
       


  1. Chipmaschinenausrüster

    ASML demonstriert 250-Watt-EUV-System

  2. Linux-Distribution

    Opensuse Leap 42.3 baut Langzeitpflege aus

  3. Soziales Netzwerk

    Facebook soll an Smart-Speaker mit Display arbeiten

  4. Kumu Networks

    Vollduplex-WLAN auf gleicher Frequenz soll noch 2018 kommen

  5. IT-Dienstleister

    Daten von 400.000 Unicredit-Kunden kompromittiert

  6. Terrorismusbekämpfung

    Fluggastdatenabkommen mit Kanada darf nicht in Kraft treten

  7. Makeblock Airblock im Test

    Es regnet Drohnenmodule

  8. Tri Alpha Energy

    Google entwickelt Algorithmus für die Fusionsforschung

  9. Schnittstelle

    USB 3.2 verdoppelt Datenrate auf 20 GBit/s

  10. Mobilfunk

    Telefónica O2 macht Verlust und weniger Umsatz



Haben wir etwas übersehen?

E-Mail an news@golem.de


Anzeige
Ausprobiert: JPEGmini Pro komprimiert riesige JPEGs um bis zu 80 Prozent
Ausprobiert
JPEGmini Pro komprimiert riesige JPEGs um bis zu 80 Prozent
  1. Google KI erstellt professionelle Panoramen
  2. Bildbearbeitung Google gibt Nik Collection auf

Kryptowährungen: Bitcoin steht vor grundlegenden Änderungen
Kryptowährungen
Bitcoin steht vor grundlegenden Änderungen
  1. Linux-Distributionen Mehr als 90 Prozent der Debian-Pakete reproduzierbar
  2. Die Woche im Video Strittige Standards, entzweite Bitcoins, eine Riesenkonsole
  3. Kryptowährung Bitcoin notiert auf neuem Rekordhoch

IETF Webpackage: Wie das Offline-Internet auf SD-Karte kommen könnte
IETF Webpackage
Wie das Offline-Internet auf SD-Karte kommen könnte
  1. IETF Netzwerker wollen Quic-Pakete tracken
  2. IETF DNS wird sicher, aber erst später
  3. IETF Wie TLS abgehört werden könnte

  1. Re: Mieseste Netz, schlechtester Kundenservice

    Palerider | 14:22

  2. Re: Kohle, Mineralöl und Co. bald auf magische...

    Sebbi | 14:20

  3. Re: Namensgebung sollte geändert werden

    Default_User | 14:20

  4. Re: Fake News vs. Satire

    der_wahre_hannes | 14:19

  5. Re: für mich geht nix über mumbi

    david_rieger | 14:15


  1. 14:15

  2. 14:00

  3. 13:51

  4. 13:34

  5. 12:48

  6. 12:30

  7. 12:03

  8. 12:00


  1. Themen
  2. A
  3. B
  4. C
  5. D
  6. E
  7. F
  8. G
  9. H
  10. I
  11. J
  12. K
  13. L
  14. M
  15. N
  16. O
  17. P
  18. Q
  19. R
  20. S
  21. T
  22. U
  23. V
  24. W
  25. X
  26. Y
  27. Z
  28. #
 
    •  / 
    Zum Artikel