GPU-Programme parallelisieren sich selbst

Als zweite Neuerung gibt es "Dynamic Parallelism". Damit kann die GPU mehr eigene Kernels und Threads in ihrem Speicher starten, um Verschachtelungen aufzulösen. Diese "nested loops" machten bisher immer wieder die Mithilfe der CPU nötig, zum Beispiel durch die Cuda-Treiber. Nested Loops lassen sich nicht immer vermeiden, etwa wenn gezielt mehrere Berechnungen von ihren Ergebnissen untereinander abhängig sind.

Die GPU kann das nun ohne Zutun der CPU erledigen und die Verschachtelungen selbst auflösen. Dabei muss sich aber, wie Nvidia später erklärte, der Programmierer selbst um den immer knappen GPU-Speicher kümmern. Die neuen Kernels und Threads, die dynamisch gestartet werden, können so weit anwachsen, dass die GPU Daten in den Hauptspeicher per PCIe auslagern muss - das System wird langsamer. Das gilt es zu erkennen und einzugreifen, von sich aus soll Cuda dabei keine Fehler melden, sondern weiterrechnen.

  • Nvidia-Chef Jen-Hsun Huang eröffnet die GTC.
  • Der Kepler GK110 mit drei neuen Funktionen
  • Dichter gepackte Rechenwerke
  • Die Tesla K20 wird die erste Karte mit den neuen Funktionen. (Fotos: Nico Ernst)
  • Die klassischen Anwendungen für GPU-Computing
  • Die ungleichmäßige Auslastung (l.) soll Hyper-Q verhindern.
  • Auslastung der GPU ohne Hyper-Q....
  • ... und mit Hyper-Q. Mehr rechnen in weniger Zeit spart Energie.
  • Nested Loops kann die GPU nun wie rechts zu sehen selbst auflösen.
  • Nicht immer ist es sinnvoll, besonders fein zu parallelisieren.
Nested Loops kann die GPU nun wie rechts zu sehen selbst auflösen.

Als dritten, besonders wichtigen Baustein für GK110 nannte Jen-Hsun Huang die Streaming Multiprocessor, SM, wie Nvidia seine SIMD-Einheiten aus mehreren Cuda-Cores nennt. Bisher war ein SM bei Fermi aus 32 Rechenwerken aufgebaut, nun sind es 192. Das war dem Unternehmen gleich die neue Bezeichnung SMX wert. Im Endeffekt ist das aber auch schon bei den Spiele-Keplers so, hier sind ebenfalls mehr Rechenwerke unter einem Kontrollprozessor zusammengefasst, was den Verwaltungsaufwand der SMs untereinander reduziert.

Bis zu 15 SMX-Einheiten soll GK110 besitzen, wie Nvidias Supercomputerexperte Sumit Gupta nach der Vorstellung der Architektur in einem Roundtablegespräch sagte. Das ergibt 2.880 Rechenwerke, fast doppelt so viele wie die 1.536 Cuda-Cores des aktuellen GK104. Das gilt aber noch nicht für die Karte Tesla K20, die Jen-Hsun Huang zuvor auf einem Bild zeigte. Hier sollen es Gupta zufolge nur 13 oder 14 SMX sein, also 2.496 oder 2.688 Rechenwerke.

Genau wollten sich mehrere Nvidia-Mitarbeiter nicht festlegen, was auch für die Leistungsaufnahme der Beschleunigerkarten gilt. Für den kleineren Tesla K10, der noch im Mai 2011 ausgeliefert werden soll, gelten 225 bis 250 Watt TDP. Den genauen Wert, so betonte Sumit Gupta, legen die Hersteller der Geräte fest.

Auch zum Speicherausbau ist noch nicht das letzte Wort gesprochen. "Wir werden so viel Speicher hinter den 384-Bit-Bus klemmen, wie uns die DRAM-Industrie bereitstellen kann. Wie viel das sein wird? Wenn es 8 GByte sind, wird auch das schnell zu klein sein. Es gibt einfach nie genug Speicher", sagte Huang.

In einem Punkt ist sich der Nvidia-Chef aber bereits sicher: "Ich habe gestern Abend nochmal nachgesehen: Das ist der komplexeste Chip, der in Serie hergestellt wird. Auf Platz zwei kommt dann ein FPGA von Xilinx mit 6,8 Milliarden Transistoren. Dann folgen viele GPUs, und die komplexeste CPU ist ein Westmere von Intel mit 2,5 Milliarden Transistoren." Dafür hatte sich Huang vermutlich am Eintrag 'Transistor Count' der englischen Wikipedia orientiert.

Wieder einmal sind die Pläne des Unternehmens, das schon oft sehr große Chips mit entsprechenden Problemen bei der Fertigungsausbeute entwickelt hat, sehr ehrgeizig. Ob sie aufgehen, soll sich im vierten Quartal 2012 zeigen, dann wird der GK110 auf der Karte Tesla K20 ausgeliefert. Nur damit gibt es die hier beschriebenen neuen Funktionen, die früher verfügbare K10 kann damit noch nicht aufwarten.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Kepler GK110: Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q
  1.  
  2. 1
  3. 2


Aktuell auf der Startseite von Golem.de
Entwickler
ChatGPT könnte Google-Job mit 183.000 Dollar Gehalt kriegen

Google hat ChatGPT mit Fragen aus seinem Entwickler-Bewerbungsgespräch gefüttert. Die KI könne demnach eine Einsteigerposition erhalten.

Entwickler: ChatGPT könnte Google-Job mit 183.000 Dollar Gehalt kriegen
Artikel
  1. Politische Ansichten auf Google Drive: Letzte Generation mit Datenschutz-Super-GAU
    Politische Ansichten auf Google Drive
    Letzte Generation mit Datenschutz-Super-GAU

    Die Aktivisten der Letzten Generation haben Daten von Unterstützern mitsamt politischer Meinung und Gefängnisbereitschaft ungeschützt auf Google Drive gelagert.

  2. i4: BMW lässt sich am Berg nicht updaten
    i4
    BMW lässt sich am Berg nicht updaten

    Die Besitzerin eines BMW i4 hat die Fehlermeldung entdeckt, ihr Parkplatz sei zu steil für ein Update der Bordsoftware.

  3. Windkraft-Ausbauplan: Scholz will vier bis fünf neue Windräder pro Tag
    Windkraft-Ausbauplan
    Scholz will vier bis fünf neue Windräder pro Tag

    Die Energiewende in Deutschland soll durch einen massiven Ausbau der Windkraft-Anlagen vorangetrieben werden. Bundeskanzler Scholz will Tempo machen.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • Logitech G915 Lightspeed 219,89€ • ASUS ROG Strix Scope Deluxe 107,89€ • Gigabyte B650 Gaming X AX 185,99€ • Alternate Weekend Sale • MindStar: be quiet! Dark Rock 4 49€, Fastro MS200 2TB 95€ • Mindfactory DAMN-Deals: Grakas & CPUS u. a. AMD Ryzen 7 5700X 175€ • PCGH Cyber Week [Werbung]
    •  /