Kepler GK110: Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q
Zur Eröffnung der Konferenz GTC hat Nvidia-Chef Jen-Hsun Huang mit dem GK110 seine neue GPU vorgestellt. Der riesige Chip soll Supercomputer und Workstations mit bis zu 2.880 Rechenwerken beschleunigen - aber erst Ende 2012 als Tesla K20.

Eigentlich war sie mit besonderer Spannung erwartet worden: die Keynote-Ansprache von Nvidia-Mitbegründer und -Chef Jen-Hsun Huang. Schon im Vorfeld sickerte dann aber durch, dass Huang zur Eröffnung der dritten Ausgabe der GPU Technology Conference (GTC) den neuen Chip Kepler GK110 vorstellen werde, und dass dieser aus etwa 7 Milliarden Transistoren bestehe. Auch Nvidia selbst nannte die Zahl eher beiläufig in den vorab an Journalisten verteilten Unterlagen.
- Kepler GK110: Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q
- GPU-Programme parallelisieren sich selbst
Was Huang dann aber auf der Bühne des San Jose Convention Center zeigte, hatte so kaum jemand erwartet - vor allem, weil die zahlreichen neuen Funktionen nicht für die nun erhältlichen Kepler-GPUs und die erste für Rechenanwendungen vorgesehene Karte Tesla K10 gelten, sondern nur für die GPU GK110, die erst im vierten Quartal 2012 auf den Markt kommen soll. GK110 basiert zwar auf der Kepler-Architektur, die auch für die Spielegrafikkarten verwendeten GK104 (Geforce GTX-670, 680, 690) haben mit der neuen GPU aber nur wenig zu tun.
GK110 ist nicht, wie bei früheren Nvidia-Chips, nur ein Ableger der Spiele-GPU mit mehr Rechenwerken, die bei Nvidia Cuda-Cores heißen. Vielmehr gibt es zwar mehr von diesen Einheiten - wie viele hat Nvidia noch nicht verraten -, aber vor allem drei neue Funktionen, die einige der größten Probleme bei GPU-Computing lösen sollen.
Die erste ist "Hyper-Q". So nennt Nvidia die Tatsache, dass der neue Kepler nun von 32 Threads der CPU gefüttert werden kann. Bisher waren GPUs immer dadurch limitiert, dass sie nur über einen Thread mit Befehlen und Daten versorgt werden konnten. Nun, so sagte Huang, könnten auch 32 physikalische Kerne einer CPU gleichzeitig eine einzelne Kepler-GPU ansteuern.
Zwar beherrschten die verschiedenen Schnittstellen, auch DirectX, schon die Verarbeitung von GPU-Befehlen mit mehreren Threads, die GPU selbst war aber immer auf die serielle Übergabe der parallel zu bearbeitenden Daten angewiesen. Diese Beschränkung wird nun aufgehoben, was dafür sorgen soll, dass die GPU immer so weit wie möglich ausgelastet werden kann.
Das klappt auch anders herum: Über eine Cuda-Schnittstelle kann eine CPU mehrere GPUs mit nur einem Thread ansprechen. Das funktioniert unter anderem durch "GPU Direct". Über das Netzwerk - Tesla-Karten stecken in der Regel in Servern - haben die GPUs direkten Zugriff auf den Speicher ihrer Kollegen. Bisher war dafür immer das Kopieren in den Hauptspeicher über die CPU nötig, was viel Zeit gekostet hat.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
GPU-Programme parallelisieren sich selbst |
- 1
- 2
Immer wieder interessant wie viele Leute absolut gar nichts verstehen! Diese GPU ist...