Stromsparer
Supercomputer mit GPUs könnten starke Konkurrenz werden
Der Grafikchiphersteller Nvidia drängt in den Markt der Supercomputer. Mit dem Erreichen des zweiten Platzes in der Top500 der Supercomputer ist es dem Chipdesigner gelungen, die derzeit ungewöhnliche Kombination aus GPUs und CPUs ganz nach vorne zu bringen und dabei auch noch deutlich weniger Leistung aufzunehmen.
Der Supercomputer Nebulae mit Nvidias Tesla-C2050-Karten, Codename Fermi, ist Chinas schnellster Supercomputer und weltweit im Linpack-Benchmark die Nummer zwei. Mit der ungewöhnlichen Kombination - die Top500 wird bisher von CPU-basierten Rechnern beherrscht - hat der vergleichsweise junge Teilnehmer in der HPC-Szene gezeigt, dass ein anderer Weg auch zum Ziel führen kann.
Das Besondere an Supercomputern, die auf Nvidias Fermi, aber auch auf anderen GPUs aufsetzen, ist anscheinend die niedrige Aufnahme elektrischer Leistung. Für den Betreiber eines Supercomputers ist das ein großer Vorteil, schließlich muss das System nicht nur angeschafft, sondern auch betrieben werden. Auf die zu erwartende Stromrechnung wird dabei auch geschaut. Laut Nvidia nimmt Nebulae zwischen 2 und 3 Megawatt auf und erreichte in der Top500 einen Linpack-Wert von 1,271 PFlops. Damit liegt dieser Supercomputer deutlich unterhalb der Nummer 1, Jaguar, die für 1,759 PFlops fast 7 Megawatt benötigt. Das klingt paradox, denn Nvidias Fermi gilt in Desktops sonst nicht als besonders stromsparend. Bei Supercomputern wird in ganz anderen Dimensionen gerechnet. Nvidias Angabe ist allerdings nicht offiziell und taucht deswegen nicht in der Top500-Liste auf.
Für Nvidia sind GPUs für High-Performance-Computing eine Möglichkeit, die Firma weiter wachsen zu lassen. Noch investiert die Firma aber überwiegend. Nvidia ist allerdings nicht allein im Feld der GPU-Supercomputer. Chinas zweitschnellster Rechner ist mit AMD-GPUs der Radeon-4000-Serie bestückt und nimmt in der jetzigen Liste Platz 7 ein. Bei der letzten Listung erreichte Tianhe-1 noch den fünften Platz. Zudem hat Intel gerade erst bekanntgegeben, sein Grafikkartenprojekt Larrabee lieber in Supercomputern unterzubringen. Bis hier erste Installationen vorhanden sind, wird es aber noch dauern. Intels Lösung verspricht, besonders stromsparend zu sein.
Nvidia selbst rechnet langfristig damit, nur halb so viel Energiebedarf für dieselbe Rechenleistung zu haben wie eine vergleichbare x86-Lösung. Für 5 PFlops mit einer x86-Lösung sollen 20 Megawatt benötigt werden. Ein Tesla-basiertes System soll hingegen mit nur 10 Megawatt auskommen. Mit Knights Corner alias Larrabee hat die Firma allerdings wohl nicht gerechnet.
Doch GPU-basierte Systeme sollen ihre Probleme haben. Der Code muss teils komplett neu geschrieben werden, da es nicht immer möglich ist, alle Daten eines Zwischenschritts einer Berechnung über den vergleichsweise langsamen PCIe-Bus zur Grafikkarte zu schicken. Besser wäre es, die meisten Rechenaufgaben gleich auf die GPU auszulagern, damit nur dort Datenmengen für Zwischenschritte anfallen und am Ende idealerweise nur das kleine Ergebnis herauskommt. Zumindest gab es Klagen, dass die PCIe-Anbindung in bestimmten Fällen nicht schnell genug ist. Diese Probleme existieren in diesem Umfang im vom x86 dominierten Markt anscheinend nicht. Die Effizienz von GPU-basierten Supercomputern hochzutreiben ist ein aufwendig zu lösendes Problem, wie von mehreren Seiten auf der ISC10 zu hören war.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
ist die Kühlung bei den Wattangaben mit drin?
Furchtbar geschriebener Artikel, offenbar von einem Laien zum Thema heterogenes High...