Abo
  • IT-Karriere:

Stromsparer

Supercomputer mit GPUs könnten starke Konkurrenz werden

ISC

Der Grafikchiphersteller Nvidia drängt in den Markt der Supercomputer. Mit dem Erreichen des zweiten Platzes in der Top500 der Supercomputer ist es dem Chipdesigner gelungen, die derzeit ungewöhnliche Kombination aus GPUs und CPUs ganz nach vorne zu bringen und dabei auch noch deutlich weniger Leistung aufzunehmen.

Artikel veröffentlicht am ,

Der Supercomputer Nebulae mit Nvidias Tesla-C2050-Karten, Codename Fermi, ist Chinas schnellster Supercomputer und weltweit im Linpack-Benchmark die Nummer zwei. Mit der ungewöhnlichen Kombination - die Top500 wird bisher von CPU-basierten Rechnern beherrscht - hat der vergleichsweise junge Teilnehmer in der HPC-Szene gezeigt, dass ein anderer Weg auch zum Ziel führen kann.

  • Ab 2010 will Nvidia in der Top500 mehr Bedeutung gewinnen.
  • Wachstum durch HPC
  • Entwicklung mit GPUs
  • Nvidia sieht sich gut aufgestellt.
  • OpenCL auf Tesla-Karten
  • Die unscharf dargestellten grünen Punkte sind Supercomputer mit Nvidias Technik.
  • Große Vorteile für Nvidia? Intels Knights Corner ist hier allerdings noch nicht berücksichtigt worden.
Ab 2010 will Nvidia in der Top500 mehr Bedeutung gewinnen.
Stellenmarkt
  1. EnBW Energie Baden-Württemberg AG Holding, Köln
  2. Conergos, München

Das Besondere an Supercomputern, die auf Nvidias Fermi, aber auch auf anderen GPUs aufsetzen, ist anscheinend die niedrige Aufnahme elektrischer Leistung. Für den Betreiber eines Supercomputers ist das ein großer Vorteil, schließlich muss das System nicht nur angeschafft, sondern auch betrieben werden. Auf die zu erwartende Stromrechnung wird dabei auch geschaut. Laut Nvidia nimmt Nebulae zwischen 2 und 3 Megawatt auf und erreichte in der Top500 einen Linpack-Wert von 1,271 PFlops. Damit liegt dieser Supercomputer deutlich unterhalb der Nummer 1, Jaguar, die für 1,759 PFlops fast 7 Megawatt benötigt. Das klingt paradox, denn Nvidias Fermi gilt in Desktops sonst nicht als besonders stromsparend. Bei Supercomputern wird in ganz anderen Dimensionen gerechnet. Nvidias Angabe ist allerdings nicht offiziell und taucht deswegen nicht in der Top500-Liste auf.

Für Nvidia sind GPUs für High-Performance-Computing eine Möglichkeit, die Firma weiter wachsen zu lassen. Noch investiert die Firma aber überwiegend. Nvidia ist allerdings nicht allein im Feld der GPU-Supercomputer. Chinas zweitschnellster Rechner ist mit AMD-GPUs der Radeon-4000-Serie bestückt und nimmt in der jetzigen Liste Platz 7 ein. Bei der letzten Listung erreichte Tianhe-1 noch den fünften Platz. Zudem hat Intel gerade erst bekanntgegeben, sein Grafikkartenprojekt Larrabee lieber in Supercomputern unterzubringen. Bis hier erste Installationen vorhanden sind, wird es aber noch dauern. Intels Lösung verspricht, besonders stromsparend zu sein.

Nvidia selbst rechnet langfristig damit, nur halb so viel Energiebedarf für dieselbe Rechenleistung zu haben wie eine vergleichbare x86-Lösung. Für 5 PFlops mit einer x86-Lösung sollen 20 Megawatt benötigt werden. Ein Tesla-basiertes System soll hingegen mit nur 10 Megawatt auskommen. Mit Knights Corner alias Larrabee hat die Firma allerdings wohl nicht gerechnet.

Doch GPU-basierte Systeme sollen ihre Probleme haben. Der Code muss teils komplett neu geschrieben werden, da es nicht immer möglich ist, alle Daten eines Zwischenschritts einer Berechnung über den vergleichsweise langsamen PCIe-Bus zur Grafikkarte zu schicken. Besser wäre es, die meisten Rechenaufgaben gleich auf die GPU auszulagern, damit nur dort Datenmengen für Zwischenschritte anfallen und am Ende idealerweise nur das kleine Ergebnis herauskommt. Zumindest gab es Klagen, dass die PCIe-Anbindung in bestimmten Fällen nicht schnell genug ist. Diese Probleme existieren in diesem Umfang im vom x86 dominierten Markt anscheinend nicht. Die Effizienz von GPU-basierten Supercomputern hochzutreiben ist ein aufwendig zu lösendes Problem, wie von mehreren Seiten auf der ISC10 zu hören war.



Anzeige
Spiele-Angebote
  1. 2,99€
  2. 2,99€

nicoledos 01. Jun 2010

ist die Kühlung bei den Wattangaben mit drin?

pool1892 01. Jun 2010

Furchtbar geschriebener Artikel, offenbar von einem Laien zum Thema heterogenes High...


Folgen Sie uns
       


Cherry Stream 3.0 mit großem ß ausprobiert

Alle möglichen Umlaute auf einer Tastatur: Wir haben Cherrys Europa-Tastatur ausprobiert.

Cherry Stream 3.0 mit großem ß ausprobiert Video aufrufen
Timex Data Link im Retro-Test: Bill Gates' Astronauten-Smartwatch
Timex Data Link im Retro-Test
Bill Gates' Astronauten-Smartwatch

Mit der Data Link haben Timex und Microsoft bereits vor 25 Jahren die erste richtige Smartwatch vorgestellt. Sie hat es sogar bis in den Weltraum geschafft. Das Highlight ist die drahtlose Datenübertragung per flackerndem Röhrenmonitor - was wir natürlich ausprobieren mussten.
Ein Test von Tobias Költzsch

  1. Smart Watch Swatch fordert wegen kopierter Zifferblätter von Samsung Geld
  2. Wearable EU warnt vor deutscher Kinder-Smartwatch
  3. Sportuhr Fossil stellt Smartwatch mit Snapdragon 3100 vor

Doom Eternal angespielt: Die nächste Ballerorgie von id macht uns fix und fertig
Doom Eternal angespielt
Die nächste Ballerorgie von id macht uns fix und fertig

E3 2019 Extrem schnelle Action plus taktische Entscheidungen, dazu geniale Grafik und eine düstere Atmosphäre: Doom Eternal hat gegenüber dem erstklassigen Vorgänger zumindest beim Anspielen noch deutlich zugelegt.

  1. Sigil John Romero setzt Doom fort

Ada und Spark: Mehr Sicherheit durch bessere Programmiersprachen
Ada und Spark
Mehr Sicherheit durch bessere Programmiersprachen

Viele Sicherheitslücken in Software sind auf Programmierfehler zurückzuführen. Diese Fehler lassen sich aber vermeiden - und zwar unter anderem durch die Wahl einer guten Programmiersprache. Ada und Spark gehören dazu, leider sind sie immer noch wenig bekannt.
Von Johannes Kanig

  1. Das andere How-to Deutsch lernen für Programmierer
  2. Programmiersprachen, Pakete, IDEs So steigen Entwickler in Machine Learning ein
  3. Software-Entwickler Welche Programmiersprache soll ich lernen?

    •  /