Abo
  • Services:

Supercomputer: Wie die Exaflop-Marke geknackt werden soll

Ist Moore's Law am Ende? Das Erreichen der Exaflop-Marke scheint für Hersteller von Supercomputern nicht so einfach zu sein. 2020 soll eine solche Maschine installiert sein - ein spannender Wettbewerb auf dem Weg zum Exascale-Computing ist bis dahin sicher.

Artikel von Stefan Lankes veröffentlicht am
Sunway Taihu Light, der weltweit schnellste Supercomputer
Sunway Taihu Light, der weltweit schnellste Supercomputer (Bild: NRCPC)

Exascale-Computing ist bedeutsam - eine Meinung, die auch Barack Obama teilt. Mit einer Executive Order unterstrich der Präsident der Vereinigten Staaten unlängst ganz offiziell die Bedeutung des Themas. Ein solches Dekret ist kein Gesetz und mit keinem Förderprogramm verbunden.

Inhalt:
  1. Supercomputer: Wie die Exaflop-Marke geknackt werden soll
  2. An der Effizienz hapert es noch
  3. Ohne Linux läuft kaum etwas
  4. McKernel für Supercomputer

Es führt den Verwaltungsbeamten aber die Bedeutsamkeit des Hochleistungsrechnens vor Augen. Zudem verlangt es koordiniertes Handeln, um den durch das Hochleistungsrechnen erzielten ökonomischen und wissenschaftlichen Erfolg zu maximieren. Doch was sind die Ziele des Exascale-Computings und welche Herausforderung sind auf dem Weg dorthin zu bewältigen?

  • Überblick zu Hermit (Diagramm: Stefan Lankes)
  • Überblick zu L4-Linux (Diagramm: Stefan Lankes)
  • Überblick zu McKernel (Diagramm: Stefan Lankes)
  • Über 90 Prozent aller Supercomputer nutzen Linux. (Diagramm: Stefan Lankes)
  • Der Titan-Supercomputer (Foto: Oak Ridge National Laboratory)
  • 3D Xpoint ist Storage Class Memory. (Bild: Intel)
Der Titan-Supercomputer (Foto: Oak Ridge National Laboratory)

10^18 Fließkommaoperationen pro Sekunde

Exascale bedeutet, dass ein System 10^18 Fließkommaoperationen pro Sekunde (Flops) durchführen kann. Diese gewaltige Anzahl von Operationen dient etwa der Simulation von Tsunamis und Sturmfluten - Naturkatastrophen, die in der Regel immense Schäden nach sich ziehen.

Das Tohoku-Erdbeben im Jahr 2011 forderte in Japan 18.000 Menschenleben, der ökonomische Schaden wird auf 195 bis 305 Milliarden US-Dollar geschätzt. Ein adäquates und genaues Vorhersagemodell könnte die Folgen solcher Naturkatastrophen mindern, doch die notwendige Rechenleistung hierfür kann nur ein Hochleistungssystem erbringen.

Stellenmarkt
  1. Ingredion Germany GmbH, Hamburg
  2. Stadtwerke Bonn GmbH, Bonn

Die Prozessoren werden immer schneller, die Anzahl der Rechnerknoten innerhalb eines Clusters steigt weiter an. Das Erreichen der Exaflop-Marke (nach Erreichen der Peta- und Teraflop-Marke) scheint dennoch nicht ganz einfach zu sein. Technisch gesehen sind grundsätzlich drei Herausforderungen zu lösen.

Herausforderungen für das Erreichen der Exaflop-Marke

Moore's Law scheint sich zumindest zu verlangsamen, wenn nicht sogar auszulaufen. Das bedeutet implizit, dass die Beschleunigung der Prozessoren durch größere Caches oder mehr Kerne an ihre Grenzen stößt. Spezialisierung ­­- also die Verwendung von GPUs oder die Integration von breiteren Vektoreinheiten ­- scheinen der favorisierte Lösungsweg zu sein. Allerdings steigt die Komplexität der Programmierung stark an.

Früher waren die Systeme homogen, heute besteht beispielsweise das Titan-System vom Oak Ridge National Laboratory aus 18.688 Rechenknoten mit insgesamt 29.908 Opteron-Kernen und 18.688 Nvidia-GPUs. Der Entwurf skalierender Programme, die das komplette, heterogene System ausnutzen, ist eine große Herausforderung. Ganz plakativ ist das aus den Ergebnissen des Linpack-Benchmarks aus der Top 500 abzulesen: So erzielt das System nur einen Wert von 17,5 Petaflops, während der theoretische Höchstwert bei 27,1 Petaflops liegt.

Im Vergleich zu klassischen, homogenen Systemen ist das Verhältnis schlecht: Stuttgarts Hazel Hen erzielt beispielsweise ein Verhältnis von 5,6 zu 7,2 Petaflops. Bei Nicht-x86-Systemen sieht es meist noch besser aus - der japanische K-Computer mit Sparc64-Prozessoren kommt auf ein Verhältnis von 10,5 Petaflops zu 11,3 Petaflops.

An der Effizienz hapert es noch 
  1. 1
  2. 2
  3. 3
  4. 4
  5.  


Anzeige
Hardware-Angebote
  1. (reduzierte Überstände, Restposten & Co.)

Atalanttore 23. Okt 2016

Müssten Änderungen an Linux nicht zurückgeführt werden, wäre Linux jetzt da, wo Unix...

McFly 21. Okt 2016

halten wir uns echt noch an diesem Schwachsinn auf? Das Kind ist doch schon längst in den...

Quantium40 20. Okt 2016

Ich vermute ja eher, dass dabei auf verteiltes Rechnen gesetzt wird. Einmal pro Monat...

Quantium40 20. Okt 2016

Richtig. Fast richtig. Moores Feststellung lautete "The complexity for minimum...

Netzweltler 19. Okt 2016

http://www.hsafoundation.com/ Gibt's, aber eine dezidierte Ausrichtung auf Supercomputer...


Folgen Sie uns
       


Smartphone-Kameras im Vergleich

Wir haben die Fotoqualität von sechs aktuellen Top-Smartphones verglichen.

Smartphone-Kameras im Vergleich Video aufrufen
E-Mail-Verschlüsselung: 90 Prozent des Enigmail-Codes sind von mir
E-Mail-Verschlüsselung
"90 Prozent des Enigmail-Codes sind von mir"

Der Entwickler des beliebten OpenPGP-Addons für Thunderbird, Patrick Brunschwig, hätte nichts gegen Unterstützung durch bezahlte Vollzeitentwickler. So könnte Enigmail vielleicht endlich fester Bestandteil von Thunderbird werden.
Ein Interview von Jan Weisensee

  1. SigSpoof Signaturen fälschen mit GnuPG
  2. Librem 5 Purism-Smartphone bekommt Smartcard für Verschlüsselung

Haiku Beta 1 angesehen: BeOS in modernem Gewand
Haiku Beta 1 angesehen
BeOS in modernem Gewand

Seit nunmehr über 17 Jahren arbeitet ein kleines Entwickler-Team am quelloffenen Betriebssystem Haiku, das vollständig kompatibel sein soll mit dem um die Jahrtausendwende eingestellten BeOS. Seit einigen Wochen liegt endlich eine erste Betaversion vor, die BeOS ein wenig in die Moderne verhilft.
Von Tim Schürmann


    Serverless Computing: Mehr Zeit für den Code
    Serverless Computing
    Mehr Zeit für den Code

    Weniger Verwaltungsaufwand und mehr Automatisierung: Viele Entwickler bauen auf fertige Komponenten aus der Cloud, um die eigenen Anwendungen aufzubauen. Beim Serverless Computing verschwinden die benötigten Server unter einer dicken Abstraktionsschicht, was mehr Zeit für den eigenen Code lässt.
    Von Valentin Höbel

    1. Kubernetes Cloud Discovery inventarisiert vergessene Cloud-Native-Apps
    2. T-Systems Deutsche Telekom will Cloud-Firmen kaufen
    3. Trotz hoher Gewinne Wieder Stellenabbau bei Microsoft

      •  /