• IT-Karriere:
  • Services:

An der Effizienz hapert es noch

Das zweite große Problem ist der hohe Energieverbrauch. So wurde in einer Studie angenommen, dass Exascale-Systeme maximal 20 Megawatt benötigen dürfen - solche Systeme müssten demnach 50 Gigaflops/Watt erzielen. Zum Vergleich: Im Jahr 2010 installierte das Oak Ridge National Laboratory das Jaguar-System, das 0,25 Gigaflops/Watt erzielt. Der aktuelle schnellste Supercomputer, der Sunway Taihu Light, kommt auf immerhin 6 Gigaflops/Watt.

Stellenmarkt
  1. Erzbistum Köln, Köln
  2. IT-Systemhaus der Bundesagentur für Arbeit, Nürnberg

Die Historie gibt Grund zur Annahme (lineare Fortführung der Linpack-Ergebnisse), dass 2020 bis 2022 eine Exaflop-Maschine installiert werden wird. Am Beispiel von Oak Ridge würde dies bedeuten, dass das Labor in einer Dekade die Leistung um den Faktor 500 steigern und zeitgleich das Gigaflops/Watt-Verhältnis um den Faktor 200 verbessern müsste.

  • Überblick zu Hermit (Diagramm: Stefan Lankes)
  • Überblick zu L4-Linux (Diagramm: Stefan Lankes)
  • Überblick zu McKernel (Diagramm: Stefan Lankes)
  • Über 90 Prozent aller Supercomputer nutzen Linux. (Diagramm: Stefan Lankes)
  • Der Titan-Supercomputer (Foto: Oak Ridge National Laboratory)
  • 3D Xpoint ist Storage Class Memory. (Bild: Intel)
3D Xpoint ist Storage Class Memory. (Bild: Intel)

Anforderungen in dieser Dimension hat es bisher noch nicht gegeben. Die Entwicklungen im Bereich des nichtflüchtigen Speichers (NVM) wie 3D-Xpoint oder generell sogenannter Storage Class Memory stehen daher unter genauer Beobachtung. Zumindest der lesende Speicherzugriff benötigt sehr wenig Energie und stellt somit eine attraktive Lösung für das Hochleistungsrechnen dar.

Ausfallwahrscheinlichkeit des Gesamtsystems steigt

Das dritte Problem schließlich liegt in der Ausfallsicherheit. Neu ist es natürlich nicht - aber es wird größer, da die Anzahl der Komponenten ansteigt und somit auch die Ausfallwahrscheinlichkeit des Gesamtsystems. Dies gilt für die Hardware, aber auch für die Software, die sich aus immer größeren Modulen zusammensetzt.

Eine etablierte Technik, um die Systemrobustheit zu erhöhen, ist das Checkpointing. Hierunter versteht man das Anlegen von Sicherheitspunkten, um nach Auftreten eines Fehlers und anschließender erfolgreicher Reparatur die Anwendung fortzusetzen. Allerdings werden diese Checkpoints meist im User-Space realisiert, belasten das Storage System, beeinflussen die Leistungsfähigkeit und erhöhen den Energieverbrauch.

Auch hier stellen nichtflüchtige Speicher eine interessante Alternative zu konventionellen Techniken dar, um In-Memory-Checkpoints anzulegen. Zudem werden Algorithmen entwickelt, die vereinzelten Fehlern gegenüber robust sind. Dies können beispielsweise Gleichungslöser sein, die das Kippen einzelner Speicherzellen tolerieren.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Supercomputer: Wie die Exaflop-Marke geknackt werden sollOhne Linux läuft kaum etwas 
  1.  
  2. 1
  3. 2
  4. 3
  5. 4
  6.  


Anzeige
Hardware-Angebote
  1. (reduzierte Überstände, Restposten & Co.)
  2. täglich neue Deals bei Alternate.de

Atalanttore 23. Okt 2016

Müssten Änderungen an Linux nicht zurückgeführt werden, wäre Linux jetzt da, wo Unix...

McFly 21. Okt 2016

halten wir uns echt noch an diesem Schwachsinn auf? Das Kind ist doch schon längst in den...

Quantium40 20. Okt 2016

Ich vermute ja eher, dass dabei auf verteiltes Rechnen gesetzt wird. Einmal pro Monat...

Quantium40 20. Okt 2016

Richtig. Fast richtig. Moores Feststellung lautete "The complexity for minimum...

Netzweltler 19. Okt 2016

http://www.hsafoundation.com/ Gibt's, aber eine dezidierte Ausrichtung auf Supercomputer...


Folgen Sie uns
       


    •  /