HPC könnte Silberkugel gebrauchen
Um versprochene Leistungssteigerungen zu erreichen, möglicherweise sogar um die gewohnte Steigerung beizubehalten, ist aber, so wird beim Lesen des Papers deutlich, eigentlich eine Silberkugel nötig: Moore's Law kommt absehbar an seine Grenzen, und gesteigerte Rechenleistung ging stets mit höherem Energiebedarf einher.
So benötigte das erste Peta-FLOPS-System Roadrunner mit 2,35 MW fast dreimal so viel elektrische Leistung wie das erste Tera-FLOPS-System ASCI Red. Noch größer war die Steigerung beim ersten offiziellen Exa-FLOPS-Rechner Frontier: Er benötigt fast neunmal so viel Energie wie Roadrunner.
In diesem Licht betrachten die Autoren Intels Ankündigung, noch in diesem Jahrzehnt das erste Zetta-FLOPS-System installieren zu wollen, wobei die Leistungsaufnahme maximal um den Faktor fünf steigen soll. Ihr Fazit: Ohne revolutionäre Technologie in der Hinterhand ist das nur mit einem gigantischen Energiebedarf von 2,5 GW zu schaffen - oder erst Jahre später, sofern Intel von den üblichen 64-Bit-Gleitkommazahlen spricht.
Großrechner müssen anders gedacht werden
Nach Ansicht der Experten brauchen Hochleistungsrechner einen Paradigmenwechsel. Anstatt zu versuchen, einzelne identifizierte Probleme mit Hardware zu erschlagen, müsse viel systematischer gedacht werden. Konzentriere man sich nur auf ein aktuelles Problem, laufe man Gefahr, an anderer Stelle bald ein neues zu haben. Als Beispiel wird die Steigerung der Rechenleistung in den vergangenen Jahrzehnten genannt, die aber aufgrund stagnierender Speicherbandbreite oft kaum noch sinnvoll zu nutzen sei.
Daher sollten Anwendungen dem Team zufolge viel systematischer untersucht werden, um die am besten geeignete Systemarchitektur zu ermitteln. Auch auf Softwareseite sei oft einige Optimierung möglich, die dürfe allerdings ebenso wie die Leistungssteigerung der Hardware nicht als unerschöpflicher Quell steigender Leistung betrachtet werden.
Auch sind die Autoren mehr als skeptisch gegenüber Ankündigungen, dank Silicon Photonics sei es bald egal, wo im Rechenzentrum etwa das von einer Anwendung genutzte RAM liegt. Ein solcher Ansatz werde schnell deutlich langsamer als lokal an den Prozessor angeschlossener Speicher - die Architektur lässt sich also nicht getrost vergessen.
In einer so komplexen Disziplin wie dem Hochleistungsrechnen, in der Software teils Jahrzehnte an Geschichte mit sich trägt, lassen sich Erfolge kaum verallgemeinern. Ohne all die Silberkugeln aber bleibt Hochleistungsrechnen das, was es schon immer war: viel, aber spannende Arbeit.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
HPC-Mythen: Es gibt keine Silberkugel beim Hochleistungsrechnen |
- 1
- 2
Laut Author "Eine einfache Lösung für ein kompliziertes Problem". KI löst so ziemlich...
Quantencomputer ja, aber nicht KI
Kommentieren