NASA will Supercomputer um das Zehnfache beschleunigen
"Das ist etwas was wir erreichen wollen, so dass Entscheidungsträger, die eine Entscheidung über Hunderte von Millionen von Dollar in der Wirtschaft machen müssen, sagen können: [Diese Simulationen sind] etwas in das wir Vertrauen haben" , so Dr. Ghassem Asrar, Associate Administrator für Earth Science im NASA-Hauptquartier in Washington D.C.
Unabhängig davon, ob es um die Route eines Hurrikans oder einer Erhöhung der globalen Temperaturen über das nächste Jahrhundert geht, bringen Vorhersagen immer einen Anteil an Unsicherheit mit sich. Um diese zu verringern ist eine Verbesserung der zu Grunde liegenden Simulations-Modelle nötig, die resultierende Komplexitätssteigerung erfordert jedoch alle Computerleistung, derer die Wissenschaftler habhaft werden können.
Zwar haben die neuesten NASA-Supercomputer 512 bzw. 1024 Prozessoren und bieten eine enorme Rechenleistung, weiter steigende Prozessorzahlen garantieren aber keinen proportionalen Anstieg der effektiven Leistung. Zudem wird laut NASA noch nicht einmal das volle Potenzial der existierenden Supercomputer ausgenutzt.
"Also wo liegt das Problem? Jeder Knoten (z.B. ein Prozessor) hat eine gewisse Leistung" , erklärt Asrar. "Einzeln arbeiten sie gut, aber während man sie alle zusammenfügt und die Nummer der Knoten ansteigt, sinkt die gesamte Effizienz" . Dies liege daran, dass Supercomputer mit mehr Prozessoren mehr seiner Leistung darauf verwenden muss, diese Prozessoren zu koordinieren; die erhöhte Kommunikation zwischen all den Prozessoren belaste jedoch das System.
Die Herausforderung war, herauszufinden, wie man Computer-Programme schreibt, um die maximale Leistung aus einer einzelnen Maschine herauszuholen, so Asrar. Gemeinsam haben Wissenschaftler vom NASA Ames Research Center zusammen mit dem Computer-Hersteller Silicon Graphics an dem Problem gearbeitet und nach vier Jahren nun zwei Techniken vorgestellt, die eine Effizienzsteigerung um den Faktor 10 ermöglichen sollen. Beide Techniken sollen der Supercomputer-Gemeinde frei zur Verfügung stehen, Hersteller-unabhängig und nicht auf Klima-Modellierung begrenzt sein.
Die neue Speicher-Architektur benötigt jedoch Software, die sie gut ausnutzen kann. Die zweite NASA/SGI-Innovation ist deshalb ein Software-Design-Tool, das "multi-level parallelism" genannt wird. Software, die damit entwickelt wurde, nutzt den allgemeinen Speicherpool durch das Aufbrechen der zu lösenden Probleme – je nach Bedarf – in grobe und feine Stücke, um diese parallel zu berechnen. Der einzelne Speicherraum soll mehr Flexibilität bei der Aufteilung der Probleme bieten, als es andere Designs mit physikalisch unter den Prozessoren aufgeteilten Speichern ermöglichen.
Die NASA nutzt die beiden Techniken bereits auf SGI-Supercomputern der Origin 3000 Serie. Die gewonnene Rechenleistung will NASAs Earth Science Enterprise zur Verwirklichung besserer Modelle des Erdklimas nutzen. Diese Modelle teilen Atmosphäre und Ozeane in ein dreidimensionales Raster aus Zellen, denen u.a. Werte für Temperatur, Feuchtigkeit und chemische Inhalte zugewiesen werden. Anschließend werden die Interaktionen zwischen den Kästen durch physikalische und chemische Gleichungen berechnet. Das Ergebnis ist eine Näherung des realen Systems. Je mehr Rechenleistung zur Verfügung steht, umso mehr Physik des realen Klimasystems kann in die Modelle einfließen, und in umso mehr und kleinere Zellen kann die Atmosphäre geteilt werden. Dies soll die Modelle realistischer machen und die produzierten Vorhersagen mehr regionale Relevanz haben. Zudem soll eine schnellere Berechnung von mehr Simulationen möglich werden, was eine bessere Analyse der Genauigkeit und deren Verbesserung erlaube.