Zum Hauptinhalt Zur Navigation

USA erforschen Petascale-Datenspeicherung

Neue Methoden für Systeme mit mehreren hunderttausend Festplatten. Das US-Energieministerium lässt nach neuen Wegen forschen, um die von künftigen Supercomputer-Generationen produzierten Datenmengen zu verwalten. Eine hohe Fehlertoleranz steht dabei im Vordergrund, denn mit Fehlern ist alle paar Minuten zu rechnen.
/ Jens Ihlenfeld
8 Kommentare News folgen (öffnet im neuen Fenster)

Rund 11 Millionen US-Dollar stellt das US-Energieministerium (DOE) für das neue "Petascale Data Storage Institute" zur Verfügung, das Forscher der Carnegie Mellon Universität, der Universität Kalifornien in Santa Cruz und der Universität Michigan mit Forschern der DOE-Labors in Los Alamos, Sandia, Oak Ridge, Lawrence Berkeley und Pacific Northwest zusammenführt.

Es bedürfe neuer Methoden, um mit den gigantischen Datenmengen umzugehen, die Computersimulationen in Zukunft zugleich benötigen und produzieren, sagt Garth Gibson, Informatiker an der Carnegie Mellon Universiät und Leiter des neuen Instituts. Entsprechende Systeme werden hunderttausende von Festplatten benötigen und bei solchen sind ständige Ausfälle unvermeidbar.

Bei heutigen Supercomputern würden Fehler ein- bis zweimal am Tag auftreten, sagt Gary Grider, Forscher am Los Alamos National Laboratory. Bei Systemen mit einer Rechenleistung von mehreren Petaflops müsse man alle paar Minuten mit einem Fehler rechnen, so dass diese Systeme eine entsprechende Fehlertoleranz mitbringen müssen.


Relevante Themen