USA erforschen Petascale-Datenspeicherung
Neue Methoden für Systeme mit mehreren hunderttausend Festplatten
Das US-Energieministerium lässt nach neuen Wegen forschen, um die von künftigen Supercomputer-Generationen produzierten Datenmengen zu verwalten. Eine hohe Fehlertoleranz steht dabei im Vordergrund, denn mit Fehlern ist alle paar Minuten zu rechnen.
Rund 11 Millionen US-Dollar stellt das US-Energieministerium (DOE) für das neue "Petascale Data Storage Institute" zur Verfügung, das Forscher der Carnegie Mellon Universität, der Universität Kalifornien in Santa Cruz und der Universität Michigan mit Forschern der DOE-Labors in Los Alamos, Sandia, Oak Ridge, Lawrence Berkeley und Pacific Northwest zusammenführt.
Es bedürfe neuer Methoden, um mit den gigantischen Datenmengen umzugehen, die Computersimulationen in Zukunft zugleich benötigen und produzieren, sagt Garth Gibson, Informatiker an der Carnegie Mellon Universiät und Leiter des neuen Instituts. Entsprechende Systeme werden hunderttausende von Festplatten benötigen und bei solchen sind ständige Ausfälle unvermeidbar.
Bei heutigen Supercomputern würden Fehler ein- bis zweimal am Tag auftreten, sagt Gary Grider, Forscher am Los Alamos National Laboratory. Bei Systemen mit einer Rechenleistung von mehreren Petaflops müsse man alle paar Minuten mit einem Fehler rechnen, so dass diese Systeme eine entsprechende Fehlertoleranz mitbringen müssen.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
FLOP bedeutet FLoating Point Operations Per Second. Für mehr, siehe hier: http://de...
Wenn man diese Analogie weiterverfolgt, geht es also eigentlich nicht so sehr darum, zu...
Tja solche Datenmengen brauch man auch um die ganze Vorratsgespeicherten Daten zu...
Jederzeit ist mit dem Worst Case zu rechnen. Hinterher wird man feststellen: Schuld waren...
Hausaufgabe übers Wochenende: Suche eine ansprechende, deutsche Überschrift zum Thema...