IBM - neuer Algorithmus zur Prüfung von Datenqualität
Analyse von 9 TByte Daten in 20 Minuten statt über 20 Stunden
Mit neuen Methoden und Algorithmen will IBM die Analyse sehr großer Datenmengen deutlich effizienter machen. Analysen, die bisher 20 Stunden dauerten, sollen damit auf gleicher Hardware in 20 Minuten möglich sein.
Forscher von IBM Research in Zürich haben einen neuen Algorithmus vorgestellt, der die Rechenintensität für die Qualitätsanalyse sehr großer Datensätze deutlich reduzieren soll. Die Methode hilft, die Genauigkeit und Zuverlässigkeit komplexer mathematischer Modelle zu prüfen und zu verbessern, so IBM.
Zur Demonstration der neuen Methode nutzten die Forscher die volle Kapazität des schnellsten Supercomputers in Europa, des JuGene-Systems am Forschungszentrum Jülich, und analysierten 9 TByte an Daten in weniger als 20 Minuten. Mit herkömmlichen Methoden würde der aus 72 Blue-Gene/P-Racks bestehende Computer mit einer Spitzenleistung von 1 Petaflop für diese Berechnung mehr als einen Tag benötigen.
Die IBM-Wissenschaftler präsentieren ihre Forschungsleistung heute auf einer wissenschaftlichen Konferenz der Society for Industrial and Applied Mathematics (SIAM) in Seattle. Die Methode soll sich auch für Berechnungen in den Bereichen Verkehrsmanagement, Ökonomie, Finanz- und Portfoliomanagement, Ablauf- und Einsatzplanung, Klimamodellierung, Wassermanagement, Geologie oder Astrophysik eignen und helfen, präzisere, zuverlässigere und komplexere Modelle zu entwickeln.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed







darüber würde ich mich auch freuen oder wenigstens ein titel oder sowas
Wie mein Stochastikprofessor einmal sagte: "1000 ist sehr viel, fast schon unendlich...