Original-URL des Artikels: https://www.golem.de/news/rekord-startup-sortiert-100-terabytes-in-23-minuten-1410-109848.html    Veröffentlicht: 15.10.2014 08:26    Kurz-URL: https://glm.io/109848

Rekord

Startup sortiert 100 Terabyte in 23 Minuten

Das US-Startup Databricks hat einen neuen Rekord in der Berechnung von Daten aufgestellt. Die Computer der Firma ordneten 100 Terabyte in nur 23 Minuten. Zuvor hatte Yahoo den Rekord gehalten.

Das US-Startup Databricks hat einen neuen Weltrekord aufgestellt und 100 Terabyte in nur 23 Minuten verarbeitet. Das Startup verwendete dafür 206 virtuelle Maschinen mit 6.592 Prozessorkernen. Der Weltrekord wurde beim Benchmarking-Wettbewerb GraySort erreicht.

Databricks stellt damit einen Rekord von Yahoo ein. Der Internetkonzern hatte mit Hilfe eines Hadoop-Clusters mit 2.100 virtuellen Maschinen 70 Minuten für die gleiche Datenmenge gebraucht. Databricks verwendete für die Berechnung das eigene Datentool Spark.

1 Petabyte in 234 Minuten

Nach eigenen Angaben berechnete das Startup zusätzlich außer Konkurrenz 1 Petabyte an Daten mit 190 Rechnern in 234 Minuten. Auch dies sei schneller als bisherige Ergebnisse mit dem Hadoop-Tool Mapreduce. "Databricks und die Open-Source-Community haben viel in die Optimierung von On-disk-Performance, deren Skalierbarkeit und Stabilität investiert", sagte Databricks-Chef Ion Stoica. "Der Rekord zeigt nicht nur, dass sich die Arbeit gelohnt hat, sondern auch, dass Spark seine Versprechen hält." Die Datenmenge in dem Wettbewerb sei größer als das meiste, was Unternehmen im Alltag berechnen müssten. Ein Vorteil von Spark sei es, dass Daten nicht nur auf Festplatten, sondern auch im Arbeitsspeicher verarbeitet werden könnten.

Spark wurde ursprünglich von der University of California Berkeley als Open-Source-Tool entwickelt und wird nun mit Hilfe von Databricks vertrieben. Neben Spark gibt es ähnliche Tools auch von anderen Firmen, darunter Impala von dem kalifornischen Startup Cloudera und Drill von MapR.

Das Analyseprojekt Hadoop wird noch immer von den meisten großen Internetunternehmen für die Datenanalyse verwendet, darunter Facebook, Twitter, Ebay und Intel. Neuere Tools wie Dremel können jedoch anders als Hadoop große Datenmengen auch in Echtzeit berechnen. Laut Databricks verwendete das Team für seinen Weltrekord das Analysetool Apache Spark in Kombination mit Hadoop File System (HDFS). Das Datencluster wurde dabei von Amazons Cloud-Dienst EC2 gehostet.  (be)


© 1997–2019 Golem.de, https://www.golem.de/