• IT-Karriere:
  • Services:

Rekord: Startup sortiert 100 Terabyte in 23 Minuten

Das US-Startup Databricks hat einen neuen Rekord in der Berechnung von Daten aufgestellt. Die Computer der Firma ordneten 100 Terabyte in nur 23 Minuten. Zuvor hatte Yahoo den Rekord gehalten.

Artikel veröffentlicht am , Thorsten Schröder
Große Datenmengen können dank neuer Generationen von Analysetools immer schneller berechnet werden.
Große Datenmengen können dank neuer Generationen von Analysetools immer schneller berechnet werden. (Bild: Indranil Mukherjee/Afp/Getty Images)

Das US-Startup Databricks hat einen neuen Weltrekord aufgestellt und 100 Terabyte in nur 23 Minuten verarbeitet. Das Startup verwendete dafür 206 virtuelle Maschinen mit 6.592 Prozessorkernen. Der Weltrekord wurde beim Benchmarking-Wettbewerb GraySort erreicht.

Stellenmarkt
  1. Hays AG, Nürnberg
  2. Vodafone GmbH, Düsseldorf

Databricks stellt damit einen Rekord von Yahoo ein. Der Internetkonzern hatte mit Hilfe eines Hadoop-Clusters mit 2.100 virtuellen Maschinen 70 Minuten für die gleiche Datenmenge gebraucht. Databricks verwendete für die Berechnung das eigene Datentool Spark.

1 Petabyte in 234 Minuten

Nach eigenen Angaben berechnete das Startup zusätzlich außer Konkurrenz 1 Petabyte an Daten mit 190 Rechnern in 234 Minuten. Auch dies sei schneller als bisherige Ergebnisse mit dem Hadoop-Tool Mapreduce. "Databricks und die Open-Source-Community haben viel in die Optimierung von On-disk-Performance, deren Skalierbarkeit und Stabilität investiert", sagte Databricks-Chef Ion Stoica. "Der Rekord zeigt nicht nur, dass sich die Arbeit gelohnt hat, sondern auch, dass Spark seine Versprechen hält." Die Datenmenge in dem Wettbewerb sei größer als das meiste, was Unternehmen im Alltag berechnen müssten. Ein Vorteil von Spark sei es, dass Daten nicht nur auf Festplatten, sondern auch im Arbeitsspeicher verarbeitet werden könnten.

Spark wurde ursprünglich von der University of California Berkeley als Open-Source-Tool entwickelt und wird nun mit Hilfe von Databricks vertrieben. Neben Spark gibt es ähnliche Tools auch von anderen Firmen, darunter Impala von dem kalifornischen Startup Cloudera und Drill von MapR.

Das Analyseprojekt Hadoop wird noch immer von den meisten großen Internetunternehmen für die Datenanalyse verwendet, darunter Facebook, Twitter, Ebay und Intel. Neuere Tools wie Dremel können jedoch anders als Hadoop große Datenmengen auch in Echtzeit berechnen. Laut Databricks verwendete das Team für seinen Weltrekord das Analysetool Apache Spark in Kombination mit Hadoop File System (HDFS). Das Datencluster wurde dabei von Amazons Cloud-Dienst EC2 gehostet.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Anzeige
Spiele-Angebote
  1. 17,99€
  2. 42,99€

neocron 15. Okt 2014

was war ein Argument? hier war kein Argument benannt vorher, wie kann es da "auch" ein...

Cerdo 15. Okt 2014

Die Fragen sind trotzdem gerechtfertigt. Wenn das nicht jedes Mal der gleiche Datensatz...

johann1979 15. Okt 2014

Ich habe es geschafft, 1 Petabyte Daten in nur 233 Minuten zu sortieren...und zwar...

s1ou 15. Okt 2014

Bei Startup denke ich an ein Unternehmen kleiner Größe, dass keinen Umsatz macht und noch...

DanielSchulz 15. Okt 2014

Ich finde auch, dass es ein Framework und kein Projekt ist. Zudem kann man auf Hadoop...


Folgen Sie uns
       


Logitech G Pro Superlight im Kurztest: Weniger Gramm um jeden Preis
Logitech G Pro Superlight im Kurztest
Weniger Gramm um jeden Preis

Man nehme das Gehäuse der Logitech G Pro Wireless und spare Gewicht ein, wo es geht. Voilá, fertig ist die Superlight. Ist das sinnvoll?

  1. Ergo M575 im Test Logitechs preiswerter Ergo-Trackball überzeugt
  2. MX Anywhere 3 im Test Logitechs flache Maus bietet viel Komfort
  3. MK295 Logitech macht preisgünstige Tastatur-Maus-Kombo leiser

Apple Silicon: Was der M1-Chip kann und bedeutet
Apple Silicon
Was der M1-Chip kann und bedeutet

Auch wenn das Marketing unnötigerweise irreführend ist, die Performance des Apple Silicon fällt dennoch sehr beeindruckend aus.
Eine Analyse von Marc Sauter

  1. Apple So wird MacOS auf M1-Macs neu installiert
  2. Apple Wiederherstellung von MacOS auf Macs mit M1 schlägt fehl
  3. Apple Silicon Photoshop und WoW laufen nativ auf M1-Chip

Linux-Distributionen: Warum ein Sicherheitsfix drei Jahre nicht ankam
Linux-Distributionen
Warum ein Sicherheitsfix drei Jahre nicht ankam

Ein Buffer Overflow in der Bibliothek Raptor zeigt, wie es bei Linux-Distributionen im Umgang mit Sicherheitslücken manchmal hakt.
Von Hanno Böck


      •  /