Abo
  • Services:
Anzeige
Große Datenmengen können dank neuer Generationen von Analysetools immer schneller berechnet werden.
Große Datenmengen können dank neuer Generationen von Analysetools immer schneller berechnet werden. (Bild: Indranil Mukherjee/Afp/Getty Images)

Rekord: Startup sortiert 100 Terabyte in 23 Minuten

Große Datenmengen können dank neuer Generationen von Analysetools immer schneller berechnet werden.
Große Datenmengen können dank neuer Generationen von Analysetools immer schneller berechnet werden. (Bild: Indranil Mukherjee/Afp/Getty Images)

Das US-Startup Databricks hat einen neuen Rekord in der Berechnung von Daten aufgestellt. Die Computer der Firma ordneten 100 Terabyte in nur 23 Minuten. Zuvor hatte Yahoo den Rekord gehalten.

Anzeige

Das US-Startup Databricks hat einen neuen Weltrekord aufgestellt und 100 Terabyte in nur 23 Minuten verarbeitet. Das Startup verwendete dafür 206 virtuelle Maschinen mit 6.592 Prozessorkernen. Der Weltrekord wurde beim Benchmarking-Wettbewerb GraySort erreicht.

Databricks stellt damit einen Rekord von Yahoo ein. Der Internetkonzern hatte mit Hilfe eines Hadoop-Clusters mit 2.100 virtuellen Maschinen 70 Minuten für die gleiche Datenmenge gebraucht. Databricks verwendete für die Berechnung das eigene Datentool Spark.

1 Petabyte in 234 Minuten

Nach eigenen Angaben berechnete das Startup zusätzlich außer Konkurrenz 1 Petabyte an Daten mit 190 Rechnern in 234 Minuten. Auch dies sei schneller als bisherige Ergebnisse mit dem Hadoop-Tool Mapreduce. "Databricks und die Open-Source-Community haben viel in die Optimierung von On-disk-Performance, deren Skalierbarkeit und Stabilität investiert", sagte Databricks-Chef Ion Stoica. "Der Rekord zeigt nicht nur, dass sich die Arbeit gelohnt hat, sondern auch, dass Spark seine Versprechen hält." Die Datenmenge in dem Wettbewerb sei größer als das meiste, was Unternehmen im Alltag berechnen müssten. Ein Vorteil von Spark sei es, dass Daten nicht nur auf Festplatten, sondern auch im Arbeitsspeicher verarbeitet werden könnten.

Spark wurde ursprünglich von der University of California Berkeley als Open-Source-Tool entwickelt und wird nun mit Hilfe von Databricks vertrieben. Neben Spark gibt es ähnliche Tools auch von anderen Firmen, darunter Impala von dem kalifornischen Startup Cloudera und Drill von MapR.

Das Analyseprojekt Hadoop wird noch immer von den meisten großen Internetunternehmen für die Datenanalyse verwendet, darunter Facebook, Twitter, Ebay und Intel. Neuere Tools wie Dremel können jedoch anders als Hadoop große Datenmengen auch in Echtzeit berechnen. Laut Databricks verwendete das Team für seinen Weltrekord das Analysetool Apache Spark in Kombination mit Hadoop File System (HDFS). Das Datencluster wurde dabei von Amazons Cloud-Dienst EC2 gehostet.


eye home zur Startseite
neocron 15. Okt 2014

was war ein Argument? hier war kein Argument benannt vorher, wie kann es da "auch" ein...

Cerdo 15. Okt 2014

Die Fragen sind trotzdem gerechtfertigt. Wenn das nicht jedes Mal der gleiche Datensatz...

johann1979 15. Okt 2014

Ich habe es geschafft, 1 Petabyte Daten in nur 233 Minuten zu sortieren...und zwar...

s1ou 15. Okt 2014

Bei Startup denke ich an ein Unternehmen kleiner Größe, dass keinen Umsatz macht und noch...

DanielSchulz 15. Okt 2014

Ich finde auch, dass es ein Framework und kein Projekt ist. Zudem kann man auf Hadoop...



Anzeige

Stellenmarkt
  1. Ratbacher GmbH, München
  2. Rohde & Schwarz GmbH & Co. KG, München
  3. Salzgitter Mannesmann Handel GmbH, Düsseldorf
  4. AVL List GmbH, Graz (Österreich)


Anzeige
Top-Angebote
  1. 349€ inkl. Abzug (Vergleichspreis 452€)
  2. (u. a. Far Cry Primal Digital Apex Edition 22,99€, Total War: WARHAMMER 16,99€ und Total War...
  3. 259€ + 5,99€ Versand

Folgen Sie uns
       

  1. Bundestagswahl 2017

    Union und SPD verlieren, Jamaika-Koalition rückt näher

  2. IFR

    Zahl der verkauften Haushaltsroboter steigt stark an

  3. FTTH

    CDU für Verkauf der Telekom-Aktien

  4. Konkurrenz

    Unitymedia gegen Bürgerprämie für Glasfaser

  5. Arduino MKR GSM und WAN

    Mikrocontroller-Boards überbrücken weite Funkstrecken

  6. Fahrdienst

    London stoppt Uber, Protest wächst

  7. Facebook

    Mark Zuckerberg lenkt im Streit mit Investoren ein

  8. Merged-Reality-Headset

    Intel stellt Project Alloy ein

  9. Teardown

    Glasrückseite des iPhone 8 kann zum Problem werden

  10. E-Mail

    Adobe veröffentlicht versehentlich privaten PGP-Key im Blog



Haben wir etwas übersehen?

E-Mail an news@golem.de


Anzeige
Anki Cozmo im Test: Katze gegen Roboter
Anki Cozmo im Test
Katze gegen Roboter
  1. Die Woche im Video Apple, Autos und ein grinsender Affe

Edge Computing: Randerscheinung mit zentraler Bedeutung
Edge Computing
Randerscheinung mit zentraler Bedeutung
  1. Security Nest stellt komplette Alarmanlage vor
  2. Software AG Cumulocity IoT bringt das Internet der Dinge für Einsteiger
  3. DDoS 30.000 Telnet-Zugänge für IoT-Geräte veröffentlicht

Kein App Store mehr: iOS-Nutzer sollten das neue iTunes nicht installieren
Kein App Store mehr
iOS-Nutzer sollten das neue iTunes nicht installieren
  1. Apple iOS 11 Wer WLAN und Bluetooth abschaltet, benutzt es weiter
  2. Drei Netzanbieter warnt vor Upgrade auf iOS 11
  3. Betriebssystem Apple veröffentlicht Goldmaster für iOS, tvOS und WatchOS

  1. Re: Lumia 950 hat schon 1709...

    gaym0r | 23:07

  2. Re: Wieso hat die PARTEI keine absolute Mehrheit?

    Xar | 23:05

  3. Re: Wieviel Energie benötigt es, um von Europa...

    gaym0r | 23:04

  4. Re: mich freut es

    azeu | 23:04

  5. Re: Bye Bye Telekom

    Oktavian | 23:00


  1. 19:04

  2. 15:18

  3. 13:34

  4. 12:03

  5. 10:56

  6. 15:37

  7. 15:08

  8. 14:28


  1. Themen
  2. A
  3. B
  4. C
  5. D
  6. E
  7. F
  8. G
  9. H
  10. I
  11. J
  12. K
  13. L
  14. M
  15. N
  16. O
  17. P
  18. Q
  19. R
  20. S
  21. T
  22. U
  23. V
  24. W
  25. X
  26. Y
  27. Z
  28. #
 
    •  / 
    Zum Artikel