Abo
  • Services:
Anzeige
Große Datenmengen können dank neuer Generationen von Analysetools immer schneller berechnet werden.
Große Datenmengen können dank neuer Generationen von Analysetools immer schneller berechnet werden. (Bild: Indranil Mukherjee/Afp/Getty Images)

Rekord: Startup sortiert 100 Terabyte in 23 Minuten

Große Datenmengen können dank neuer Generationen von Analysetools immer schneller berechnet werden.
Große Datenmengen können dank neuer Generationen von Analysetools immer schneller berechnet werden. (Bild: Indranil Mukherjee/Afp/Getty Images)

Das US-Startup Databricks hat einen neuen Rekord in der Berechnung von Daten aufgestellt. Die Computer der Firma ordneten 100 Terabyte in nur 23 Minuten. Zuvor hatte Yahoo den Rekord gehalten.

Anzeige

Das US-Startup Databricks hat einen neuen Weltrekord aufgestellt und 100 Terabyte in nur 23 Minuten verarbeitet. Das Startup verwendete dafür 206 virtuelle Maschinen mit 6.592 Prozessorkernen. Der Weltrekord wurde beim Benchmarking-Wettbewerb GraySort erreicht.

Databricks stellt damit einen Rekord von Yahoo ein. Der Internetkonzern hatte mit Hilfe eines Hadoop-Clusters mit 2.100 virtuellen Maschinen 70 Minuten für die gleiche Datenmenge gebraucht. Databricks verwendete für die Berechnung das eigene Datentool Spark.

1 Petabyte in 234 Minuten

Nach eigenen Angaben berechnete das Startup zusätzlich außer Konkurrenz 1 Petabyte an Daten mit 190 Rechnern in 234 Minuten. Auch dies sei schneller als bisherige Ergebnisse mit dem Hadoop-Tool Mapreduce. "Databricks und die Open-Source-Community haben viel in die Optimierung von On-disk-Performance, deren Skalierbarkeit und Stabilität investiert", sagte Databricks-Chef Ion Stoica. "Der Rekord zeigt nicht nur, dass sich die Arbeit gelohnt hat, sondern auch, dass Spark seine Versprechen hält." Die Datenmenge in dem Wettbewerb sei größer als das meiste, was Unternehmen im Alltag berechnen müssten. Ein Vorteil von Spark sei es, dass Daten nicht nur auf Festplatten, sondern auch im Arbeitsspeicher verarbeitet werden könnten.

Spark wurde ursprünglich von der University of California Berkeley als Open-Source-Tool entwickelt und wird nun mit Hilfe von Databricks vertrieben. Neben Spark gibt es ähnliche Tools auch von anderen Firmen, darunter Impala von dem kalifornischen Startup Cloudera und Drill von MapR.

Das Analyseprojekt Hadoop wird noch immer von den meisten großen Internetunternehmen für die Datenanalyse verwendet, darunter Facebook, Twitter, Ebay und Intel. Neuere Tools wie Dremel können jedoch anders als Hadoop große Datenmengen auch in Echtzeit berechnen. Laut Databricks verwendete das Team für seinen Weltrekord das Analysetool Apache Spark in Kombination mit Hadoop File System (HDFS). Das Datencluster wurde dabei von Amazons Cloud-Dienst EC2 gehostet.


eye home zur Startseite
neocron 15. Okt 2014

was war ein Argument? hier war kein Argument benannt vorher, wie kann es da "auch" ein...

Cerdo 15. Okt 2014

Die Fragen sind trotzdem gerechtfertigt. Wenn das nicht jedes Mal der gleiche Datensatz...

johann1979 15. Okt 2014

Ich habe es geschafft, 1 Petabyte Daten in nur 233 Minuten zu sortieren...und zwar...

s1ou 15. Okt 2014

Bei Startup denke ich an ein Unternehmen kleiner Größe, dass keinen Umsatz macht und noch...

DanielSchulz 15. Okt 2014

Ich finde auch, dass es ein Framework und kein Projekt ist. Zudem kann man auf Hadoop...



Anzeige

Stellenmarkt
  1. TADANO FAUN GmbH, Lauf an der Pegnitz / bei Nürnberg
  2. über HRM CONSULTING GmbH, Konstanz (Home-Office)
  3. Deutsche Telekom AG, Darmstadt
  4. T-Systems International GmbH, Berlin, Bonn


Anzeige
Hardware-Angebote
  1. ab 799,90€
  2. (u. a. DXRacer OH/RE9/NW für 199,90€ statt 226€ im Preisvergleich)
  3. ab 649,90€

Folgen Sie uns
       

Anzeige
Whitepaper
  1. Data Center-Modernisierung für mehr Performance und

  1. Service

    Telekom verspricht kürzeres Warten auf Techniker

  2. BVG

    Fast alle U-Bahnhöfe mit offenem WLAN

  3. Android-Apps

    Rechtemissbrauch ermöglicht unsichtbare Tastaturmitschnitte

  4. Electro Fluidic Technology

    Schnelles E-Paper-Display für Video-Anwendungen

  5. Heiko Maas

    "Kein Wunder, dass Facebook seine Vorgaben geheim hält"

  6. Virtual Reality

    Oculus Rift unterstützt offiziell Roomscale-VR

  7. FTP-Client

    Filezilla bekommt ein Master Password

  8. Künstliche Intelligenz

    Apple arbeitet offenbar an eigenem AI-Prozessor

  9. Die Woche im Video

    Verbogen, abgehoben und tiefergelegt

  10. ZTE

    Chinas großes 5G-Testprojekt läuft weiter



Haben wir etwas übersehen?

E-Mail an news@golem.de


Anzeige
Asus B9440 im Test: Leichtes Geschäftsnotebook liefert zu wenig Business
Asus B9440 im Test
Leichtes Geschäftsnotebook liefert zu wenig Business
  1. ROG-Event in Berlin Asus zeigt gekrümmtes 165-Hz-Quantum-Dot-Display und mehr

Elektromobilität: Wie kommt der Strom in die Tiefgarage?
Elektromobilität
Wie kommt der Strom in die Tiefgarage?
  1. Elektroauto Tesla gewährt rückwirkend Supercharger-Gratisnutzung
  2. Elektroautos Merkel hofft auf Bau von Batteriezellen in Deutschland
  3. Strategische Entscheidung Volvo setzt voll auf Elektro und trennt sich vom Diesel

In eigener Sache: Die Quanten kommen!
In eigener Sache
Die Quanten kommen!
  1. id Software "Global Illumination ist derzeit die größte Herausforderung"
  2. In eigener Sache Golem.de führt kostenpflichtige Links ein
  3. In eigener Sache Golem.de sucht Marketing Manager (w/m)

  1. eigentlich müssten nun alle Hersteller | Händler...

    User_x | 22:44

  2. Re: 1400W... für welche Hardware?

    x2k | 22:44

  3. Re: Volumenbegrenzungen abschaffen

    NaruHina | 22:44

  4. Re: DLC oder Zwangsupdate, das ist hier die Frage!

    TheUnichi | 22:36

  5. Re: Erster!!!

    Myxier | 22:28


  1. 12:31

  2. 12:15

  3. 11:33

  4. 10:35

  5. 12:54

  6. 12:41

  7. 11:44

  8. 11:10


  1. Themen
  2. A
  3. B
  4. C
  5. D
  6. E
  7. F
  8. G
  9. H
  10. I
  11. J
  12. K
  13. L
  14. M
  15. N
  16. O
  17. P
  18. Q
  19. R
  20. S
  21. T
  22. U
  23. V
  24. W
  25. X
  26. Y
  27. Z
  28. #
 
    •  / 
    Zum Artikel