Zum Hauptinhalt Zur Navigation

Hadoop

SAP vereinfacht die Einbindung von Hadoop in SAP-Umgebungen. (Bild: SAP) (SAP)

Big Data: SAP setzt auf Hadoop

SAP will künftig mit Hadoop-Anbietern zusammenarbeiten, um die Integration von Big-Data-Lösungen auf Basis von Hadoop in SAP-Umgebungen zu ermöglichen. Dazu bietet SAP ein neues Big-Data-Bundle an.
Echtzeitlösung auf Basis von Hadoop (Bild: Cloudera) (Cloudera)

Impala: Echtzeitabfragen mit Hadoop

Der Hadoop-Spezialist Cloudera hat mit Impala eine Lösung für Echtzeitabfragen auf Hadoop und HBase vorgestellt. Die Abfragen werden in SQL formuliert und sollen zehnmal schneller sein als mit Hive/Mapreduce.
Google verrät Details zum Bigtable-Nachfolger Spanner. (Bild: Google) (Google)

Spanner: Googles globale Datenbank

Seit rund drei Jahren ist Spanner bei Google im Einsatz, in der vergangenen Woche veröffentlichte Google nun Details zu Spanner, das Google-Systeme wie Bigtable und Megastore ablösen soll. Dabei wird deutlich: Google ist seiner Konkurrenz einen Schritt voraus.
Die Golem Newsletter : Das Wichtigste für Techies und IT-Leader auf einen Blick. Jetzt abonnieren

Opscode: 19,5 Millionen für Chef

Das US-Startup Opscode erhält in einer dritten Finanzierungsrunde 19,5 Millionen US-Dollar Risikokapital. Das Unternehmen entwickelt mit Chef eine Open-Source-Software zur Cloud-Automation.
NoSQL-Datenbank in C++ auf Basis von Googles Bigtable-Design (Bild: Hypertable) (Hypertable)

NoSQL: Hypertable schlägt HBase

Hypertable hat eine freie NoSQL-Datenbank entsprechend dem Design von Googles Bigtable entwickelt. Sie ist in C++ implementiert und schlägt das auf Hadoop basierende HBase zumindest in einem von Hypertable durchgeführten Benchmark deutlich.
Hadoop 1.0.0 mit HDFS und Mapreduce (Bild: Apache Software Foundation) (Apache Software Foundation)

Mapreduce: Apache Hadoop 1.0 veröffentlicht

Die Apache Software Foundation hat Apache Hadoop in der Version 1.0.0 veröffentlicht. Hadoop basiert auf dem Mapreduce-Algorithmus von Google und erlaubt es, sehr große Datenmengen im Petabyte-Bereich auf Clustern aus vielen Einzelrechnern zu verarbeiten.
Storm wird im September 2011 Open Source. (Bild: Backtype) (Backtype)

Hadoop für Echtzeitdaten: Storm wird Open Source

Twitter will das von Backtype entwickelte System Storm als Open Source freigeben. Dabei handelt es sich um ein verteiltes, verlässliches und fehlertolerantes System zur Verarbeitung von Datenströmen, das Backtype als eine Art Hadoop für Echtzeitdaten bezeichnet.

RevoscaleR: R bandelt mit Hadoop an

Revolution Analytics erweitert seine auf der freien Programmiersprache R basierende statistische Analysesoftware um Unterstützung für große Datenmengen. Damit wird es möglich, mit R Daten aus Hadoop oder NoSQL-Datenbanken gezielt zu analysieren.
undefined

Q-Sensei Boost: Suchmaschine für jedermann

Eine Suchmaschine für die eigenen Daten bietet Q-Sensei mit Boost. Die Technik soll Anwendern helfen, eigene Daten schnell und leicht aufzubereiten und mit anderen zu teilen. Dabei lassen sich auch Daten aus mehreren Quellen zusammenführen.

Hadoop erhält Googles Segen

Patentlizenz für freie Implementierung von Googles Mapreduce-Algorithmus. Das Apache-Projekt Hadoop verstößt möglicherweise gegen ein Patent von Google, doch das will Google nicht gegen die Open-Source-Projekte ins Feld führen. Damit ist ein wesentlicher Unsicherheitsfaktor des Projekts aus der Welt.
undefined

NoSQL-Datenbank Apache Cassandra 0.6 veröffentlicht

30 Prozent schneller, mi Zeilencache und Hadoop-Unterstützung. Die von Facebook entwickelte und an die Apache Software Foundation übergebene NoSQL-Datenbank Cassandra wurde in der Version 0.6.0 veröffentlicht. Es ist die erste Cassandra-Ausgabe als Apache-Top-Level-Projekt.
undefined

Twitters Open-Source-Webseite geht online

Microblogging-Dienst stellt seine quelloffenen Projekte vor. Auf einer eigens dafür geschaffenen Webseite stellt Twitter die Open-Source-Projekte vor, die der Anbieter für seine Microblogging-Dienste verwendet. Darunter befindet sich Ruby-Gems sowie Java-Anwendungen, die dort auch per Git zum Download freigegeben wurden.
undefined

Intel zeigt x86-Prozessor mit 48 Kernen unter Linux

Forschungschip benötigt zwischen 25 und 125 Watt. Singlechip Cloud Computer (SCC) nennt Intel seinen neuen Prozessor, der über 48 Kerne verfügt und den Weg hin zu Many-Core-Prozessoren ebnen soll. Dank feiner Stromsparfunktionen liegt die Leistungsaufnahme des Chips zwischen 25 und 125 Watt.

Yahoo spendet Traffic Server dem Apache-Projekt

Cloud-Computing-Software als Open Source freigegeben. Die von Yahoo seit mehreren Jahren entwickelte und eingesetzte Software Traffic Server geht als Spende an die Apache Software Foundation. Die Software kümmert sich um Session-Management, Authentifizierungen, Konfigurationsmanagement, Load-Balancing und Routing für eine komplette Servergruppe, die zu einer Cloud vernetzt wurde.

Wie Facebook die Daten von 300 Millionen Nutzern verkraftet

30.000 Server, 25 TByte Logfile täglich und 600.000 Fotos pro Sekunde. Facebook ist groß, in jeder Dimension. Das sagt Jeff Rothschild, Vice President für Technologie bei Facebook bei einer Präsentation an der Universität San Diego und unterlegte dies mit Zahlen. Rothschild erläuterte die Architektur hinter Facebook und sprach über künftige technische Herausforderungen.

Cloudera Desktop: Webbasierte Verwaltung von Hadoop-Clustern

Datei- und Jobbrowser, Cluster Health und Jobdesigner veröffentlicht. Der Hadoop-Spezialist Cloudera hat mit dem Cloudera Desktop eine GUI für Apache Hadoop vorgestellt. Mit der kostenlosen Software lassen sich Applikationen auf öffentlichen und privaten Hadoop-Clustern administrieren und überwachen.

Yahoo hält trotz Microsoft-Deal an Hadoop fest

PHP-Erfinder will Yahoo verlassen. Die Zusammenarbeit mit Microsoft, in deren Rahmen Yahoo künftig die eigene Suchmaschine durch Microsofts Bing ersetzen will, soll keine negativen Auswirkungen auf Yahoos Hadoop-Engagement haben. Hadoop sei weiterhin wichtig.

HadoopDB - Hybrid aus Hadoop und PostgreSQL

Skalierbar und robust wie Hadoop, so schnell wie eine parallele Datenbank. Die Skalierbarkeit von Hadoop, kombiniert mit der Geschwindigkeit eines parallelen Datenbanksystems. Das soll HadoopDB bieten - ein freies paralleles shared-nothing Datenbanksystem, das mit einer an SQL angelehnten Sprache abgefragt werden kann.

Yahoo veröffentlicht eigene Hadoop-Distribution

Ausgiebig getestete und erweiterte Hadoop-Version ausschließlich im Quelltext. Yahoo hat eine eigene Distribution von Apache Hadoop angekündigt. Die bei Yahoo intern eingesetzte Hadoop-Version stellt das Unternehmen Dritten im Quelltext zur Verfügung.
undefined

Cloudera veröffentlicht Hadoop-Distribution

RPM-basierte Distribution mit webbasiertem Konfigurationsassistenten. Die Installation und Konfiguration von Hadoop ist nicht ganz einfach. Um das zu ändern, bietet Cloudera seine Hadoop-Distribution ab sofort frei zum Download an. Das Apache-Projekt dient zur Verarbeitung großer Datenmengen auf verteilten Systemen und ist an Googles Map/Reduce-Engine angelehnt.

Hadoop-Cluster als Live-CD

OpenSolaris als Betriebssystem. Die OpenSolaris-Community hat eine Live-CD mit einem Hadoop-Cluster veröffentlicht. Vom Start bis zum voll einsatzbereiten Cluster sollen dabei nur etwa 15 Minuten vergehen. Zudem soll sich die Software mit verhältnismäßig geringen Ressourcen ausprobieren lassen.

Testzentren für Cloud-Computing

HP, Intel und Yahoo bauen Testumgebung für Cloud-Computing auch in Karlsruhe. HP, Intel und Yahoo starten eine gemeinsame Open-Source-Testumgebung für Cloud-Computing, die mehrere Rechenzentren umfasst. Damit sollen finanzielle und logistische Barrieren bei der Forschung im Bereich Cloud-Computing abgebaut werden.

Yahoo schickt Slurp 3.0 ins Rennen

Neuer Crawler durchsucht das Netz für Yahoo. Yahoo hat seinen Crawler und die dahinterliegende Infrastruktur überarbeitet und schickt seinen Crawler Slurp nun in der Version 3.0 ins Netz. Im Vorfeld der Umstellung war es zu einigen ungewollten Unregelmäßigkeiten der Yahoo-Crawler gekommen.

Yahoo nimmt größten Hadoop-Cluster in Betrieb

Webmap umfasst 11 Billionen Verknüpfungen. Yahoo hat die bislang größte Hadoop-Installation in Betrieb genommen, auf der Yahoos Webmap liegt, die Basis von Yahoos Suche. Yahoos Hadoop-Installation umfasst mehr als 10.000 CPUs sowie 5 PByte Festplattenplatz.
undefined

M45 - Hadoop-Installation mit 4.000 Prozessoren für Forscher

Yahoo startet Programm zur Verbesserung von Open Source für Internet Computing. Yahoo legt ein Programm auf, um die Forschung und Entwicklung von Open-Source-System-Software für verteiltes Rechnen zu fördern. Dabei folgt Yahoo einem ähnlichen Plan von Google und IBM, stellt aber eine deutlich größere Hardware-Installation zur Verfügung.