Abo
92 Hadoop Artikel
  1. Bigdata: Alpha von Apache Hadoop 2.0 veröffentlicht

    Bigdata: Alpha von Apache Hadoop 2.0 veröffentlicht

    Arun Murthy, Release-Manager für Apache Hadoop 2.0, hat eine erste Alphaversion der kommenden Hadoop-Generation veröffentlicht, die unter anderem Hochverfügbarkeit für HDFS bietet und den Mapreduce-Nachfolger Yarn unterstützt.

    29.05.20120 Kommentare
  2. Linuxtag 2012: Open Source trifft Business

    Linuxtag 2012: Open Source trifft Business

    In Berlin hat der Linuxtag 2012 begonnen. Die Messe beginnt mit der Verleihung des Univention-Absolventenpreises. Themenschwerpunkte liegen in diesem Jahr in den Bereichen Storage, Android und bei Rechenzentren.

    23.05.20120 Kommentare
  3. NoSQL: Apache Cassandra 1.1 veröffentlicht

    NoSQL: Apache Cassandra 1.1 veröffentlicht

    Die Apache Software Foundation hat ihre NoSQL-Datenbank Cassandra in der Version 1.1 veröffentlicht. Das einst von Facebook entwickelte System bringt in der aktuellen Version einige Neuerungen.

    24.04.20120 Kommentare
  4. Opscode: 19,5 Millionen für Chef

    Opscode: 19,5 Millionen für Chef

    Das US-Startup Opscode erhält in einer dritten Finanzierungsrunde 19,5 Millionen US-Dollar Risikokapital. Das Unternehmen entwickelt mit Chef eine Open-Source-Software zur Cloud-Automation.

    27.03.20120 Kommentare
  5. NoSQL: Hypertable schlägt HBase

    NoSQL: Hypertable schlägt HBase

    Hypertable hat eine freie NoSQL-Datenbank entsprechend dem Design von Googles Bigtable entwickelt. Sie ist in C++ implementiert und schlägt das auf Hadoop basierende HBase zumindest in einem von Hypertable durchgeführten Benchmark deutlich.

    08.02.201214 Kommentare
Stellenmarkt
  1. Modis GmbH, Köln
  2. Lidl Dienstleistung GmbH & Co. KG, Neckarsulm
  3. EnBW Energie Baden-Württemberg AG Holding, Köln
  4. Klöckner Pentaplast GmbH, Montabaur


  1. Linux-Distributionen: Canonical veröffentlicht Ubuntu 12.04 Alpha 2

    Linux-Distributionen: Canonical veröffentlicht Ubuntu 12.04 Alpha 2

    Mit reichlich Aktualisierungen, aber ohne die für die finale Version geplanten Neuerungen hat Canonical die zweite Alpha von Ubuntu 12.04 veröffentlicht. Als Basis läuft der Linux-Kernel 3.2.2.

    03.02.201213 Kommentare
  2. Analyse: Oracle-Kunden migrieren 2012 zu Red Hat Linux

    Analyse: Oracle-Kunden migrieren 2012 zu Red Hat Linux

    Laut einer Umfrage planen zahlreiche Oracle-Kunden den Umstieg von Solaris zu Linux. Oracle bietet zwar eine eigene Linux-Lösung an, aber die befragten Kunden bevorzugen Lösungen vom Konkurrenten Red Hat.

    06.01.201249 Kommentare
  3. Mapreduce: Apache Hadoop 1.0 veröffentlicht

    Mapreduce: Apache Hadoop 1.0 veröffentlicht

    Die Apache Software Foundation hat Apache Hadoop in der Version 1.0.0 veröffentlicht. Hadoop basiert auf dem Mapreduce-Algorithmus von Google und erlaubt es, sehr große Datenmengen im Petabyte-Bereich auf Clustern aus vielen Einzelrechnern zu verarbeiten.

    30.12.20110 Kommentare
  4. Maschinelles Lernen: Apache Mahout erhält neue Algorithmen

    Maschinelles Lernen: Apache Mahout erhält neue Algorithmen

    Das Apache-Projekt Mahout erhält zahlreiche neue Algorithmen. Über den Fortschritt der skalierbaren Implementierung von maschinenlernenden Algorithmen hat Entwickler Grant Ingersoll berichtet.

    14.11.20114 Kommentare
  5. Ubuntu 12.04: Precise Pangolin soll stabiler werden

    Ubuntu 12.04: Precise Pangolin soll stabiler werden

    Unter dem Namen Precise Pangolin soll im April 2012 Ubuntu 12.04 LTS erscheinen. Die Neuerungen der letzten beiden Ubuntu-Versionen sollen optimiert, die Linux-Distribution selbst soll auf Stabilität getrimmt werden.

    24.10.201128 Kommentare
  1. NoSQL-Datenbanken: Hadoop soll in Windows Azure integriert werden

    NoSQL-Datenbanken: Hadoop soll in Windows Azure integriert werden

    Windows will die NoSQL-Datenbank Hadoop in seine Cloud-Dienste integrieren. Später soll Hadoop auch auf Windows Server laufen.

    14.10.20112 Kommentare
  2. Big Data Appliance: NoSQL-Datenbank von Oracle

    Big Data Appliance: NoSQL-Datenbank von Oracle

    Auf seiner Hausmesse Oracle Open World hat Oracle den Big Data Appliance vorgestellt, ein System speziell zur Analyse großer Datenmengen. Dabei kommt neben Hadoop eine NoSQL-Datenbank zum Einsatz: die Oracle NoSQL Database.

    04.10.20110 Kommentare
  3. Bruce Perens: Contributor License Agreements mit Offenheitsverpflichtung

    Bruce Perens: Contributor License Agreements mit Offenheitsverpflichtung

    Der ehemalige Debian-Projektleiter Bruce Perens stellt ein Konzept zur Duallizenzierung von Software vor. Demnach soll Code von freien Entwicklern nie ausschließlich proprietär verwendet werden können.

    13.09.20110 Kommentare
  1. Hadoop für Echtzeitdaten: Storm wird Open Source

    Hadoop für Echtzeitdaten: Storm wird Open Source

    Twitter will das von Backtype entwickelte System Storm als Open Source freigeben. Dabei handelt es sich um ein verteiltes, verlässliches und fehlertolerantes System zur Verarbeitung von Datenströmen, das Backtype als eine Art Hadoop für Echtzeitdaten bezeichnet.

    05.08.20113 Kommentare
  2. Web Performance: O'Reillys Velocity-Konferenz kommt nach Berlin

    Web Performance: O'Reillys Velocity-Konferenz kommt nach Berlin

    O'Reilly startet einen europäischen Ableger seiner Konferenz Velocity in Berlin. Die bisher in den USA und China veranstaltete Konferenz widmet sich den Themen Web Performance und Operations.

    28.07.20110 Kommentare
  3. Echtzeitanalyse: Twitter kauft Backtype

    Echtzeitanalyse: Twitter kauft Backtype

    Twitter übernimmt das auf Echtzeitanalysen spezialisierte Unternehmen Backtype. Wie so oft bei solchen Übernahmen werden die Produkte von Backtype nicht länger angeboten.

    06.07.20111 Kommentar
  1. Hortonworks: Yahoo gliedert Hadoop-Abteilung aus

    Hortonworks: Yahoo gliedert Hadoop-Abteilung aus

    Yahoo will um Apache Hadoop eine eigene Firma gründen: Hortonworks soll Hadoop-Entwickler aufnehmen und sich mit Support sowie Training finanzieren. Die Plattform soll weiterhin als Open-Source-Software angeboten werden.

    29.06.20110 Kommentare
  2. Hadoop-Alternative: Lexisnexis gibt HPCC als Open Source frei

    Hadoop-Alternative: Lexisnexis gibt HPCC als Open Source frei

    Der Datenspezialist Lexisnexis will High Performance Computing Cluster (HPCC) als Open Source freigeben und damit eine Alternative zu Apache Hadoop schaffen. HPCC soll Unternehmen helfen, Probleme mit großen Datenmengen zu lösen.

    16.06.20113 Kommentare
  3. Ex-Beschäftigter: Google arbeitet mit veralteter Softwaretechnologie

    Ex-Beschäftigter: Google arbeitet mit veralteter Softwaretechnologie

    Ein namhafter Entwickler hat Google verlassen und bezeichnet Softwaretools des Konzerns wie Protocol Buffers, Bigtable und Mapreduce als veraltet. Dhanji Prasanna war im Google-Wave-Team und vertrat Google in mehreren Java-Expertengruppen.

    10.06.201178 Kommentare
  1. Cloud Computing: Yahoo stellt seine Hadoop-Distribution ein

    Yahoo gibt seine eigene Hadoop-Distribution auf und will sich künftig stärker an Apache Hadoop beteiligen.

    01.02.20110 Kommentare
  2. RevoscaleR: R bandelt mit Hadoop an

    Revolution Analytics erweitert seine auf der freien Programmiersprache R basierende statistische Analysesoftware um Unterstützung für große Datenmengen. Damit wird es möglich, mit R Daten aus Hadoop oder NoSQL-Datenbanken gezielt zu analysieren.

    03.08.20106 Kommentare
  3. Q-Sensei Boost: Suchmaschine für jedermann

    Q-Sensei Boost: Suchmaschine für jedermann

    Eine Suchmaschine für die eigenen Daten bietet Q-Sensei mit Boost. Die Technik soll Anwendern helfen, eigene Daten schnell und leicht aufzubereiten und mit anderen zu teilen. Dabei lassen sich auch Daten aus mehreren Quellen zusammenführen.

    11.05.201014 Kommentare
  1. Apache Software Foundation: Sechs neue Projekte

    Die Apache Software Foundation (ASF) hat auf einen Schlag sechs neue Top-Level-Projekte angekündigt, ein Rekord für die Organisation. Dazu zählt der Apache Traffic Server ebenso wie die Projekte Mahout, Tika, Nutch, Avro und HBase.

    05.05.20107 Kommentare
  2. Riptano - kommerzieller Support für Cassandra

    Riptano - kommerzieller Support für Cassandra

    Cassandra-Entwickler Jonathan Ellis hat mit Matt Pfeil das Unternehmen Riptano gegründet, das Dienstleistungen rund um Apaches freies NoSQL-System anbieten soll.

    03.05.20103 Kommentare
  3. Hadoop erhält Googles Segen

    Das Apache-Projekt Hadoop verstößt möglicherweise gegen ein Patent von Google, doch das will Google nicht gegen die Open-Source-Projekte ins Feld führen. Damit ist ein wesentlicher Unsicherheitsfaktor des Projekts aus der Welt.

    28.04.201024 Kommentare
  4. NoSQL-Datenbank Apache Cassandra 0.6 veröffentlicht

    NoSQL-Datenbank Apache Cassandra 0.6 veröffentlicht

    Die von Facebook entwickelte und an die Apache Software Foundation übergebene NoSQL-Datenbank Cassandra wurde in der Version 0.6.0 veröffentlicht. Es ist die erste Cassandra-Ausgabe als Apache-Top-Level-Projekt.

    14.04.201018 Kommentare
  5. Twitters Open-Source-Webseite geht online

    Twitters Open-Source-Webseite geht online

    Auf einer eigens dafür geschaffenen Webseite stellt Twitter die Open-Source-Projekte vor, die der Anbieter für seine Microblogging-Dienste verwendet. Darunter befindet sich Ruby-Gems sowie Java-Anwendungen, die dort auch per Git zum Download freigegeben wurden.

    19.02.201018 Kommentare
  6. Intel zeigt x86-Prozessor mit 48 Kernen unter Linux

    Intel zeigt x86-Prozessor mit 48 Kernen unter Linux

    Singlechip Cloud Computer (SCC) nennt Intel seinen neuen Prozessor, der über 48 Kerne verfügt und den Weg hin zu Many-Core-Prozessoren ebnen soll. Dank feiner Stromsparfunktionen liegt die Leistungsaufnahme des Chips zwischen 25 und 125 Watt.

    02.12.2009132 Kommentare
  7. Yahoo spendet Traffic Server dem Apache-Projekt

    Die von Yahoo seit mehreren Jahren entwickelte und eingesetzte Software Traffic Server geht als Spende an die Apache Software Foundation. Die Software kümmert sich um Session-Management, Authentifizierungen, Konfigurationsmanagement, Load-Balancing und Routing für eine komplette Servergruppe, die zu einer Cloud vernetzt wurde.

    03.11.200915 Kommentare
  8. Wie Facebook die Daten von 300 Millionen Nutzern verkraftet

    Facebook ist groß, in jeder Dimension. Das sagt Jeff Rothschild, Vice President für Technologie bei Facebook bei einer Präsentation an der Universität San Diego und unterlegte dies mit Zahlen. Rothschild erläuterte die Architektur hinter Facebook und sprach über künftige technische Herausforderungen.

    21.10.2009134 Kommentare
  9. Cloudera Desktop: Webbasierte Verwaltung von Hadoop-Clustern

    Der Hadoop-Spezialist Cloudera hat mit dem Cloudera Desktop eine GUI für Apache Hadoop vorgestellt. Mit der kostenlosen Software lassen sich Applikationen auf öffentlichen und privaten Hadoop-Clustern administrieren und überwachen.

    02.10.20092 Kommentare
  10. Yahoo hält trotz Microsoft-Deal an Hadoop fest

    Die Zusammenarbeit mit Microsoft, in deren Rahmen Yahoo künftig die eigene Suchmaschine durch Microsofts Bing ersetzen will, soll keine negativen Auswirkungen auf Yahoos Hadoop-Engagement haben. Hadoop sei weiterhin wichtig.

    31.07.20090 Kommentare
  11. HadoopDB - Hybrid aus Hadoop und PostgreSQL

    Die Skalierbarkeit von Hadoop, kombiniert mit der Geschwindigkeit eines parallelen Datenbanksystems. Das soll HadoopDB bieten - ein freies paralleles shared-nothing Datenbanksystem, das mit einer an SQL angelehnten Sprache abgefragt werden kann.

    28.07.200938 Kommentare
  12. Yahoo veröffentlicht eigene Hadoop-Distribution

    Yahoo hat eine eigene Distribution von Apache Hadoop angekündigt. Die bei Yahoo intern eingesetzte Hadoop-Version stellt das Unternehmen Dritten im Quelltext zur Verfügung.

    11.06.20091 Kommentar
  13. Elastic MapReduce - Amazon vermietet Hadoop-Cluster

    Amazon bietet mit seinem neuen Dienst Amazon Elastic MapReduce einen Hadoop-Cluster zum Mieten an. Damit lassen sich große Datenmengen auf verteilten Systemen verarbeiten.

    02.04.20093 Kommentare
  14. Cloudera veröffentlicht Hadoop-Distribution

    Cloudera veröffentlicht Hadoop-Distribution

    Die Installation und Konfiguration von Hadoop ist nicht ganz einfach. Um das zu ändern, bietet Cloudera seine Hadoop-Distribution ab sofort frei zum Download an. Das Apache-Projekt dient zur Verarbeitung großer Datenmengen auf verteilten Systemen und ist an Googles Map/Reduce-Engine angelehnt.

    17.03.20090 Kommentare
  15. Hadoop-Cluster als Live-CD

    Die OpenSolaris-Community hat eine Live-CD mit einem Hadoop-Cluster veröffentlicht. Vom Start bis zum voll einsatzbereiten Cluster sollen dabei nur etwa 15 Minuten vergehen. Zudem soll sich die Software mit verhältnismäßig geringen Ressourcen ausprobieren lassen.

    05.09.200811 Kommentare
  16. Testzentren für Cloud-Computing

    HP, Intel und Yahoo starten eine gemeinsame Open-Source-Testumgebung für Cloud-Computing, die mehrere Rechenzentren umfasst. Damit sollen finanzielle und logistische Barrieren bei der Forschung im Bereich Cloud-Computing abgebaut werden.

    30.07.20086 Kommentare
  17. Yahoo schickt Slurp 3.0 ins Rennen

    Yahoo hat seinen Crawler und die dahinterliegende Infrastruktur überarbeitet und schickt seinen Crawler Slurp nun in der Version 3.0 ins Netz. Im Vorfeld der Umstellung war es zu einigen ungewollten Unregelmäßigkeiten der Yahoo-Crawler gekommen.

    15.04.20084 Kommentare
  18. Yahoo nimmt größten Hadoop-Cluster in Betrieb

    Yahoo hat die bislang größte Hadoop-Installation in Betrieb genommen, auf der Yahoos Webmap liegt, die Basis von Yahoos Suche. Yahoos Hadoop-Installation umfasst mehr als 10.000 CPUs sowie 5 PByte Festplattenplatz.

    20.02.20087 Kommentare
  19. M45 - Hadoop-Installation mit 4.000 Prozessoren für Forscher

    M45 - Hadoop-Installation mit 4.000 Prozessoren für Forscher

    Yahoo legt ein Programm auf, um die Forschung und Entwicklung von Open-Source-System-Software für verteiltes Rechnen zu fördern. Dabei folgt Yahoo einem ähnlichen Plan von Google und IBM, stellt aber eine deutlich größere Hardware-Installation zur Verfügung.

    13.11.20073 Kommentare
  20. Cluster mit 1.600 Prozessoren für Universitäten

    Neue Methoden der Software-Entwicklung, mit denen sich die Herausforderungen künftiger Generationen von Internetapplikationen besser bewältigen lassen, wollen Google und IBM mit einer gemeinsamen Initiative fördern. Im Kern geht es darum, Studenten im Bereich paralleles Rechnen besser auszubilden, um so die Möglichkeiten verteilter Rechner-Ressourcen besser nutzen zu können.

    08.10.20078 Kommentare
Folgen Sie uns
       


Haben wir etwas übersehen?

E-Mail an news@golem.de



  1. Seite: 
  2. 1
  3. 2
  1. Themen
  2. A
  3. B
  4. C
  5. D
  6. E
  7. F
  8. G
  9. H
  10. I
  11. J
  12. K
  13. L
  14. M
  15. N
  16. O
  17. P
  18. Q
  19. R
  20. S
  21. T
  22. U
  23. V
  24. W
  25. X
  26. Y
  27. Z
  28. #