Zum Hauptinhalt Zur Navigation

LHC

CERN und IBM: Schreib-Leserate auf Platte von über 1 GB/s

Speichervirtualisierungssoftware für den Large Hadron Collider. CERN, die europäische Organisation für Teilchenforschung und IBM haben mit der IBM Speichervirtualisierungssoftware in einem internen Leistungstest bei CERN extrem hohe Leistungswerte erreicht. Der Datenübertragungstest war Teil von Vorbereitungen, die derzeit im CERN stattfinden, um die Anforderungsprofile des Large Hadron Collider (LHC) Computing Grids auszuloten, des derzeit weltweit größten wissenschaftlichen Computing Grids.

LCG bereits das größte Grid der Welt

10.000 CPUs und 10 Petabyte Speicherplatz reichen noch lang nicht aus. Das "Large Hadron Collider Computing Grid" (LCG) umfasst mittlerweile mehr als 100 Sites in 31 Ländern und ist damit derzeit das größte internationale wissenschaftliche Grid. Ziel des LCG-Projekts ist es, ausreichend Ressourcen zu schaffen, um die riesigen zu erwartenden Datenmengen des Large Hadron Collider (LHC) verarbeiten zu können, der derzeit am CERN in Genf entsteht.

CERN: Fortschritte beim Grid-Computing

LCG-Projekt soll 15 Petabyte pro Jahr verarbeiten. Das CERN Openlab für DataGrid-Applikationen vermeldet einen Durchbruch im Bereich des Grid-Computing. Die Software für das Large Hadron Collider Computing Grid Project (LCG) konnte jetzt erstmals auf unterschiedlichen Architekturen demonstriert werden - ein wichtiger Schritt für das geplante Grid, das ab 2007 Datenmengen von rund 15 Petabyte pro Jahr verarbeiten soll.

HP als erstes kommerzielles Mitglied beim CERN-Grid

Zusätzliche Rechenleistung für größtes wissenschaftliches Messinstrument. Wenn im Jahr 2007 der Teilchenbeschleuniger (Large Hadron Collider, LHC) des europäischen Forschungszentrums für Teilchenphysik bei Genf, kurz CERN, seine Arbeit aufnimmt, werden die Experimente voraussichtlich eine gigantische Datenmenge von 12 bis 14 Petabytes pro Jahr produzieren. Diese Datenmenge soll durch ein weltweites Rechnernetz - dem LHC Computer Grid (LCG) - analysiert werden, dem nun auch Hewlett-Packard als erstes kommerzielles Mitglied Computerressourcen in seinen Forschungszentren zur Verfügung stellen will.

CERN: Weltweites wissenschaftliches Datengrid geht online

Grid soll bis zu 14 Petabyte Daten pro Jahr verarbeiten. Die Atomphysikergemeinschaft CERN hat den Start der ersten Phase des LHC Computing Grid (LCG-1) angekündigt. Ab 2007 sollen im Rahmen des Large-Hadron-Collider-Projektes (LHC), dem bislang leistungsfähigsten Teilchenbeschleuniger, enorm große Datenmengen verarbeitet werden. LCG soll dabei als wichtiges Testumfeld für neue DataGrid-Computing-Techniken fungieren.

Grid zur Erforschung des Universums in der Entwicklung

IBM und CERN arbeiten an Verarbeitung riesiger Datenmengen. Das CERN, eine der weltweit größten Forschungseinrichtungen für Teilchenphysik, und IBM kündigen jetzt eine Kooperation im Bereich der Grid-Technologie an. IBM wird Mitglied des CERN Openlabs, in dem Werkzeuge für die Verarbeitung riesiger Datenmengen entwickelt werden. Dabei geht es insbesondere um den Bau eines riesigen Datenmanagement-Systems, das auf Grid-Computing-Technologie basiert.