Zum Hauptinhalt Zur Navigation

LHC

undefined

LHC: Erkennen, was die Welt zusammenhält

Teilchenbeschleuniger soll Wissenschaft neue grundlegende Erkenntnisse bescheren. Was hält die Welt im Innersten zusammen? Die Antwort auf diese Frage wollen Wissenschaftler im Large Hadron Collider (LHC) finden. Das ist ein 27 Kilometer langer, ringförmiger Teilchenbeschleuniger in einem Tunnel, der in 50 bis 150 Metern Tiefe unter dem schweizerisch-französischen Grenzgebiet nahe Genf verläuft. Am 10. September 2008 wird der neue Teilchenbeschleuniger in Betrieb genommen. Kritiker fürchten jedoch, dass der LHC den Weltuntergang einläuten wird.
undefined

Interview: Chaos, Verschwörung, schwarze Löcher

Prof. Dr. Otto E. Rössler über die Gefahren des LHC am CERN. Der größte Teilchenbeschleuniger der Welt, der Large Hadron Collider (LHC) der Europäischen Organisation für Kernforschung (CERN), soll helfen, mehr über die Entstehung des Universums zu erfahren. Chaosforscher Professor Otto E. Rössler sieht im LHC aber eine Gefahr für die Erde, deren Untergang er einleiten könne. Golem.de sprach mit Rössler am Rande der Transmediale, die in diesem Jahr den Titel "Conspire" trägt. Für die Menschheit sehen die Wissenschaftler am CERN jedoch keine Gefahr, wie ein leitender Wissenschaftler des LHC-Projekts gegenüber Golem.de erklärte.

World Wide Grid: 500 MByte pro Sekunde

LCG erklimmt wichtigen Meilenstein. Das wissenschaftliche Grid-Computing hat im Rahmen des Large Hadron Collider Computing Grids einen wichtigen Meilenstein erreicht: Acht große Rechenzentren in Europa und den USA haben über zehn Tage hinweg einen kontinuierlichen Datenstrom von 500 MByte pro Sekunde ausgetauscht - insgesamt etwa ein halbes Petabyte an Daten. Wollte man diese Datenmenge über eine ISDN-Leitung verschicken, würde dies etwa 3.000 Jahre dauern.

CERN und IBM: Schreib-Leserate auf Platte von über 1 GB/s

Speichervirtualisierungssoftware für den Large Hadron Collider. CERN, die europäische Organisation für Teilchenforschung und IBM haben mit der IBM Speichervirtualisierungssoftware in einem internen Leistungstest bei CERN extrem hohe Leistungswerte erreicht. Der Datenübertragungstest war Teil von Vorbereitungen, die derzeit im CERN stattfinden, um die Anforderungsprofile des Large Hadron Collider (LHC) Computing Grids auszuloten, des derzeit weltweit größten wissenschaftlichen Computing Grids.

LCG bereits das größte Grid der Welt

10.000 CPUs und 10 Petabyte Speicherplatz reichen noch lang nicht aus. Das "Large Hadron Collider Computing Grid" (LCG) umfasst mittlerweile mehr als 100 Sites in 31 Ländern und ist damit derzeit das größte internationale wissenschaftliche Grid. Ziel des LCG-Projekts ist es, ausreichend Ressourcen zu schaffen, um die riesigen zu erwartenden Datenmengen des Large Hadron Collider (LHC) verarbeiten zu können, der derzeit am CERN in Genf entsteht.

CERN: Fortschritte beim Grid-Computing

LCG-Projekt soll 15 Petabyte pro Jahr verarbeiten. Das CERN Openlab für DataGrid-Applikationen vermeldet einen Durchbruch im Bereich des Grid-Computing. Die Software für das Large Hadron Collider Computing Grid Project (LCG) konnte jetzt erstmals auf unterschiedlichen Architekturen demonstriert werden - ein wichtiger Schritt für das geplante Grid, das ab 2007 Datenmengen von rund 15 Petabyte pro Jahr verarbeiten soll.

HP als erstes kommerzielles Mitglied beim CERN-Grid

Zusätzliche Rechenleistung für größtes wissenschaftliches Messinstrument. Wenn im Jahr 2007 der Teilchenbeschleuniger (Large Hadron Collider, LHC) des europäischen Forschungszentrums für Teilchenphysik bei Genf, kurz CERN, seine Arbeit aufnimmt, werden die Experimente voraussichtlich eine gigantische Datenmenge von 12 bis 14 Petabytes pro Jahr produzieren. Diese Datenmenge soll durch ein weltweites Rechnernetz - dem LHC Computer Grid (LCG) - analysiert werden, dem nun auch Hewlett-Packard als erstes kommerzielles Mitglied Computerressourcen in seinen Forschungszentren zur Verfügung stellen will.

CERN: Weltweites wissenschaftliches Datengrid geht online

Grid soll bis zu 14 Petabyte Daten pro Jahr verarbeiten. Die Atomphysikergemeinschaft CERN hat den Start der ersten Phase des LHC Computing Grid (LCG-1) angekündigt. Ab 2007 sollen im Rahmen des Large-Hadron-Collider-Projektes (LHC), dem bislang leistungsfähigsten Teilchenbeschleuniger, enorm große Datenmengen verarbeitet werden. LCG soll dabei als wichtiges Testumfeld für neue DataGrid-Computing-Techniken fungieren.

Grid zur Erforschung des Universums in der Entwicklung

IBM und CERN arbeiten an Verarbeitung riesiger Datenmengen. Das CERN, eine der weltweit größten Forschungseinrichtungen für Teilchenphysik, und IBM kündigen jetzt eine Kooperation im Bereich der Grid-Technologie an. IBM wird Mitglied des CERN Openlabs, in dem Werkzeuge für die Verarbeitung riesiger Datenmengen entwickelt werden. Dabei geht es insbesondere um den Bau eines riesigen Datenmanagement-Systems, das auf Grid-Computing-Technologie basiert.
Die Golem Newsletter : Das Wichtigste für Techies und IT-Leader auf einen Blick. Jetzt abonnieren