World Wide Grid: 500 MByte pro Sekunde
LCG erklimmt wichtigen Meilenstein
Das wissenschaftliche Grid-Computing hat im Rahmen des Large Hadron Collider Computing Grids einen wichtigen Meilenstein erreicht: Acht große Rechenzentren in Europa und den USA haben über zehn Tage hinweg einen kontinuierlichen Datenstrom von 500 MByte pro Sekunde ausgetauscht - insgesamt etwa ein halbes Petabyte an Daten. Wollte man diese Datenmenge über eine ISDN-Leitung verschicken, würde dies etwa 3.000 Jahre dauern.
Die Daten wurden vom europäischen Forschungszentrum CERN in Genf verschickt, um einen Datenaustausch zu simulieren, der ab 2007 notwendig sein wird, um die Daten des Large Hadron Collider (LHC) zu verarbeiten. Der 27 km lange, kreisförmige Teilchenbeschleuniger soll über einen Zeitraum von zehn Jahren rund um die Uhr einen Datenstrom von etwa 1.500 MByte pro Sekunde liefern.
Im LHC werden Protonen oder Bleikerne mit nahezu Lichtgeschwindigkeit aufeinander geschossen, wobei Unmengen kleinerer Elementarteilchen entstehen, die Einblicke in die innerste Struktur der Materie geben sollen. Der LHC wird so zum datenintensivsten Experiment der Physik: In jeder Sekunde müssen über 100 Millionen Messdaten registriert, etwa drei Millionen GByte an Daten jährlich gespeichert und für weltweit verteilte Wissenschaftlergruppen aufbereitet werden.
Da ein einzelnes Rechenzentrum diesen Bedarf nicht mehr abdecken kann, sollen die Daten und die benötigte Rechenleistung in einer hierarchischen Schichtenstruktur über die ganze Welt verteilt und die einzelnen Standorte über eine besonders leistungsfähige Internetstruktur miteinander verknüpft werden. Der Aufbau dieser Internetstruktur ist mit einer Reihe von Meilensteinen verknüpft, von denen der zweite jetzt erreicht wurde: Für zehn Tage verteilte das CERN einen Datenstrom von 500 MByte pro Sekunde an sieben große Rechenzentren in den USA und in Europa. Der nächste Meilenstein wird für Sommer 2005 angepeilt: Dann sollen viele weitere Rechenzentren angebunden werden und ein stabiler Dauerbetrieb über drei Monate stattfinden.
Die Daten-Infrastruktur ist dabei in mehreren Schichten angelegt: Das CERN definiert als Schicht 0, wo die Experimente durchgeführt werden, wird die Daten ab 2007 weltweit auf elf Rechenzentren der so genannten Schicht 1 verteilen. Von dort laufen sie auf etwa 100 Zentren der Schicht 2, bis sie schließlich mit Schicht 3 in wissenschaftliche Institute und mit Schicht 4 auf mehrere tausend Arbeitsplätze der beteiligten Wissenschaftler verteilt sind. Die deutsche Schaltstelle für das schnellste Rechnernetz der Welt - ein Knoten der Schicht 1 - ist das Forschungszentrum Karlsruhe, das vom DFN mit einer Bandbreite von 1.250 MByte pro Sekunde vom Deutschen Forschungsnetz (DFN) angebunden wurde.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed








Das wird gar nicht alles gespeichert. War an einer Besichtigung im CERN im Januar. Die...
Gar keine? Das ist ja nicht das internet2, wo jeder studenten trottel (wenn die uni denn...
Deswegen sag ich ja auch zurück zum guten alten LKW, damit hast Du auf einigen Distanzen...