Im vergangenen Jahr hat die europäische Organisation für Nuklearforschung CERN den weltweit grössten Teilchenbeschleuniger in Betrieb genommen, musste den Large Hadron Collider (LHC) aber bald wieder herunterfahren. Der LHC soll den Forschern neue Erkenntnisse über die Entstehung des Universums liefern.
Mitte Oktober soll der LHC nun wieder in Betrieb genommen werden. Ist dies der Fall, so werden am CERN eine Riesenmenge an Daten produziert. Laut Wolfgang von Rüden, Head of CERN openlab, werden es jährlich 15 Petabyte sein. Doch die Menge werde kontinuierlich zunehmen. Bereits jetzt produziere man ähnliche Datenmengen, allerdings nur per Simulation, so von Rüden weiter.
Die reale Datenmenge, die ab Mitte Oktober mit dem LHC erzeugt werden soll, muss dann aber auch analysiert und gespeichert werden. Deshalb hat das CERN ein internationales Grid aufgebaut und verzichtet somit auf den Einsatz eines Mainframes oder eines Supercomputers. Das LHC Computing Grid (LCG) wurde am 3. Oktober 2008 in Betrieb genommen und umfasst tausende Server- und Speichersysteme. Den Mittelpunkt bildet das Tier-0-Rechenzentrum in Genf. Dieses ist mit elf Tier-1-Rechenzentren in aller Welt verbunden, von Bologna über Lyon und Barcelona bis hin zu Taipeh und Karlsruhe. Diese Tier-1-Standorte stehen wiederum mit über 200 Tier-2-Datacenter in Verbindung.
Das Genfer Rechenzentrum zeichnet die Daten auf und verteilt sie an die Tier-1-Standorte. Dort werden die Daten dauerhaft gespeichert und ausgewertet. Enduser-Analyse und Simulation passieren dann in den Tier-2-Rechenzentren.
Alle Datacenter sind zudem an die Basis-Grid-Infrastruktur angeschlossen, deren grösste Grids das Enabling Grids for E-Science (EGEE) und das US Open Science Grid (OSG) sind. (ahu)