Storage und die Teilchenphysik - Kleinste Teilchen - Enorme Datenmengen
Quelle: ETH Zürich

Storage und die Teilchenphysik - Kleinste Teilchen - Enorme Datenmengen


Artikel erschienen in Swiss IT Magazine 2014/04

     

Im CERN arbeiten Sie in Grenzbereichen der Forschung. An welchen wissenschaftlichen Fragestellungen arbeiten Sie aktuell?
Prof. Günther Dissertori:
Bei unserer Forschung geht es um die Frage nach den kleinsten Bausteinen der Materie und den Kräften zwischen diesen. Nach der Entdeckung des lange gesuchten Higgs-Teilchens im Jahr 2012, die zur Verleihung des Physik-Nobelpreises an Prof. Higgs und Prof. Englert im letzten Jahr führte, werden wir uns in den kommenden Jahren intensiv mit der Untersuchung dieses Teilchens befassen. Konkret geht es darum, seine Eigenschaften genau zu vermessen und zu vergleichen, ob diese mit den theoretischen Vorhersagen übereinstimmen. Das Teilchen ist deshalb so wichtig, weil es für die Masse aller anderen Teilchen verantwortlich ist. Ein anderer Forschungsschwerpunkt ist die Suche nach weiteren bisher unentdeckten Teilchen. Zum Beispiel sagt die sogenannte Supersymmetrie-Theorie voraus, dass es eine Vielzahl neuer schwerer Teilchen geben sollte. Eines dieser Teilchen könnte eventuell sogar für die mysteriöse «Dunkle Materie» in unserem Universum verantwortlich sein.
Welche Herausforderungen ergeben sich daraus für die in der Forschung eingesetzten IT- und Storage-Infrastrukturen?
Die Datenrate, welche sich bei unseren Experimenten ergibt, ist sehr gross. Mit unseren Detektoren registrieren wir 20 Millionen Teilchenkollisionen pro Sekunde, und jede Kollision liefert mehrere Megabyte an Daten. Eine solche Datenmenge kann man nicht langfristig verarbeiten und speichern. Deswegen reduzieren wir den Datenfluss mit speziellen Trigger- und Selektionsalgorithmen auf zirka 1000 Kollisionen pro Sekunde, die dann dauerhaft gespeichert werden und zur weiteren Analyse für Hunderte und Tausende von Physikern weltweit zur Verfügung stehen. Die immer noch enorme Datenmenge von mehreren Gigabyte pro Sekunde, oder über 20 Petabyte pro Jahr, stellt das IT-System vor besondere Herausforderungen. Die Entwicklung des Worldwide LHC Computing Grids hat wesentlich zur erfolgreichen Lösung dieser Problematik beigetragen.


Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Wieviele Zwerge traf Schneewittchen im Wald?
GOLD SPONSOREN
SPONSOREN & PARTNER