Werbung
Die Leistung der Supercomputer richtet sich seit Jahren nach dem Moorschen-Gesetz. Alle 18 Monate verdoppelt sich die Anzahl der Transistoren pro Quadratmillimeter und somit steigt auch die Performance. Doch einen großen Sprung bei der Effizienz machten die Supercomputer erst mit dem Einsatz von GPUs, die auf paralleles Computing optimiert worden sind. Passend zum Start des neuen GPU-Clusters am Standort Bielefeld, bei dem wir mit dabei sein konnten, wollen wir einen Einblick auf die neue Technik bieten.
Zunächst aber ein Blick auf die bisherigen Systeme, die seit 1993 eingesetzt wurden:
1993 - 25 GFlops
1999 - 144 GFlops
2005 - 4000 GFlops
2012 - 518 TFlops
Doch welches Einsatzgebiet hat ein solcher Supercomputer?
{jphoto image=20045}
Entstehung der Daten:
Prof. Peter Braun-Munzinger untersucht das Verhalten des Quark-Gluon-Plasmas am LHC durch die Kollision von Blei-Atomen bei 99,9 Prozent Lichtgeschwindigkeit. Das QGP ist vermutlich ein Zustand des Universums kurz nach dem Urknall (10µS) bei einer Temperatur von mehreren Millionen Grad Celsius. Quarks und Gluonen sind auch heute noch Bestandteil der Materie. Genauer gesagt sind Gluonen sogar dafür verantwortlich, dass Neutrinos und Protonen, die wiederum aus Quarks bestehen, zusammenhalten. Wer sich näher mit Quarks und Gluonen beschäftigen möchte, findet in der Wikipedia die nötigen Informationen. Ebenfalls untersucht wird Antimaterie, in diesem Fall Helium4, also ein Helium, das aus zwei Anti-Neutronen und zwei Anti-Protonen besteht.
Die am neuen Cluster in Bielefeld verarbeiteten Daten stammen zum Beispiel aus dem LHC (Large Hadron Collider) am CERN. Genauer gesagt aus dem ALICE-Experiment dessen Detektor die Größe eines mehrstöckigen Gebäudes hat. Dort ist mehr Eisen in der Konstruktion und dem Detektor selbst verbaut, als für den Eiffelturm aufgewendet werden musste.
Die enormen Datenmengen, die hier anfallen, werden durch die vielen zum Einsatz kommenden Sensoren bedingt. 560 Millionen Pixel, also einzelne Messpunkte, sind im ALICE-Detektor vorhanden. Pro Sekunde können mehrere tausend Messintervalle durchgeführt werden - sozusagen mehrere tausend Bilder pro Sekunde mit 560 Millionen Pixeln gemacht werden. In Stößen mit einem Abstand von 50 ns werden die Atome aufeinander geschossen. Bei diesen Kollisionen entstehen mehr als 10.000 geladenen Partikel, die allesamt detektiert werden müssen. Hier entstehen die Datenmengen, die erst gespeichert und dann später verarbeitet werden müssen. Am Standort Bielefeld werden diese Daten allerdings nicht verarbeitet, sondern mit eigenen Rechenmodellen und deren Ergebnisse verglichen.