Werbung
{jphoto image=20045}
Der neue Supercomputer in Bielefeld besteht nicht nur aus einem Server, sondern aus einem Cluster mehreren Server, die sich wie folgt zusammensetzen:
Hybrid GPU - High Performance Cluster
- Anzahl an Knoten: 152
- Anzahl an GPUs: 400
- Anzahl an CPUs: 304
- Anzahl an CPU-Cores: 1216
- Kapazität des CPU-Speichers: 7296 GB
- Kapazität des GPU-Speichers: 1824 GB
- Peak-Performance der CPUs: 11,7 TFlops
- Peak-Performance der GPUs (Single-Precision): 518 TFlops
- Peak-Performance der GPUs (Double-Precision): 145 TFlops
104 Tesla-Knoten:
- 2x Quad-Core Xeon Prozessoren (E5620)
- 48 GB Arbeitsspeicher
- 2x NVIDIA Tesla M2075
Ein paar Daten zur Tesla M2075:
- 515 Gigaflops (Double-Precision)
- 1030 Gigaflops (Single-Precision)
- 448 CUDA-Kerne (Shader-Prozessoren)
- 6 GB Compute-Speicher
- 150 GB/Sek. Speicherbandbreite
48 GeForce-GTX-580-Knoten:
- 2x Quad-Core Xeon-Prozessoren (E5620)
- 48 GB Arbeitsspeicher
- 4x NVIDIA GTX 580
Ein paar Daten zur GeForce GTX 580:
- 198 GFlops (Double-Precision)
- 1581 GFlops (Single-Precision)
- 3 GB Compute-Speicher
- 192 GB/Sek. Speicherbandbreite
2 Head-Nodes:
- 2x Quad-Core Xeon-Prozessoren (E5620)
- 48 GB Arbeitsspeicher
- HA-Cluster
7 Storage-Server:
- 2x Quad-Core Xeon-Prozessoren (E5620)
- 20 TB Speicher (Home)
- 160 TB (Filesystem)
Das GPU-Cluster in Bielefeld hat nicht den Anspruch ein neuer Supercomputer der Top-Liste zu sein. Das wird alleine schon daran deutlich, dass hier "nur" 400 Grafikkarten zum Einsatz kommen, während der Tianhe-1A auf über 7000 Karten kommt.
Wie zu sehen ist, sind nicht alle GPUs auch direkt dem professionellen Umfeld zuzuordnen. In Bielefeld werden 192 GeForce GTX 580 eingesetzt, um Simulationen durchzuführen. Die GeForce GTX 580 eignet sich nicht nur durch die enorme Rechenleistung, sondern gerade durch ihren recht günstigen Preis. Das Fehlen der ECC-Fehlerkorrektur ist hier nicht ganz so wichtig, dafür kommen aber auch die Modelle mit 3 GB Grafikspeicher zum Einsatz.
Auf die verlässlichen Ergebnisse möchte man allerdings nur vertrauen, wenn sie durch die Tesla-GPUs gelaufen sind. Die 304 CPUs des Systems sind nicht nur dazu da, um die GPUs zu verwalten und mit Daten zu versorgen, sondern auch um ebenfalls Berechnungen durchzuführen. Sicher haben wir bislang nur davon gesprochen, dass GPUs die ideale Compute-Plattform sind, doch auch CPUs haben ihre Daseinsberechtigung. Zukünftig wird man auch auf den Intel-Xeon-Prozessoren bestimmte Berechnungen durchführen und die Effizienz des Supercomputers weiter steigern. Werden sowohl die GPUs als auch die CPUs belastet, kommt das Cluster auf einen Verbrauch von etwa 140 kW.
Auch eine Erweiterung des GPU-Clusters in Bielefeld ist denkbar. Weitere Knoten können aus Platzgründen allerdings nicht installiert werden und so wäre nur ein Hardware-Upgrade denkbar. Mit den Tesla-GPUs der nächsten Generation dürfe auch die Rechenleistung steigen. Dann allerdings müssten die kompletten Knoten getauscht werden, sonst könnte die PCI-Express-2.0-Schnittstelle zum Flaschenhals werden. Denkbar ist vieles, was machbar sein wird, wird sich zeigen müssen, denn letztendlich ist dies vorrangig eine Geldfrage.
GPU-Computing ist und bleibt für NVIDIA ein wichtiges Thema. Am 15. Februar 2007 präsentierte man erstmals das CUDA-SDK. Offenbar traf man gleichzeitig auch den Nerv der (Compute)-Zeit. Ein entsprechender Support von Hard- und Software-Herstellern hat dazu geführt, dass eigentlich nur NVIDIA im Zusammenhang mit dem GPU-Computing genannt wird. Vom 14. bis 17. Mai wird in San Jose die GTC 2012 stattfinden. Dort werden wieder einmal zahlreiche Vorträge zum GPU-Computing und CUDA geboten und vielleicht werden auch wir wieder vor Ort sein.