Werbung
Die Rechenleistung der Supercomputer steigt weiter, wenngleich das Wachstum etwas gebremst verläuft. Die im November aktualisierte Liste der Top500.org zeigt aber auch sehr deutlich, dass die nächste Generation der GPU-Beschleuniger so langsam aber sicher angekommen ist. Sowohl NVIDIA wie auch Intel liefern die entsprechende Hardware in Form der Tesla P100 auf Basis der Pascal-Architektur und Xeon Phi auf Basis von Knights Landing aus. Allerdings konnten bisher erst einige wenige Supercomputer damit ausgestattet werden.
Neben der reinen Rechenleistung spielt aber auch die Effizienz solcher Systeme eine immer wichtigere Rolle. Denn neben der Leistung, die für den eigentlichen Betrieb der Hardware gebraucht wird, muss auch eine Kühlung sichergestellt werden, was für einen zusätzlichen Verbrauch sorgt. Den Supercomputern sind daher gewisse Grenzen auferlegt, die nur durch eine effizientere Hardware gesprengt werden können. NVIDIA sieht sich in diesem Bereich als Vorreiter und hat ein Entwickler-System vorgestellt, welches genau diese Voraussetzungen erfüllt.
Der DGX SATURNV, so der Name des Supercomputers der bei NVIDIA steht, basiert natürlich auch auf den Tesla P100 GPU-Beschleunigern auf Basis der Pascal-Architektur und unter Verwendung von HBM der 2. Generation. Neben den GPU-Beschleunigern kommen auch noch Intel Xeon E5-2698v4 20C mit 2,2 GHz zum Einsatz. Der Interconnect erfolgt über Infiniband EDR. Insgesamt sind 63.488 GB an Speicher verbaut und gerechnet wird auf 60.512 Rechenkernen, von denen die Tesla P100 GPU-Beschleuniger natürlich einen Großteil zu Verfügung stellen.
Die Linpack Performance (Rmax) liegt bei 3,307 TFLOPS, das theoretische Maximum (Rpeak) liegt bei 4.896.51 TFLOPS. Der Verbrauch des Systems soll bei 349,5 kW liegen, womit der DGX SATURNV auf 8,2 GFLOPS/Watt kommt und damit der derzeit effizienteste Supercomputer ist. Bisher an der Spitze liegt ein System bestehend aus ZettaScaler-1.6 Custom-Beschleunigern und Xeon E5-2618Lv3 8C mit 2,3 GHz, der auf 6,6 GFLOPS/Watt kommt. NVIDIA setzt für den DGX SATURNV 128 DGX-1-Racks sein, die mit jeweils acht Tesla P100 bestückt sind. NVIDIA verwendet den DGX SATURNV um Deep-Learning-Netzwerke zu trainieren und will die Rechenleistung auch dazu verwenden um an zukünftigen GPUs und Architekturen zu forschen.
Bis die Supercomputer eine Leistung von EFLOPS (ExaFLOPS – 1018) erreicht haben, will NVIDIA die Effizienz auf 50 GFLOPS/Watt gesteigert haben. Mit den besagten 8,2 GFLOPS/Watt für DGX SATURNV ist man von diesem Ziel aber noch ein Stück weit entfernt.