Werbung
Wenngleich sich in den vergangenen Monaten vieles um die Turing-Architektur und die dazugehörigen GeForce-RTX-Grafikkarten gedreht hat, so kann NVIDIA weiterhin sein Datacenter-Business stärker ausbauen. Zentrales Produkt in diesem Bereich ist und bleibt die Tesla V100, die als SMX2-Modul bei einer Leistungsaufnahme von 300 W 7,8 TFLOPS an FP64-Rechenleistung bietet. Je nach Kühlung können die GPUs auch auf eine TDP von 350 W konfiguriert werden.
Nun aber scheint NVIDIA ein kleines Update bei der Tesla V100 vorzunehmen, denn mit dem DGX-2H bestückt NVIDIA den Server mit 16 Tesla V100 mit neuer Hardware. Anstatt der bisher genannten 350 W pro GPU (16x 350 W = 5.600 W) im DGX-2, setzt NVIDIA beim DGX-2H auf 450 W pro GPU. Dies ist eine signifikanten Steigerung um fast 30 % und dürfte sich dementsprechend auch in der Leistung niederschlagen. ServeTheHome hat das entsprechende Datenblatt vorliegen, dort wird allerdings keine Leistungssteigerung genannt. NVIDIA dürfte den Takt der GPUs aber deutlich angehoben haben. Mit der höheren Thermal Design Power dürfte es auch Änderungen in der Kühlung geben.
Anstatt des bisher eingesetzten Intel Xeon Platinum 8174 kommt nun ein Xeon Platinum 8168 zum Einsatz. Auch das Netzwerk hat ein Update erhalten und unterstützt nun 10/25/40/50/100GbE anstatt nur 10/25GbE. Die Leistungsaufnahme des gesamten Systems wird nun mit 12 anstatt 10 kW angegeben und die maximale Betriebstemperatur sinkt von 35 auf 25 °C. Insgesamt steigen also die Anforderungen am die Versorgung und Kühlung.
Was NVIDIA zu diesem Schritt bewogen hat, ist derzeit nicht bekannt. Mehr Leistung anbieten zu können ist aber natürlich grundsätzlich kein falscher Schritt. Was NVIDIA gerade jetzt in die Lage versetzt die V100-GPU als SMX2-Modell von 350 W auf 450 W anheben zu können, ist ebenfalls nicht bekannt. Im Circe, einem Supercomputer auf Platz 61 der Top500 der Supercomputer, kommen die NVIDIA DGX-2H bereits zum Einsatz.
Während es im Heimanwenderbereich gewisse Limits für den Verbrauch, bzw. die Leistungsaufnahme gibt, sind solche Grenzen im Datacenter ohnehin eher fließend. Mit einer TDP von 450 W bricht NVIDIA hier allerdings auch aus allen bisherigen „Standards" heraus. Ob sich das erhöhte TDP-Limit auch in Zukunft fortsetzen wird, bleibt abzuwarten. Zumindest bei den PCI-Express-basierten GPU-Beschleunigern werden 300 W wohl vorläufig aufgrund des Kühlervolumens bei zwei Slots eine magische Hürde bleiben. Custom-Lösungen wie die SMX2-Module von NVIDIA könnten aber durchaus auch in Zukunft standardmäßig mehr verbrauchen.