NEWS

Prozessoren

NVIDIA GPU-Beschleuniger bald auch in ARM-Servern

Portrait des Authors


NVIDIA GPU-Beschleuniger bald auch in ARM-Servern
3

Werbung

NVIDIA gibt zu International Supercomuting Conference bekannt, dass man künftig auch den Einsatz der GPU-Beschleuniger in ARM-Servern ermöglichen wird. Damit öffnet sich NVIDIA zunächst einmal nur hinsichtlich der Softwareunterstützung. Zukünftig sind aber auch Systeme mit ARM-Prozessoren und GPU-Beschleunigern von NVIDIA denkbar.

Neuigkeiten im Bereich der GPU-Beschleuniger selbst hat man nicht zu verkünden. Auch eine neue HPC-Architektur hat man nicht vorgestellt. Stattdessen fokussiert man sich derzeit verstärkt auf den Ausbau der Softwareunterstützung. 25 % aller Supercomputer der Top500-Liste sind mit Hardware aus dem Hause NVIDIA bestückt. Die Zahl der Entwickler wächst laut NVIDIA weiterhin deutlich und mit entsprechender Software-Basis bindet man diese auch an die eigene Hardware.

Derzeit verwendet NVIDIA in den eigenen Servern für die Anbindung der GPU-Beschleuniger meist Prozessoren aus dem Hause Intel. Auch Kundenhardware verwendet häufig Intel-Prozessoren und somit werden die GPUs selbst per PCI-Express angebunden. NVLink kommt als Interconnect nur bei Servern mit IBMs Power9-Prozessoren zum Einsatz. Die nun neuen und geplanten Server auf Basis von ARM-Prozessoren werden vermutlich ebenfalls vorerst nur PCI-Express zur Anbindung verwenden. Es ist aber durchaus denkbar, dass zukünftig ARM-Prozessoren auch eine Integration von NVLink erhalten.

"We are excited to work with NVIDIA and server OEMs to couple the CUDA-X platform and NVIDIA GPUs with the Marvell ThunderX2 family of server processors. The combination of ThunderX2’s best-in-class 64-bit Armv8 performance and NVIDIA GPUs offers breakthrough levels of energy efficiency and application performance, enabling world-class HPC and AI solutions for exascale computing." – sagt Matt Murphy, CEO von Marvell.

"We have been a pioneer in using NVIDIA GPUs on large-scale supercomputers for the last decade, including Japan’s most powerful ABCI supercomputer. At Riken R-CCS, we are currently developing the next-generation, Arm-based, exascale Fugaku supercomputer and are thrilled to hear that NVIDIA’s GPU acceleration platform will soon be available for Arm-based systems." – sagt Satoshi Matsuoka, Direktor des Riken Center for Computational Sciences (R-CCS).

Gegen Ende 2019 sollen die ersten Systeme in Kombination zwischen ARM-Prozessoren und NVIDIA GPU-Beschleuniger erhältlich sein.

DGX Superpod als neues Referenzsystem

Außerdem gibt NVIDIA bekannt, dass man mit dem DGX Superpod ein neues Referenzsystem für HPC-Server entwickelt hat. Ein Superpod besteht aus 96 DGX-H2, verwendet 1.536 Tesla V100, einen 10 EDR InfiniBand pro Node und verbraucht 1 MW an Leistung.

Die Rechenleistung gibt NVIDIA mit 9,4 PFLOPS an. Die AI-Leistung liegt bei 200 POPS (Peta Operations pro Sekunde). Ein solches System landet bereits auf Platz 22 der Top500-Liste.

Die aktuelle Liste der Top500-Supercomputer führt die Systeme nach ihrer Leistung im High Performance Linpack (HPL) auf. NVIDIA nennt bei den eigenen Systemen aber häufig auch die AI- bzw. ML-Leistung. Aufgrund der geringeren Genauigkeit (FP16 oder INT8) werden hier deutlich mehr Operationen pro Sekunde ermöglicht. NVIDIA würde in Zukunft auch gerne eine Rangliste nach dieser Leistungsklasse einführen.

Quellen und weitere Links

    Werbung

    KOMMENTARE (3) VGWort