Werbung
Zur GPU Technology Conference präsentierte NVIDIA die neue Volta-Architektur und stellte zudem auch die ersten drei Tesla-Grafikkarten vor, welche die neue GV100-GPU einsetzen. Auf alle Details der Volta-Architektur sind wir in einem gesonderten Artikel bereits eingegangen. Nun hat NVIDIA ein sogenannten Whitepaper (PDF) veröffentlicht, welches sich noch einmal mit der Tesla V100 und Volta-Architektur beschäftigt und dabei auch einige Details verrät, die in dieser Form bisher nicht bekannt waren.
Noch einmal in Kürze die wichtigsten technischen Daten: Genau wie die Pascal-Architektur setzt sich Volta aus verschiedenen Komponenten zusammen. So besteht die GV100-GPU aus Graphics Processing Clustern (GPCs), Texture Processing Clustern (TPCs), Streaming Multiprocessoren (SMs) und einem Speicher-Controller. Der Vollausbau der GV100-GPU besteht aus sechs GPCs, 84 Volta SMs, 42 TPCs (jeder mit jeweils zwei SMs) und acht 512-Bit-Speicher-Controllern (4.096 Bit ingesamt). Jeder SM hat 64 FP32 Cores, 64 INT32 Cores, 32 FP64 Cores und acht der neuen Tensor Cores. Hinzu kommen noch vier Textur-Einheiten pro SM.
Mit 84 SMs kommt der Vollausbau der GV100-GPU auf 5.376 FP32 Cores, 5.376 INT32 Cores, 2.688 FP64 Cores, 672 Tensor Cores und 336 Textur-Einheiten. An jeden Speicher-Controller angekoppelt sind 768 KB L2-Cache und jeder HBM2-DRAM-Stack wird von zwei Speicher-Controllern angesteuert. In dieser Ausbaustufe bietet die GV100.GPU insgesamt 6.144 KB L2-Cache.
Maximum Performance Mode und Maximum Efficiency Mode
NVIDIA bietet drei Varianten der Tesla V100 mit GV100-GPU, die sich vor allem durch die externe Anbindung und den TDP-Bereich unterscheiden, in denen diese betrieben werden. Dazu sieht NVIDIA zwei Betriebsmodi vor: Einen Maximum Performance Mode und einen Maximum Efficiency Mode.
Im Maximum Performance Mode verbraucht die GV100-GPU der Tesla V100 die zur Verfügung stehenden 300 W für die SMX2- und 250 W für die PCI-Express-Variante. Im Maximum Efficiency Mode sollen es nur 50 bis 60 % der maximalen TDP sein und so wird auch eine Tesla V100 im FHHL-Format mit einer TDP von 150 W möglich. Dennoch soll diese Karte etwa 75 bis 85 % der Leistung im Vergleich zum Maximum Performance Mode erreichen.
Damit macht NVIDIA die Tesla V100 deutlich flexibler und Serveranbieter können die Hardware an die Anforderungen des Nutzers anpassen.
NVLink 2.0 wird flexibler
Ein schneller Interconnect ist ein wichtiger Bestandteil einer jeden HPC-Hardware. Alle großen Herstellern arbeiten daran, ihre Hardware möglichst schnell untereinander und mit externen Komponenten zu verbinden. Mit NVLink präsentierte NVIDIA 2014 auf der GPU Technology Conference seinen eigenen Interconnect. NVLink basiert auf dem High-Speed Signaling Interconnect (NVHS), eine Entwicklung von NVIDIA.
Mit der GV100-GPU optimiert NVIDIA die NVLink-Verbindung auf gleich zwei Arten. Zum einen wird die Geschwindigkeit pro Link erhöht. Ebenfalls erhöht wird die Anzahl der möglichen NVLink-Links, die eine GV100-GPU aufbauen kann. Lag die maximale Bandbreite pro NVLink bisher bei 40 GB/s für Sende- und Empfangsrichtung, beträgt sie mit NVLink 2.0 nun 50 GB/s. Da die Anzahl an NVLinks von vier auf sechs erhöht wurde, ergibt sich daraus eine kommulierte Bandbreite von 300 GB/s für die GV100-GPU.
Die zwei zusätzlichen NVLinks können für den Aufbau neuer Infrastruktur-Systeme genutzt werden. Bisher ermöglichte NVLink beispielsweise die Anbindung von acht Tesla P100 und über einen PCI-Express-Switch konnte auch ein Prozessor angebunden werden. Mit NVLink 2.0 stehen nun zwei zusätzliche Links zur Verfügung, die beispielsweise für zwei CPUs verwendet werden können. Im Falle der Tesla-V100-GPU-Beschleuniger können aber auch bis zu 64 dieser GPUs zusammengefasst werden. NVLink wird demnach flexibler und schneller – eine Kombination, die sicherlich für den ein oder andere Server-Anbieter eine Rolle spielen wird.
NVIDIA wird in der zweiten Jahreshälfte 2017 damit beginnen, die ersten Tesla-V100-Karten auszuliefern. Dazu gehören aber nicht nur die einzelnen Karten, sondern auch fertig bestückte Server wie der DGX-1, die DGX Station und der HGX-1-Server. Einzelne Karten, und hier vor allem die PCI-Express-Varianten, werden aber erst gegen Ende des Jahres erhältlich sein. Zunächst einmal wird NVIDIA die Server-Anbieter bestücken.