GTC17: NVIDIA präsentiert die nächste GPU-Architektur Volta - Tesla V100 mit 5.120 Shadereinheiten und 16 GB HBM2

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.949
GTC17: NVIDIA präsentiert die nächste GPU-Architektur Volta - Tesla V100 mit 5.120 Shadereinheiten und 16 GB HBM2
nvidia-gtc.jpg
Wenig überraschend hat NVIDIAs CEO Jen-Hsun Huang heute auf der Keynote der GPU Technology Conference 2017 die nächste GPU-Architektur namens Volta vorgestellt. Erstmalig im März 2013 erwähnt, soll die Volta-Architektur die Basis für die zukünftigen Grafik- und Compute-Beschleuniger sein.Wie im vergangenen Jahr mit der Pascal-Architektur präsentiert NVIDIA die Volta-Architektur zunächst für den HPC-Bereich. Die Tesla V100 ist der erste GPU-Beschleuniger, der die neue Volta-Architektur einsetzt. Die technischen Daten sind beeindruckend:{razuna doubleimagefromgallery}2CFD7519BE4F451C80ACDF212D77F874 0 1{/razuna doubleimagefromgallery}21 Milliarden...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Baaaaam!, Volta ist da ;), Vorfreude ist die Schönste !
 
Zuletzt bearbeitet:
Baaam was? Also kommt die Consumer Graka erst 2018? Dann kann ich mir ja getrost ne Ti bestellen. :)
 
"Über 100 Milliarden VIAs sind die GPU und der HBM2 über einen Interposer miteinander verbunden."

Die Zahl klingt etwas zu groß ;)
 
"Über 100 Milliarden VIAs sind die GPU und der HBM2 über einen Interposer miteinander verbunden."

Die Zahl klingt etwas zu groß ;)

VIAs ist der falsche Begriff. NVIDIA spricht von 100 Milliarden Wires, die vorhanden sind. Bei der GP100-GPU machte man diese Angabe auch schon und sprach von 50 Milliarden Wires.
 
16GB HBM2 klingt schon fast nach wenig für so ne monströse Rechenleistung^^ Der 102 Ableger wird sowas von 4K Fähig sein.
 
16GB HBM2 klingt schon fast nach wenig für so ne monströse Rechenleistung^^ Der 102 Ableger wird sowas von 4K Fähig sein.

Das die Speicherkapazität im Vergleich zur Tesla P100 nicht weiter gesteigert werden konnte, liegt vermutlich an der noch immer schlechten Verfügbarkeit von HBM2 – vor allem mit mehr als vier Stacks.
 
Zuletzt bearbeitet:
Im Text steht 12nm Fertigung und in der Tabelle 14nm?

Galerie funktoniert (bei mir) nicht.

Wenn der HBM2 auf der Volta nur mit 900 MHz taktet sehe ich auf der Vega keinesfalls die erhofften 1000 MHz.

Scheint aber ein ganz schöner Klotz zu werden bei der Die Fläche. Ich rechne mit steigenden Preisen gegenüber den Einstiegspreisen von Pascal.
 
Na dann kommt hoffentlich ein GV102 mit vollen 5120 Shadern und 16GB GDDR6 aka Titan XV.

€dit: Es sollen "12nm" sein, dass diese Angabe mit Vorsicht zu genießen ist, sollte ja aber auch klar sein...
 
Zuletzt bearbeitet:
... die dann bei dem riesen Die 1.800€ kostet.
 
Muss natürlich 12 nm heißen.
 
Es sind sogar 5376 Shader. Ein kleiner Teil wird wie üblich wegen besserer Ausbeute deaktiviert.

Bei 6 GPCs entspricht das 896 Shader (5376 : 6 = 896) je Cluster. Damit lässt sich u.a. auf GV104 spekulieren. Bei Maxwell und Pascal wurden von 6 GPCs 2 deaktiviert. Für den GV104 läuft es daher auf 3584 Shader (896 x 4 = 3584) hinaus. Dazu GDDR6 und fertig ist unser GeForce 2080 Kärtchen.
 
Wer den Livestream nachträglich gucken will, ich hab den komplett aufgenommen :d Lade ihn dann hoch, sobald alles fertig gerendert ist.
Anscheinend soll der schon bei Nvidia direkt verfügbar sein, weiß aber nicht obs da wie bei der 1080Ti wieder nur eine Zusammenfassung ist.
 
Ach, Anfang 2018 ne Titan Volta wäre doch fein, irgendwas mit 5k Cuda Cores klingt auch nicht verkehrt :d
 
Baaaaam!, Volta ist da ;), Vorfreude ist die Schönste !

Ist doch nur eine Attrappe in seiner Hand, oder glaubst du wirklich, dass von Volta ein über 800mm² Die in 12nm schon jetzt gefertigt werden kann ? Das dauert noch gut 1 Jahr.
 
Zuletzt bearbeitet:
Woher weißt du, dass es "nur" ne Attrappe sein soll ?:fresse2:
 
Ist doch nur eine Attrappe in seiner Hand, oder glaubst du wirklich, dass von Volta ein über 800mm² Die in 12nm schon jetzt gefertigt werden kann ? Das dauert noch gut 1 Jahr.

Ab Q3 werden die Super Computer mit Tesla V100 bestückt, die damit geplant sind. Kurz darauf folgen die OEMs.
 
Das die Speicherkapazität im Vergleich zur Tesla P100 nicht weiter gesteigert werden konnte, liegt vermutlich an der noch immer schlechten Verfügbarkeit von HBM2 – vor allem mit mehr als vier Stacks.

Du meist mit mehr als vier Lagen!?
Weil sowohl GP100 als auch GV100 verwenden vier 4-Hi Stacks... Vega verwendet (wohl) zwei 4-Hi Stacks und kommt damit auf 8GB. Die Verfügbarkeit von 8-Hi Stacks dürfte im Moment gegen Null gehen, wenn es sowas überhaupt schon gibt. ;)

PS: Inside Volta: The World’s Most Advanced Data Center GPU | Parallel Forall
Wer sich für mehr Details interessiert...

Sehr interessant finde ich den hier:
"Unlike Pascal GPUs, which could not execute FP32 and INT32 instructions simultaneously, the Volta GV100 SM includes separate FP32 and INT32 cores, allowing simultaneous execution of FP32 and INT32 operations at full throughput, while also increasing instruction issue throughput."

-> 300W TDP im Power-Mode
-> 1455MHz Boost und damit 1,4899TFLop/sec FP32

Am Ende ist das aber irgendwie alles HPC Stuff... Wie viel am Ende davon im GV104 oder GV102 über bleiben wird? Abwarten... Eigentlich kann man nur hoffen, dass Vega richtig einschlägt und so NV gezwungen wird, auch den großen TopDog zu "missbrauchen" :fresse:

Na dann kommt hoffentlich ein GV102 mit vollen 5120 Shadern und 16GB GDDR6 aka Titan XV.

Wenn mich nicht alles täuscht, dann wurde bei den Infos zu GDDR6 schon ein 384Bit SI geteasert ;)
Rechne also eher mit 12GB oder 24GB. Warscheinlich eher 12...
 
Hab mal Excel bemüht und die Anzahl CUDA Cores stieg von Tesla bis Kepler von 24 auf 192 und sank dann wieder (halbierung mit jeder Generation). Tatsächlich scheint es so, wie Cippoli schreibt dass Volta eigentlich 5376 CUDA Cores hat.

Ich hoffe, NV beschäftigt sich nicht aufgrund der "fehlenden" Konkurrenz zu sehr auf Computing und vernachlässigt die GeForce. Bei Pascal konnte man ja noch mehr als zufrieden sein. Das darf ruhig so bleiben.
 
Es bleibt @Nimrais bei 64x pro SM... Und es sind bestätigt (siehe Link auf der Dev. Page von NV) wirklich 5376 ALUs...

PS: G80 kommt auf 16x8 = 128 ALUs
G200 auf 24x10 = 240 ALUs
GF100/110 auf 32x4x4 = 512 ALUs
GK110 auf 192x3x5 = 2880 ALUs
GM200 auf 128x4x6 = 3072 ALUs
GP100 auf 64x10x6 = 3840 ALUs
GP102 auf 128x5x6 = 3840 ALUs
GV100 auf 64x14x6 = 5376 ALUs

Die letzte Zahl steht jeweils für die Anzahl der GPCs
Die mittlere (sofern vorhanden) für die Anzahl der SMs
Und die erste für die ALUs pro jeweiligem Block


Allerdings ist das, siehe oben nur die halbe "Wahrheit" bei GV100... Denn GV100 kann nach dem Post im Dev. Forum alle INT32 Einheiten zusammen mit den FP32 Einheiten nutzen... Technisch gesehen ergibt das ein nicht zu verachtenden Vorteil ggü. dem Vorgänger, sofern ein derartiger Workload anliegt.
 
Vernachlässigen würde ich nicht sagen @ Nimrais. Der hier gezeigte Top-Dog (GV100), aus dem üblicherweise die kleineren Chips geschnitzt werden, lässt diesen Schluss jedenfalls nicht zu.

Link von fdsonne: Inside Volta: The World’s Most Advanced Data Center GPU | Parallel Forall

With 84 SMs, a full GV100 GPU has a total of 5376 FP32 cores, 5376 INT32 cores, 2688 FP64 cores, 672 Tensor Cores, and 336 texture units. Each memory controller is attached to 768 KB of L2 cache, and each HBM2 DRAM stack is controlled by a pair of memory controllers. The full GV100 GPU includes a total of 6144 KB of L2 cache. Figure 4 shows a full GV100 GPU with 84 SMs (different products can use different configurations of GV100). The Tesla V100 accelerator uses 80 SMs.

Beim GV102 und darunter dürften (wie üblich) die 2688 FP64 Cores und die nun neu dazugekommen 672 Tensor Cores wegfallen. Damit wäre man irgendwo bei 500mm² Die-Size mit 5120 FP32 Cores und GDDR6 / 384-bit.

Beim GV104 dürften dann wie bereits geschrieben zusätzlich noch 2 GPCs wegfallen --> 3584 FP32 Cores. Die-Size im Bereich um die 350mm² mit GDDR6 und 256-bit.

Vorstellbar wäre dann 1080 Ti Leistung in Form von GV104 bei niedrigeren Preis. Irgendwas um die 500,- Euro vielleicht...
 
Zuletzt bearbeitet:
Da freut man sich ja schon richtig auf die nächste Generation. Auch dürfte die zu einem hohen Werteverfall aktueller Karten führen (da werden sich die ganzen Titan X(P) Besitzer wieder winden *G*).
 
Über 5k Shader-Einheiten - die wird der Endkunde aber nicht unter nem Gebrauchtwagen-Preis bekommen.

Ich stimme fdsonne da mal zu, hoffentlich schlägt Vega ordentlich ein, damit Nvidia auch die dicken Teile an die "Normalos" rausgibt. Auf der anderen Seite sind 12,5 TFlops vs. 15 TFlops jetzt auch nicht der große Unterschied.

Hätte hätte Frahrradkette - AMD ne Vega Version mit 6144 Shader-Einheiten gebastelt, dann wäre Volta echt unter Druck gewesen. Sieht auf jeden Fall wie ne schöne Architektur aus.

Gibts eigentlich infos zu HBM-Versionen unterschiedlicher Hersteller?
 
Zuletzt bearbeitet:
Vernachlässigen würde ich nicht sagen @ Nimrais. Der hier gezeigte Top-Dog (GV100), aus dem üblicherweise die kleineren Chips geschnitzt werden, lässt diesen Schluss jedenfalls nicht zu.

Link von fdsonne: Inside Volta: The World’s Most Advanced Data Center GPU | Parallel Forall



Beim GV102 und darunter dürften (wie üblich) die 2688 FP64 Cores und die nun neu dazugekommen 672 Tensor Cores wegfallen. Damit wäre man irgendwo bei 500mm² Die-Size mit 5120 FP32 Cores und GDDR6 / 384-bit.

Beim GV104 dürften dann wie bereits geschrieben zusätzlich noch 2 GPCs wegfallen --> 3584 FP32 Cores. Die-Size im Bereich um die 350mm² mit GDDR6 und 256-bit.

Vorstellbar wäre dann 1080 Ti Leistung in Form von GV104 bei niedrigeren Preis. Irgendwas um die 500,- Euro vielleicht...

Für 500 €, würde ich sofort kaufen. In der Praxis wird es höchstens Ende 2017, eher Anfang 2018 was.

Über 5k Shader-Einheiten - die wird der Endkunde aber nicht unter nem Gebrauchtwagen-Preis bekommen.

Ich stimme fdsonne da mal zu, hoffentlich schlägt Vega ordentlich ein, damit Nvidia auch die dicken Teile an die "Normalos" rausgibt. Auf der anderen Seite sind 12,5 TFlops vs. 15 TFlops jetzt auch nicht der große Unterschied.

Hätte hätte Frahrradkette - AMD ne Vega Version mit 6144 Shader-Einheiten gebastelt, dann wäre Volta echt unter Druck gewesen. Sieht auf jeden Fall wie ne schöne Architektur aus.

Gibts eigentlich infos zu HBM-Versionen unterschiedlicher Hersteller?

Wird er schon, aber erst 2018 oder 19. Der GV102 für Normalverbraucher kam auch erst vor ein paar Monaten. Es wird vermutlich recht schnell eine beschnittene Titan kommen, dasselbe Spiel wie immer.

Gäbe es etwas verlässliches würde ich das mit dem SLI glatt aufgeben. Am Ende ist es aber doch wieder ein Jahr hin bis die Modelle die für mich in Frage kämen dann auch verfügbar sind. Dazu kamen beim letzten Mal die überzogenen Preise. Bis 600 € hätte ich glatt eine X80 gekauft, aber für knapp 800 € muss da "Ti" hinterstehen.
 

Livestream zum nachgucken den ich aufgenommen hab, kann ab und an mal zu Unterbrechungen kommen, lag aber am Stream.
 
Glaube ich weniger. Stimmt die Leistung, kaufen sie einfach Volta.

Meinte eher damit, das die sich winden, den Wertverlust zu akzeptieren. Sieht man ja immer wieder wenn es um den Preis zukünftiger Hardware geht (deren Preis dann natürlich im Verhältnis zur Mehrleistung steigen wird, damit man selber keinen Wertverlust erleidet ;) ). Gerade die Titanen der Pascal Serie wird es noch härter treffen als die vorherige X, weil nur 1 GB mehr vRam ist nicht so das Argument für einen Aufpreis wie 6 GB mehr ;).

PS: Ich hab mich schon mal mental von dem Wert meiner verabschiedet :P
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh