NVIDIA pusht Tesla V100 auf eine TDP von 450 W

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.961
nvidia-tesla-p100.jpg
Wenngleich sich in den vergangenen Monaten vieles um die Turing-Architektur und die dazugehörigen GeForce-RTX-Grafikkarten gedreht hat, so kann NVIDIA weiterhin sein Datacenter-Business stärker ausbauen. Zentrales Produkt in diesem Bereich ist und bleibt die Tesla V100, die als SMX2-Modul bei einer Leistungsaufnahme von 300 W 7,8 TFLOPS an FP64-Rechenleistung bietet. Je nach Kühlung können die GPUs auch auf eine TDP von 350 W konfiguriert werden.Nun aber scheint NVIDIA ein kleines Update bei der Tesla V100 vorzunehmen, denn mit dem DGX-2H bestückt NVIDIA den Server mit 16 Tesla V100 mit neuer Hardware. Anstatt der bisher genannten 350 W pro GPU (16x 350 W =...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Solang man das gekühlt bekommt ist es ja an sich kein Problem.
Die Effizienz (Leistungssteigerung im Verhältnis zum Mehrverbrauch) muss halt noch stimmen.
Wenn man im Datacenter Stellfläche / Höheneinheiten sparen kann ist das ja - sofern man das Rack dann noch gekühlt bekommt - durchaus ein begrüßenswerter Schritt.
 
So langsam beschleicht mich das Gefühl, das es mit der Effizienz wieder bergab geht ...
 
Naja, denen geht es aktuell wie Intel.

Intel muß bei Cascade Lake AP wegen dem Fertigungsnachteil die TDP auf 350W prügeln um an Epyc 2 halbwegs dran bleiben zu können.
NVIDIA muß wohl das Selbe wegen Vega 20 tun!
 
oder man gibt den besitzenden einfach mehr Spielraum um selbst entscheiden zu können wieviel leistung/Watt oder effizient sie haben wollen.
oder um z.b. für eine kurze Zeit die tdp hochzusetzen.

aber als gamerkiddifanboy kann man auch alles nutzen um ein flamewar loszutreten...
 
Die PCIe Version hat doch weiterhin 250W?? Oder lügt die NV Page?

Verstehe irgendwie die Aufregung nicht.

- - - Updated - - -

Die PCIe Version hat doch weiterhin 250W?? Oder lügt die NV Page?
Hier gehts doch rein um das SMX2-Modul - was in der Form sogar NV proprietär ist. Und wenn die da 5000W pro Modul drauf lassen...

Verstehe irgendwie die Aufregung nicht.
 
Naja, denen geht es aktuell wie Intel.

Intel muß bei Cascade Lake AP wegen dem Fertigungsnachteil die TDP auf 350W prügeln um an Epyc 2 halbwegs dran bleiben zu können.
NVIDIA muß wohl das Selbe wegen Vega 20 tun!
nV muß nicht das selbe wegen Vega 20 tun, eher erhöhen die die TDP um Vega 20 nicht herankommen zu lassen.
Um Äpfel mit Äpfel zu vergleichen nimmt man eine Quadro V100 und vergleicht sie mit einer Radeon Instinct MI60:
Quadro V100:
14,8 GFLOPs Single Precision (FP32)
7,4 GFLOPs Double Precision (FP64)
29,6 GFLOPs Half Precision (FP16)
bei 250 W TDP

MI60:
14,7 GFLOPs Single Precision (FP32)
7,4 GFLOPs Double Precision (FP64)
29,5 GFLOPs Half Precision (FP16)
bei 300 W TDP

beide mit 32GB HBM2.

Das V100 Modul von dem hier die Rede ist hat dann deutlich mehr TDP Spielraum, sprich kann die Taktraten (inkl. Turbo/Boost) wohl deutlich erhöhen bzw. länger halten und hat dann demnach höhere Leistungswerte.

Und das noch im Vergleich einer 12nm Volta vs. 7nm Vega. Aber schön zu sehen daß AMD nach gut 1,5 Jahren aufschließen kann. Wenn der Preis der MI60 dementsprechend gut ist hat man in dem Sektor wenigstens auch wieder etwas einen Preiskampf.
 
Die ersten zwei Beträge mit selben inhaltlosen Mist vom Doppelaccount
„Gamerkind aka Holzmann“.....
Die geballte Weisheit, von der die ganze Halbleiter Industrie profitieren könnte!
 
Die ersten zwei Beträge mit selben inhaltlosen Mist vom Doppelaccount
„Gamerkind aka Holzmann“.....
Die geballte Weisheit, von der die ganze Halbleiter Industrie profitieren könnte!

Was ist bloss mit dir los :confused:

@Gamerkind ist im Gegensatz zur dir ja auch zu mir ein richtiger Auskenner, er spricht ein duzen Sprachen, kennt sich überall bestens aus und mit ein bisschen Glück hält er immer die Lösung bereits in den Händen.
Solche User haben ein wenig mehr Respekt verdient.
 
@Holzmann/Gamerkind
Ich verfolge deine Beiträge!
Bisher kommt wenig produktives von dir!
Aber das haben dir schon andere mitgeteilt.....


Genug OT!
 
Naja, die "Zufälle" bei den beiden Accounts finde ich schon auch sehr auffällig.
Aber bisher hat es nur einer der zwei Accounts auf die Ignoreliste geschafft, also hält er sich wenigstens bei einem Account etwas zurück. ;-)
 
nV muß nicht das selbe wegen Vega 20 tun, eher erhöhen die die TDP um Vega 20 nicht herankommen zu lassen.
Um Äpfel mit Äpfel zu vergleichen nimmt man eine Quadro V100 und vergleicht sie mit einer Radeon Instinct MI60
Fast, eher ein Äpfel mit Birnen Vergleich. Die MI60 ist eine Karte für Rechenzentren, die Quadro ist für Workstations. Wenn, dann müsstest du die MI60 mit der Tesla V100 vergleichen.
Laut NVidia Seite ist die langsamer als die MI60:
Die V100 hat nur 14TFlop (FP32) und 7TFlop (FP64).
Die Quadro ist für Rechenzentren wegen ihrem Kühler nicht wirklich geeignet, die Tesla und die Instinct sind beide passiv gekühlt.
 
@Oberst
Huch stimmt, hatte irgendwie am Radar daß die Radeon Instinct Displayausgänge und eine aktive Kühlung hat.
Klar so ist sie natürlich das Gegenstück zur Tesla V100 im PCI-E Format und ist damit einen Hauch schneller (bei höherer TDP, reale Werte müsste man wohl erst in Testparcours für beide Karten in Erfahrung bringen).

Anhand den Veränderungen der Vega 20 sieht man jedoch auch warum AMD meint daß die so nicht auf Gaming Karten kommt. Unter Anderem haben die ja das Speicherinterface aufgeblasen um 4 HBM2 Stacks anzusprechen. Im Gamingsektor sind bereits 16GB etwas overkill im Moment. Auch die anderen Änderungen wie Aufbohrung der Gleitkommaleistung und ECC für Cachestufen sind im Gamingsektor teils unnötig.
 
Die möglichkeit 4 Stacks zu verbauen werden bei einer Gamerkarte nicht das Problem sein, AMD könnte Vega 20 ja dort auch mit nur 2 Stacks anbieten.

Aber die 7nm GPU mit ihren >300mm² dürfte dafür einfach viel zu teuer sein.

Da Vega 20 bei Gaming auch nicht viel schneller als Vega 10 wäre, könnte AMD auch maximal 500€ dafür verlangen, das rentiert sich einfach nicht.
 
Problem ist das mit den 4 Stacks nicht, nur dazu hat AMD das Speicherinterface der Vega 20 wieder auf 4096 Bit aufgebohrt im Gegensatz zur alten Vega mit 2048 Bit, und das macht mitunter den Chip größer und somit teurer.

Ich bin auf jeden Fall gespannt wie es bei den High End GPUs (egal welcher Hersteller) weiter gehen wird. Bleibt man im HPC Sektor bei HBM? Anzunehmen wäre es ja da die Bandbreite ja nach wie vor enorm ist (je nach Ausbau) im Vergleich zu GDDR5/5X/6.
Es war ja mal die Rede daß man zumindest bei nV getrennte Wege gehen will und reine HPC GPUs bauen will die sich stark von GPUs für den Entertainment Sektor unterscheiden. Vielleicht geht ja AMD ähnliche Wege.
 
GP100 und GV100 sind doch bei NV die HPC Chips - im Endeffekt das was FP64 in schnell kann. Bei AMD ist das aktuell Hawaii und dann der kommende Vega20.

Im Endeffekt kann man das aber eh nicht vergleichen, egal wie man es dreht, die klassische PCIe Beschleunigerkarte gibt es bei NV zwar mit gleichem Chip, aber der Fokus was HPC angeht liegt eher auf den Modulen. Denn dort kommt auch NVLink zum tragen respektive der Schritt ein komplettes System mit entsprechenden GPUs anzubieten. Hier ist man AMD seit Jahren bei NV einen Schritt vorraus - das ganze Softwarebeiwerk kommt auch noch drauf.

Warum schwenkt ihr jetzt hier zu den Gamerreihen? Das hat mit dem Thema quasi nix zu tun. MMn ist der Schritt von NV genau richtig, das Produkt scheint mir durchaus rund und wenn die Gegebenheiten mehr Leistungsaufnahme zulassen, warum nicht? Der Spaß steckt eh in proprietären Formfaktoren und ist damit nicht mit einer PCIe Beschleunigerkarte 1:1 vergleichbar. Letztere muss am Ende irgendwo kühlbar bleiben, klar kann ein Vega20 in 7nm hier auf dem Papier punkten - aber das Teil steht dafür noch nicht im Laden, technisch im Betrieb mit eigenem Lüfter als Quadro setzt wohl das Limit aktueller Umsetzungen - die Tesla PCIe ohne Lüfter im Gehäuseluftstrom könnten auch mehr wie 225/250W ab - wird halt lauter, interessiert im RZ aber eh keinen.

Fast, eher ein Äpfel mit Birnen Vergleich. Die MI60 ist eine Karte für Rechenzentren, die Quadro ist für Workstations. Wenn, dann müsstest du die MI60 mit der Tesla V100 vergleichen.
Laut NVidia Seite ist die langsamer als die MI60:
Die V100 hat nur 14TFlop (FP32) und 7TFlop (FP64).

Wenn man das will drückt man den Turbo der V100 einfach bisschen und dass geht sich wieder aus. Der V100 fehlem 5-6% im Peak. Die MI60 soll mit 300W eingestuft sein, als 7nm GPU bei 32GB HBMv2 mit bisschen mehr Bandbreite. 20% mehr TDP Einstufung trotz neueren Prozess mit den angeblich fast doppeltem Perf/Watt Verhältnis?
Das ließt sich für mich wie die Erkaufung der letzten 5% auf wirklich der aller letzten Rille... Und zeigt leider auch eins der Probleme mit den aktuellen AMD GPUs - sie sind einfach in so manchem Vergleich deutlich ineffizienter. GCN scheint da einfach am Limit oder was auch immer der Grund ist warum nun schon die zweite Generation Fertigung bestätigt, dass zu einer Energieeffizienz ggü. den NV Umsetzungen bei AMD ein Prozessschritt mehr gemacht werden muss.


Ich bin gespannt wie sich das auch auf die anderen Bereiche auswirkt - Vega20 wird ja der Allrounder, der alles können soll. Navi schätze ich eher auf den Graphics Ableger ohne den HPC Beikram. Das steigert die Effizienz - aber ohne HBM büßt man bei Speicherinterface wieder ein. Mal schauen was am Ende bei rum kommt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh