Die NVIDIA Titan V im Workstation- und Compute-Einsatz

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.133
43839c3d76a1a560c1688254f0e8e253.png
Mit der Vorstellung der Titan V und der darauf verbauten GV100-GPU mit Volta-Architektur rückt NVIDIA die Titan-Serie ganz klar in Richtung des professionellem Umfeldes und lässt das Gaming-Segment links liegen. Dies ist nicht nur anhand des Preises festzumachen, auch zeigen unsere...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hätten wir gerne getan, aber AMD sah sich auch mit Hinweis auf die Vergleichbarkeit nicht im Stande uns mit einem entsprechenden Sample zu versorgen.
 
naja, den direkten Performance pro Watt vergleich scheuen sie wohl zurecht, aber bei dem Preisliestungsverhältnis 750€ (letztens erst für ne VegaFE) machen die das doch wieder wett :d :d :d
 
Zumal die Vega Frontier Edition ECC hat. Diese Karte hier ist eigentlich für Consumer. Man müsste sich sonst auch die Frage stellen, wozu es eine mehrfach teurere Profiversion mit dem gleichen Chip gibt.

Warum ist denn eine 1080 Ti nicht mitgetestet worden, wenn schon keine Vega64 dabei ist? Die hätte sicherlich auch ein viel besseres Preis/Leistungsverhältnis gehabt. Die Titan V ohne ECC mit fehlerprovozierend hohen Taktraten wirkt unter den Profikarten in den Diagrammen komplett verloren - egal wie lang der Balken wird, sorry wenn ich das so schreibe.
 
Zuletzt bearbeitet:
woher stammt die Aussage zum ECC?
Im Whitepaper steht dazu auf die schnelle nix...

Die Blenderszene ist übrigens weiterhin kappes, da für CPU Rendering gedacht. Warum wird das weiter verwendet???
 
Naja, richtig eingestellt taugt doch die Blender Szene?
Zumindest für nVidia Karten ideal.
 
Specviewperf wäre interessant gewesen, gerade bei Gittermodellen zeigt sich was die Graka im WS Bereich taugt.
 
Danke für den Test! Vor allem für V-Ray, AE und UE.
Eine 1080 Ti, Titan Xp und vielleicht auch eine 1070 Ti im Vergleich wäre ganz schön gewesen.
 
Ich lasse das mal auf meiner Frontier Edition LC laufen. Bei der Blenderszene, stoppt ihr die Zeit für das pure Rendern oder das was Blender nachher an Zeit angibt (Da sind ja Zeiten für das Laden, compilen der Kernel usw. mit drin)
 
Mir fehlt auch der direkte Vergleich zur TitanXp - das ist die direkte Konkurrenz vor allem vom Einsatzzweck her. Die Quadros können/drüfen einfach Dinge, die die Titanen nicht können/dürfen. Umgekehrt sind die Specs auch geringfügig unterschiedlich.

Wer heute schon eine Quadro nutzt, wird im Zweifel nicht über eine Titan nachdenken.

Hätte ja sowohl eine 1080Ti FE als auch eine TitanXp da, aber ohne genauere Beschreibung des Testsystems und der Einstellungen lassen sich da keine vergleichbaren Ergebnisse erzeugen. Oder ich war zu doof, die Infos zu finden.
 
Zuletzt bearbeitet:
Nimm doch die Blender Renderszene, GPU Compute als Render auswählen, dann in den Settings System deine Grafikkarte als OpenCL Device selektieren, die Tile-Size auf 256 und los. Der Rest des Systems ist egal, da es quasi keinen Einfluss auf die Renderdauer hat (CPU, RAM usw.)

AMD VEGA Frontier LC Edition:


  • Blender - 1134 Sekunden
  • vRay - 147 Sekunden
  • LuxMark Hotel Lobby - 5326
  • LuxMark Neumann - 17841
  • ​LuxMark LuxBall - 25014

Mich würde mal interessieren unter welchen Settings die WX7100 einen so guten Wert bei Blender bekommt. Der Chip der WX7100 kann es nicht sein, ist ein "normaler Ellesmere XT aka RX 580". Und der Treiber kann es auch nicht sein da die Frontier Edition den selben Treiber nutzt.
 
Zuletzt bearbeitet:
Kannst du deine frontier mal durch svp 12.1 laufen lassen? Ergebnisse per pn wären ok, habe welche günstig angeboten bekommen, könnte die wx7100 mal nach deinen vorgaben blendern lassen
 
Zuletzt bearbeitet:
Mich würde mal interessieren unter welchen Settings die WX7100 einen so guten Wert bei Blender bekommt. Der Chip der WX7100 kann es nicht sein, ist ein "normaler Ellesmere XT aka RX 580". Und der Treiber kann es auch nicht sein da die Frontier Edition den selben Treiber nutzt.

Indem man die Settings der Szene soweit kastriert, dass es für GPUs ohne Probleme funktioniert ;)
Bspw. die Texturesize limitieren, Child Partikel runter drehen oder auch das Subdivision Level verändern. Nur wird damit der Wert nicht mehr vergleichbar. Keine Ahnung, was hier noch alles verbogen wurde. Aber die Werte sind definitiv nicht analog dem, was man erwarten würde.

Real sollte das Ergebnis in etwa so aussehen:
Benchmark Results
Paar Prozente hoch oder runter je nach Blender Version, geschenkt... Aber ne 7100er ist defintiv nicht deutlich schneller als ne P100, sondern vllt im Schnitt halb so schnell. Ggf. als Dual Version. Ich gehe aber davon aus, Don wäre es aufgefallen, WENN das zwei GPUs wären!

Auch ist, wie damals im anderen Test schonmal geschreiben, Windows für Blender kontraproduktiv. Rendertests sollten sinnigerweise unter Linux und vor allem ohne GUI durchgeführt werden. Einfach weil in Windows so übel viel mehr VRAM verbraucht wird und das Konstrukt trotz 1:1 gleicher Hardware normal deutlich langsamer ist.

So sehe ich das auch.

Dennoch stimmt was mit deinen Zahlen nicht. Die AMD Werte sind weit weit über dem, was normal wäre. Und die der NVs sind eher zu langsam. Die Szene ist, wie du dem Text in deinem Screen entnehmen kannst, für CPU Rendering und nicht für GPU Rendering. Umbiegen kann man viel, aber das macht einen Vergleich nicht sinniger. Allein die Tatsache, dass da zwei Modelle gar keinen Wert zustande bringen hätte doch Fragen aufwerfen müssen!?
Und nein, ich meine da bei weitem nicht das drehen der Tile-Size. Das ist OK und fällt eher in die Kategorie Optimierung. Ändert aber am Ergebnis nix außer bei der Renderzeit...
 
Zuletzt bearbeitet:
@fdsonne

Bist du sicher? Man meinte bei dem Test hier das man die Szene so genommen hat wie es default ist. Lediglich der Render wurde auf OpenCL gewechselt und die Tile-Size auf 256. Ansonsten wurde da, laut Luxx, weder was modifiziert noch heruntergeregelt. Dies Szene mit dem Schaf ist von den ganzen verfügbaren Testszenen übrigens mit die Anspruchsvollste.

Bezüglich Windows vs Linux... macht aber keinen Sinn unter Linux zu benchen wenn ein Großteil der User Windows nutzt. (auch für Rendering). Bring mir ja nichts wenn die Karte unter Linux extrem verformt. unter Windows aber ne lahme Krücke ist.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh