Auch eine Titan V erreicht in Battlefield V mit DXR ausreichende FPS

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.867
nvidia-titanv.jpg
Über den Jahreswechsel entbrannte in den Fachforen eine hitzige Diskussion um die Nutzung von Ray Tracing mit Grafikkarten ohne Turing-GPU. Dabei sind einige Missverständnisse entstanden, mit denen wir einmal aufräumen wollen. Ursprung des Ganzen ist ein Posting im 3D-Center-Forum, wo ein Besitzer einer Titan V einfach einmal die DXR-Effekte in Battlefield V aktiviert und die dazugehörigen FPS gemessen hat.Das auch bei uns aktive Community-Mitglied "TobiWahnKenobi" besitzt sowohl eine Titan V (
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Im ersten Kasten hat sich ein Fehler eingeschlichen. Das sollte wohl "DXR aus" oder "niedrig" heißen.
 
Im ersten Kasten hat sich ein Fehler eingeschlichen. Das sollte wohl "DXR aus" oder "niedrig" heißen.

Nein, auch da war DXR mit Hoch aktiv, allerdings war die Karte nicht Rotterdam und damit waren die Anforderungen des Ray Tracings wohl nicht so hoch.
 
Mit einrechnen muss man ja noch das Boostverhalten zwischen Titan RTX und Titan V. Die Titan V boostet sicherlich nicht so hoch wie die Titan RTX und schon rückt das Bild bei einer Taktbereinigung deutlich näher zusammen.
Ich bin immer noch der Meinung, dass mit RT vieles nicht so läuft, wie es beworben worden ist. Die RT-Cores müssten dafür sorgen das Kreise um jede Karte gedreht wird, welche eben nicht über diese RT-Cores verfügen.

Für mich hört sich das mehr nach Marketing für das Kaufargument an als an einer wirklichen technischen Umsetzbarkeit.
 
Was genau wird hier vermutet, dass die Nvidia RT-Cores ein Bluff sind, um eine bereits vorhandene RT Fähigkeit der vorgänger Gen. zu vertuschen?

Frage:
Sobald die RT-Cores aktiv werden bei den RTX-Karten, konnte doch ein erhörter Energieverbrauch gemessen, oder nicht?
 
Sobald die RT-Cores aktiv werden bei den RTX-Karten, konnte doch ein erhörter Energieverbrauch gemessen, oder nicht?

Nein, die GPU hat ein Power-Budget, das ausgeschöpft wird. Auch bei aktiven Tensor Cores gibt es keinen Unterschied in der Leistungsaufnahme.
 
Was genau wird hier vermutet, dass die Nvidia RT-Cores ein Bluff sind, um eine bereits vorhandene RT Fähigkeit der vorgänger Gen. zu vertuschen?

RT können auch die Vorgänger aber mit angeblich deutlich weniger Leistung. NVIDIA sprach bei der Präsentation von einem Faktor von 1:10!

Frage:
Sobald die RT-Cores aktiv werden bei den RTX-Karten, konnte doch ein erhörter Energieverbrauch gemessen, oder nicht?

Das ist ja auch wieder das Sonderbar daran. Es wurde keine erhöhte Leistungsaufnahme festgestellt, was eben recht sonderbar ist, wenn man bedenkt, dass mit RT deutlich mehr Cores zum Einsatz kommen.

Nur um es hier klar zu stellen. Es geht nicht darum NVIDIA RT absprechen zu wollen, nur es ist eben deutlich weniger umgesetzt als es ursprünglich versprochen worden ist und ja erst wegen RT die Karten so exorbitant teuer gemacht worden sind.
Stellt sich jetzt heraus, dass man auch mit Pascal locker RT bewerkstelligen könnte, wenn NVIDIA dies unterstützen würde, so ist doch die ganze RTX-Reihe deutlich zu hinterfragen, was nun so besonders an ihr sein soll.
 
Für eine hardwareimplementierte Berechnung ist das tatsächlich so gut wie nichts.

Dir ist aber schon klar, dass neben der Hardwareimplementierung auch eine Softwareimplementierung folgen muss? Und genau diese steckt fast noch in den Kinderschuhen. Das fängt doch jetzt erst alles an. Hat das letzte Update von Battlefield 5 nicht einen 50%-Schub gebracht? Gib der Sache mal Zeit. Neue Technik -> neue Probleme. War immer so, ist immer so und wird immer so sein.
 
Zuletzt bearbeitet:
Nein, die GPU hat ein Power-Budget, das ausgeschöpft wird. Auch bei aktiven Tensor Cores gibt es keinen Unterschied in der Leistungsaufnahme.

Das heißt die RT-Cores "takten" sobald aktiv auf 100% und der Verbrauch ist nicht dynamisch nach Anforderung?
 
Das heißt, liegt das Power-Budget bei 260 W, wirst du immer 260 W messen, sobald die GPU zu 100 % ausgelastet ist. Egal ob nur die Shadereinheiten oder die Shadereinheiten zusammen mit den Tensor und RT Cores verwendet werden.
 
OK Danke, dann scheidet die Verbrauchsmessung als Nachweiß der Cores aus.
 
Stellt sich jetzt heraus, dass man auch mit Pascal locker RT bewerkstelligen könnte, wenn NVIDIA dies unterstützen würde, so ist doch die ganze RTX-Reihe deutlich zu hinterfragen, was nun so besonders an ihr sein soll.
Du hast aber schon realisiert das hier von einer 3.200 Euro teuren Volta Grafikkarte mit Ray Tracing Funktionalität bei annehmbarer Geschwindigkeit gesprochen wird und das etwas ganz anderes ist als eine Pascal Grafikkarte, oder?!
 
Zuletzt bearbeitet:
GeForce GTX 1080 Ti 3.584 vs. Titan V 5120 Shader: Das sind 43 % mehr Shader für die Titan V. Hinzu kommt, dass hier auch die Tensor Cores vorhanden sind, um das Bild zu entrauschen, was bei den Pascal-Karten nicht der Fall ist.
 
Das heißt, liegt das Power-Budget bei 260 W, wirst du immer 260 W messen, sobald die GPU zu 100 % ausgelastet ist. Egal ob nur die Shadereinheiten oder die Shadereinheiten zusammen mit den Tensor und RT Cores verwendet werden.

Dann einfach die GPU nicht zu 100%auslasten?

Wenn man per frame Limit auf 30fps geht, da die leistungsaufnahme, Taktrate und Auslastung mit und ohne raytracing aufzeichnet, und anschließend vergleicht.

Erwartung:
Mit raytracing (und rt Codes) vs ohne raytracing
Takt bleibt gleich
Stromverbrauch steigt


Finde es (gerade nach der Aktion mit der 970 und auch mit Spectre und co) echt erschreckend wie herstellerhörig die meisten Journalisten in diesem Punkt sind. "Joa dass was Nvidia sagt klingt einigermaßen plausibel, wird schon passen".
 
Stellt sich jetzt heraus, dass man auch mit Pascal locker RT bewerkstelligen könnte, wenn NVIDIA dies unterstützen würde, so ist doch die ganze RTX-Reihe deutlich zu hinterfragen, was nun so besonders an ihr sein soll.

Entweder den Artikel nicht gelesen oder nicht verstanden. Lies den letzten Absatz nochmal.
 
Zuletzt bearbeitet:
Genau die Tests haben wir mit DLSS schon gemacht und geschaut, ob wir einen Einfluss auf die Leistungsaufnahme durch die Tensor Cores sehen. Das Ergebnis war: Wir konnten keinerlei Unterschied messen.

Das oberste Diagramm ist falsch beschriftet, glaube mal da sollte DXR niedrig stehen. ;-)

Nein, das ist korrekt so aus dem Foren-Posting übernommen. Hier wurde nur eine andere Map getestet und nicht Rotterdam.
 
Zuletzt bearbeitet:
Was ja auch nur logisch ist, zumindest solange das Powerlimit auch vorher schon ausgereizt wurde.

- - - Updated - - -

Nein, das ist korrekt so aus dem Foren-Posting übernommen. Hier wurde nur eine andere Map getestet und nicht Rotterdam.

Bin schon drauf gestoßen und hatte es abgeändert. Ihr wart nur leider schneller.^^
 
@don:
Dass bedeutet dann entweder Nvidia hat den heiligen Gral des Siliziums gefunden (Rechenleistung ohne Energieverbrauch) oder da liegt etwas im argen (evtl auch dass die zusätzlichen Einheiten immer aktiv mitlaufen und vollen Stromverbrauch haben.)

Alles in allem passt es nicht zusammen:

Der Leistungsgewinn von Volta auf Turing ist viel zu gering, dafür dass extra optimierte Recheneinheiten zum Einsatz kommen (iwo in diesem Threads wurde ein Leistungsgewinn von 40% genannt) dass wäre auch durch Optimierung der shader möglich (denke nicht dass Volta schon darauf hin optimiert wurde, da die Anwendungsfälle für Echtzeit raytracing noch sehr gering sind). Und gerade wenn durch die Nutzung der Hardwareeinheiten kein gesteigerter stromverbrauch festgestellt werden kann, Stelle ich mir die Frage ob diese überhaupt existieren...
 
RT können auch die Vorgänger aber mit angeblich deutlich weniger Leistung. NVIDIA sprach bei der Präsentation von einem Faktor von 1:10!



Das ist ja auch wieder das Sonderbar daran. Es wurde keine erhöhte Leistungsaufnahme festgestellt, was eben recht sonderbar ist, wenn man bedenkt, dass mit RT deutlich mehr Cores zum Einsatz kommen.

Nur um es hier klar zu stellen. Es geht nicht darum NVIDIA RT absprechen zu wollen, nur es ist eben deutlich weniger umgesetzt als es ursprünglich versprochen worden ist und ja erst wegen RT die Karten so exorbitant teuer gemacht worden sind.
Stellt sich jetzt heraus, dass man auch mit Pascal locker RT bewerkstelligen könnte, wenn NVIDIA dies unterstützen würde, so ist doch die ganze RTX-Reihe deutlich zu hinterfragen, was nun so besonders an ihr sein soll.

Deine Wahrnehmung ist echt selektiv oder? Die Graphen im Artikel zeigen doch klipp und klar, dass selbst eine Volta Titan hart an ihre Grenzen damit kommt, während die RTX Titan noch richtig viel Luft hat. Und wir reden hier nur über WQHD und nicht 4k. Wenn die Volta hier schon an die Grenzen kommt, die deutlich schneller als eine Pascal TI war, wie soll die dann da annehmbares produzieren? Oder gar eine 1080 oder 1070? Die würden in dem Szenario sang- und klanglos untergehen. Wie kann man da behaupten, dass Pascal locker RT bewerkstelligen hätte können. Um genau zu sein, in dem Szenario kommt nicht mal ne Pascal vor. ne Volta ist keine Pascal Karte…

Der ganze Artikel ist eigentlich nur aufgrund solcher reichlich merkwürdigen Überlegungen nötig geworden. User mit keiner Ahnung, davon aber reichlich, stellen die wildesten Theorien auf...

PS: OHM und direkt während man schreibt noch son geistreicher Post... ja klar 40% Leistungsdifferenz sind nix und garantiert mit Optimierungen erreichbar. Das manches mal nicht mal nen Generationwechsel soviel Mehrleistung gebracht hat, who cares...
 
Zuletzt bearbeitet:
weiß jemand wann neue Nvidia karten kommen nachfolger?
 
Hier gibt es anscheinend wieder mal ein Defizit bei so manchen Leuten hier. Woher soll denn die gesteigerte Leistung kommen gegenüber der Titan V wenn diese deutlich mehr Shader und Tensor-Cores hat als Turing? Selbst optimierte Shader würden das nicht ausgleichen...und dann sogar noch deutlich überholen? Das glaub ich eher weniger!

@Mustis

Schön das hier wenigstens noch wer mitdenkt. :-)
 
Zuletzt bearbeitet:
@mustis und luebke: die zwei so erleuchteten.
Gut dass ja Pascal gegenüber Maxwell nicht knapp 50% Mehrleistung gebracht hat. Und dass war auch nur ein optimierungsschritt

Da dann zu behaupten 40% mehr in einem Punkt zu erreichen auf den die shader wahrscheinlich nie primär für optimiert zu haben sei nicht erreichbar ist lächerlich.
 
@mustis und luebke: die zwei so erleuchteten.
Gut dass ja Pascal gegenüber Maxwell nicht knapp 50% Mehrleistung gebracht hat. Und dass war auch nur ein optimierungsschritt

Da dann zu behaupten 40% mehr in einem Punkt zu erreichen auf den die shader wahrscheinlich nie primär für optimiert zu haben sei nicht erreichbar ist lächerlich.

Du vergisst aber den deutlich gesteigerten Takt von Pascal gegenüber Maxwell was einen Großteil des Leistungssprunges ausmachte. Und wenn deine Behauptung stimmt, würde Nvidia oder Dice das auch bewerben. Das wären ja 100% und mehr Leistungssteigerung der Shader von Volta zu Turing...naklar.
 
@mustis und luebke: die zwei so erleuchteten.
Gut dass ja Pascal gegenüber Maxwell nicht knapp 50% Mehrleistung gebracht hat. Und dass war auch nur ein optimierungsschritt

Da dann zu behaupten 40% mehr in einem Punkt zu erreichen auf den die shader wahrscheinlich nie primär für optimiert zu haben sei nicht erreichbar ist lächerlich.

Ja, das war ne absolute Ausnahme. So einen Schritt gabs davor zuletzt als die 8000er Reihe eingeführt wurde. Üblich ist so ein deutlicher Schritt nachvorne nicht. Es gibt mehrere Gründe, warum PAscal auf MAxwell so deutlich Leitungszuwachs gab. Nicht alle davon sind auf Turing übertragbar. Schon gar nicht wenn man so eine spezielle Anwendung wie RT hat. Und schon gar nicht war das "ein"Optimierungsschritt. Da sind mehrere aufeinander getroffen. Fakt ist, dass mit der 2000er RTX Serie ein bis dato nicht vorhandene HArdwarearchitektur in den Chips vorhanden ist. Zu sagen, bei der Generation davor gabs den Leistungszwuchwachs, also muss das nun quasi wieder so sein ist völliger Nonsense und blendet komplett aus, welcher Schritt hier in Hardware gemacht wurde.
 
Zuletzt bearbeitet:
und wer sagt das bei der optimierung für Raytracing den entwciklern nciht genauso ein sprung gelungen ist? den bisher waren diese nicht für Raytracing optimiert (war ja auch kein usecase dafür vorhanden), es kann also gut sein dass hierbei extrem viel luft nach oben ist.

Auch ist interessant wie du slebst sagst dass es bereits mehrmals derartige leistungssprünge gab, dies aber bei Turing absolut unmöglich wäre. Weil? Grund gibts du dafür nicht an.


Ich finde es gibt berechtig zweifel an der nutzung/existens der RT-cores.
denn laut aussage von Don konnte ja kein erhöhter stromverbrauch bei verwendung von DXR ermittelt werden.

Nun ist aber die sache dass Nvidia kaum mehr berechnungen mit 0 zusätzlicher energie erzeugen kann.
Oben habe ich bereits eine herangehensweise gezeigt wie es möglich wäre die leistungsaufnahme zu testen ohne in Powerlimit zu laufen. aber wurde ja abgetan, da in tests der Tensorcores keine ändereung der leistungsaufnahme festgestellt wurde (diese waren warscheinlich ebenfalls durch das Powerlimit beeinträchtigt)
 
Jetzt gehts hier auch los.

Ich komme mit meiner V nicht annährend auf die Ergebnisse von Tobi.

Hier nochmal meine Posts aus dem 3DCenter:



Kannst du ein Screen von Punkt A oder aus dem Hotel von B in Rotterdam machen? Das sind so die schwierigsten Stellen mit Raytracing auf der Map.

Wäre ziemlich cool. :eek:

Klar.
Die Karte lief im Schnitt mit ca.1850MHz

Ich muss meine Aussage leicht ändern, da meine Werte noch vor dem Overture Update entstanden.
Sind jetzt mit Ach und Krach 40fps


Ist es ggf möglich, dass sie die RT Cores _nicht mehr_ nutzen und daher der merkliche speedup beim Raytracing kürzlich kam?

Kann man ein altes BF5 testen ob die TitanV dort vergleichbar abschneidet?

nein,
mit dem Overture Update hat sich auch auf der V die Leistung verbessert.

Ich habe gerade mit etlichen Einstellungen herumgespielt.

Ausgehend von meinen UWQHD Screens habe ich:
unter WQHD etwa 5-10fps mehr.
Unter FHD etwa 10-20fps mehr.

komme also selbst unter FHD auf Rotterdam nur schwer auf 60fps.

Auf anderen Karten sieht das ganze Spiel anders aus.
Auf Panzersturm etwa habe ich selbst unter UWQHD um die 70fps. Auf der Map gibt's aber auch kaum etwas das reflektiert (Außer die Blechdächer, wenn man die ansieht gibt's aber nen harten Drop auf 30fps)
Fjell ist dann ne Mischung aus Worst Case und Best Case.
Am Rande der Map sinds wieder um die 70fps wenn man ins Zentrum der Map sieht bzw. sich darin befindet sind es 30fps.

Interessant finde ich auch, die TitanV hält, egal in welcher Auflösung, den Takt auf der höchsten Spannungsstufe.
Bei UWQHD geht das noch damit einher dass das Powerlimit zu 120% ausgeschöpft wird.
Je niedriger die Auflösung ist umso geringer wird der Verbrauch.
Bei FHD dümpelt die Karte dann nur noch bei 70-80% Powerconsumption rum.
Wie gesagt immer höchste Spannungsstufe und auch 100% Auslastung der GPU laut NVi.

Oder wir haben hier einfach nur herausgefunden das ein Entwickler noch nicht mit der neuen Hardware und/oder Softwareschnittstelle zurecht kommt.
Keiner hier kann abschätzen ob da nicht eventuell noch Leistung brach liegt.

Und eventuell weiß auch Nvidia selbst noch nicht richtig in welchem Verhältnis Anzahl der Shader und Anzahl der Tensor-Cores stehen müssen um bei aktuellen Hybrid-Renderern eine brauchbare Performance abzuliefern:
Aber halt, aktuell gibt es nur einen solchen Renderer...
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh