NVIDIA und DICE verbessern DXR-Leistung in Battlefield V um bis zu 50 % (2. Update)

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.147
battlefieldv.jpg
Die ersten Tests zu Battlefield V mit DXR zeigten ganz deutlich, dass die Anforderungen an die Hardware hoch sind. Wer in WQHD spielen möchte, der sollte schon mindestens eine GeForce RTX 2080 Ti im System haben und musste dennoch an der Qualitätsschraube drehen, um flüssige FPS zu erreichen.NVIDIA und DICE betonten aber auch mehrfach, dass es sich um eine erste DXR-Implementierung handelt, die noch weiter verbessert werden wird. Eine erste Verbesserung wird es mit dem Tides-of-War-Update geben. Dieses wird...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gefühlt sehen die Spiegelungen alle dunkler aus, teilweise aber auch realistischer ( linke Ecke vom gelben Schuppen wurde bisher durch den Baum gespiegelt.)

Alles in allem ist da bestimmt noch einiges an Luft nach oben...
 
Das geht ja mal in die richtige Richtung. Auf FullHD hätte ich sicher nicht runtergedreht. Leider interessiert mich BFV absolut nicht, aber schön zu sehen, dass da so viel potential in Optimierung steckt und nicht einfach nur die Hardware schuld ist.
 
"Noch einmal sei betont, dass laut DICE keinerlei Details verringert wurde, um die Leistung zu verbessern. DICE beschreibt dies in den Patchnotes wie folgt:
Korrigierte Einstellung für mittlere Qualität, welche nicht richtig angewendet wurde."

Wiederspricht sich irgendwie. Altes Mittel hat also mehr Details alas aktuelles Mittel
 
Ne, altes Mittel wurde nicht korrekt angewendet, was nun der Fall ist. Also sind nun Dinge da, die vorher nicht da waren. Was auch immer das auf Mittel sein soll.

In dem Video zu dem Update sprechen sie explizit sogar davon, dass sie einige Effekte verbessern konnten, obwohl die Leistung 50% höher ist und das es nur der Anfang der Möglichkeiten sein würde. Sie wollen mehr solche Patche in der Zukunft bringen.
 
Zuletzt bearbeitet:
Update in der News: DICE hat das Update für Battlefield V vorerst verschoben.
 
Macht doch die Bildunterschrift nicht auf das Bild..
 
Da ist deutlicher weniger Laub und Kleinkram unterwegs nach dem Patch. :d

nVidia ist echt so ein lächerlicher Haufen geworden.
 
Die Details erhöht und auch noch die Leistung um 50% verbessert.
Was zum Teufel haben die denn vorher gemacht?
Sehr dubios das Ganze.
 
Mit DXR auf Low packt die 2080ti nun sogar fast 60fps bei 4k.
Auf WQHD mit DXR Ultra über 70fps. Hier die Zahlen.

Noch immer nicht da wo man es gerne sehen würde, aber das ist doch mal ne Ansage mit der man arbeiten kann.
Vor allem, da sie sagten das wäre nur der erste Patch mit Performanceschub. Gespannt was sie mit der Zeit noch rausholen. Bei neuer Tech ist natürlich erst mal ne Menge Potential vorhanden.
Trotzdem: 57fps bei 4k ist schon mal was. Sogar DXR-Low sieht schon ne gute Ecke besser aus als gar kein DXR.

Da ist deutlicher weniger Laub und Kleinkram unterwegs nach dem Patch. :d

nVidia ist echt so ein lächerlicher Haufen geworden.

Nur hat Laub nix mit RTX zu tun und Dice ist nicht NVidia, aber fast gelungener Trollversuch. 4/10 würde ich sagen.
 
Zuletzt bearbeitet:
War kein Trollversuch von ihm. Viel Laub bzw Blätter haben Probleme Verursacht in verbindung mit Raytracing daher ist die Performance auf der Herbstmap des Singleplayers derbe eingebrochen.
Wenn da aber eben nicht weniger Laub ist dann wars dann doch einer :-)
 
Zuletzt bearbeitet:
Dann kannst du das doch sicher auch mit zB Screenshots belegen? Wenn dem so sein sollte, müsste der shitstorm ja schon am laufen sein..... Oder wir haben es wie so oft, mit subjektiver "Beobachtung" zu tun.
 
Mein Punkt hier ist, dass dieses Laub nix, aber auch gar nichts mit RTX zu tun hat.
Das ist eine Rastergeschichte die jede GPU betrifft und damit den Fokus dieses Berichts verfehlt.

Selbst wenn sie das Laub deaktiviert hätten, wäre die RTX performance davon wohl kaum betroffen. Außer die Laubblätter reflektieren irgendetwas.
Da in BFV kein Global Illumination zum tragen kommt, können die Blätter auch keine RT Schatten werfen.

Wenn man über Laub und FPS reden will, dann ist das sicher berechtigt (vor allem da das Laub an tollen Spawnpunkten aus dem Nichts erscheint, direkt auf Steinplatten), aber unabhängig von den GPU Anbietern.
Das ist schon ein reines Dice-Problem. :-)
 
Es kann schon sein das diese Laub Geschichte ein allgemeines Problem ist. ( Finde diese verwehungen eh etwas übertrieben so als wenn überall Leute mit Laubbläsern stehen würden ) Ich mein ich hatte an der Stelle auch einbrüche um bis zu 15 FPS als ich mit meiner 1080 Non TI bei dem Levelabschnitt war. Als ich dann etwas weitergelaufen bin und den kleinen abhang hinauf gelaufen bin warn die FPS wieder im normalen Bereich. Und wenn dann noch Raytracing aktiv ist tun solche einbrüche natürlich noch mehr weh. Vielleicht wurde daher diese Laub Geschichte oft in verbindung mit Raytracing genannt.

Hatte das halt nur nebenbei verfolgt da ich keine 1500 Euro Grafikkarte kaufen möchte und meine 1080 non ti grad noch so mit leichten abstrichen für 4K reicht. Hatte halt gedacht das es irgend ein Code ist der da verrückt spielt wenn Laub und Raytracing zusammenkommen und daher Probleme verursacht. Aber es mag wie gesagt auch ein allgemeines Problem sein was auch normale GTX Karten betrifft.
 
Zuletzt bearbeitet:
Zumindest in diesem Videovergleich kann ich keine reduzierung von Blättern, oder irgendwas anderem, feststellen.
Es scheint aber wirklich in 1440p problemlos auf Ultra spielbar zu sein. Sehr gute Nachrichten für die Zukunft von DXR. Doch nicht so weit weg wie befürchtet!

Es scheint aber auch andere Szenen zu geben bei denen weniger Blätter auf dem Boden liegen.
In anderen Szenen sieht es noch mehr Blättern aus die aus dem Boden spawnen (sorry, das lässt mich nicht los... so ein gut aussehendes Game und dann spawnen Blätter aus einem Kreis am Boden,...).
Evtl. ist das auch einfach nur Zufall. Es wird ja immer wieder gesagt wie schwer das zu benchen ist, weil man nie genau die selbe Umgebung hat. Kann das jemand bestätigen, der das Game selber hat?

Die Frage ist:
Sollte das nicht die Performance senken wenn weniger Blätter da sind? Blätter auf dem Boden reflektieren nichts. IN BFV ist aber jede Bodenfläche ein Spiegel. Wenn da Blätter drüber liegen, dann reflektiert weniger, also ist die DXR Leistung höher.
 
Zuletzt bearbeitet:
Die Frage ist:
Sollte das nicht die Performance senken wenn weniger Blätter da sind? Blätter auf dem Boden reflektieren nichts. IN BFV ist aber jede Bodenfläche ein Spiegel. Wenn da Blätter drüber liegen, dann reflektiert weniger, also ist die DXR Leistung höher.


Da hast du einen Denkfehler. Bei Raytracing werden, wie der Name schon sagt, Lichtstrahlen verfolgt. Spricht selbst wenn da Laub drauf liegt werden vorher noch Rays berechnet damit die Engine eben weiß ob nun Spiegelungen vorhanden sind und wenn ja, diese auch sichtbar sind und da dann wieder wie stark diese sichtbar sind. Diese ganze Raytracegeschichte ist also deutlich komplexer als Viele denken.
 
Boah, was alles durch Optimierung möglich ist O.O
Sehr geil!
 
Da hast du einen Denkfehler. Bei Raytracing werden, wie der Name schon sagt, Lichtstrahlen verfolgt. Spricht selbst wenn da Laub drauf liegt werden vorher noch Rays berechnet damit die Engine eben weiß ob nun Spiegelungen vorhanden sind und wenn ja, diese auch sichtbar sind und da dann wieder wie stark diese sichtbar sind. Diese ganze Raytracegeschichte ist also deutlich komplexer als Viele denken.

Bist Du Dir sicher, dass nicht Du den Denkfehler hast?
Bitte korrigiert mich wenn ich das Folgende falsch verstanden habe, aber so habe ich es aus den Präsentationen rausgehört:

Nach allem wie ich das Verstanden habe werden die Rays doch VOM AUGE aus berechnet und nicht vom Objekt. Sonst würden ja unendlich viele Rays berechnet werden, die niemals auf dem Bildschirm auftauchen.

Im Falle eines Blatts auf dem Wasser wäre das also so, dass vom Auge der Ray direkt zum Blatt geht, bemerkt es ist nicht reflektiv und damit terminiert.
Das unter dem Blatt eine reflektierende Oberfläche ist, die weitere Rays spawnen würde, kommt also gar nicht zum tragen. Wenn das Blatt nicht da wäre, dann würde der selbe Ray auf das Wasser treffen und in dutzende neue Rays splitten um zu überprüfen was und wie reflektiert wird.

Wenn das andersherum wäre, also von jedem einzelnen Punkt in der Szene ein Ray losballern würde, mit allen splits und subsplits... und nur ein Bruchteil davon auf dem Bildschirm auftauchen würde, dann wären wir bei 1 Frame pro Stunde oder so.
Habe diesen Umstand als einen der integralen Punkte der Implementation verstanden. Daher meine Skepsis ob die Blätter auf dem Wasser nicht die Leistung steigern sollten.
 
Raytracing wird immer so berechnet das die Strahlen von der Quelle des Lichtes her verfolgt werden. Alles andere würde doch keinen Sinn machen. Nur so kann man korrekt berechnen wie eine Reflextion/Refraktion einer Lichtquelle aussehen bzw. überhaupt sichtbar sind. Ich kann deine Herangehensweise verstehen, diese ist aber falsch. Der "Ray" wird ja von der Quelle (Lichtquelle) abgegeben, und nicht von deinen Augen. Deine Augen "empfangen" diese "Rays" ja nur und setzen aus den Informationen das Bild zusammen. So ist es in der Realität und exakt der gleiche Ansatz wird mit Raytracing technisch umgesetzt. Und ja, es werden extrem viele Rays berechnet welche du nicht siehst, deshalb ist es ja so rechenaufwendig. Denn nur durch das verfolgen der Lichtstrahlen von der Quelle des Lichtes her kann man überhaupt korrekt berechnen ob du diese Lichtstrahlen siehst, und wenn ja, in welcher Intensität oder Eigenschaften (Wellenlänge, also Farbe usw.)


Ganz simpel gesprochen:
Stell dir einfach vor du hast ein komplett schwarzes Bild. (also keine Lichtquellen). Jetzt kommt eine Lichtquelle ins Spiel und gibt Lichtstrahlen ab, z.b. die Sonne. Diese Lichtstrahlen werden von Objekten in der Umgebung verschieden stark reflektiert. Wenig reflektion bedeutet der Gegenstand ist dunkel, eine hohe Reflektionseigenschaft bedeutet der Gegenstand ist heller. Ok, dann kommt da noch Lichtbrechung ins Spiel (Refraktion) aber das ist dann ein anderes Thema. Jetzt hast du diese die Helligkeit der Gegenständer, welche die Lichtstrahlen verschieden stark reflektieren. Nun müssen aber diese Strahlen auch wieder verfolgt werden um zu wissen ob diese auf dein Augen treffen (sichtbar für dich) oder ob diese verdeckt bzw. in eine andere Richtung gehen und somit für dich nicht sichtbar sind. Es muss also jeder einzelne Strahl der Lichtquelle verfolgt werden, von der Quelle, dann auf die Gegenstände, welche diese verschieden stark in verschiedene Richtungen reflektieren und dann weiter zum nächsten Objekt welche diese bereits reflektieren Strahlen abermals reflektiert bis schlußendlich zu deinem Auge. (oder nicht, weil nicht sichtbar).

Darum ist Raytracing so extrem leistungshungrig. Es wird da derzeit durch Interpolation schon etwas geschummelt (z.b. jeder 1000 Strahl wird berechnet und dazwischen werden Werte interpoliert, um Rechenoperationen zu sparen.)

Hoffe ich konnte das einigermaßen verständlich rüberbringen. Ist natürlich noch viel viel komplexer, Diffusion, Refraktion, Reflektion, Wellenlängen, Absorbation, indirekt, direkt usw. welche alle miteinander interagieren... aber im großen und Ganzen funktioniert so die ganze Geschichte.
 
Zuletzt bearbeitet:
Also die wissenschaftlichen Artikel dazu sagen aber auch, dass es vom Auge aus berechnet wird. Hast Du nen Link in dem belegt wird, dass NVidia das anders macht? Und vor allem wie das mit der Rechenleistung dann überhaupt machbar ist?

The idea behind ray casting is to shoot rays from the eye, one per pixel, and find the closest object blocking the path of that ray. Think of an image as a screen-door, with each square in the screen being a pixel. This is then the object the eye sees through that pixel. Using the material properties and the effect of the lights in the scene, this algorithm can determine the shading of this object. The simplifying assumption is made that if a surface faces a light, the light will reach that surface and not be blocked or in shadow. The shading of the surface is computed using traditional 3D computer graphics shading models. One important advantage ray casting offered over older scanline algorithms was its ability to easily deal with non-planar surfaces and solids, such as cones and spheres. If a mathematical surface can be intersected by a ray, it can be rendered using ray casting. ********* objects can be created by using solid modeling techniques and easily rendered.
 
Würde aber keinen Sinn machen.
Woher soll ein "Ray" vom Auge aus wissen welches z.b. Licht er sieht oder nicht? Und die Strahlen welche er sieht, welche Farbe und Intensität? Das geht doch nur wenn man z.b. den Strahl der Quelle des Lichtes verfolgt and dann berechnet welche Veränderungen (Diffusion, Stärke, Wellenlänge) dieser erfährt bevor er auf ein Auge trifft. Würde alles sonst keinen Sinn ergeben.


In der Realität ist es genau so. Die Strahlen werden vom Auge (Netzhaut) empfangen, und nicht gesendet! ;) (es sei denn du bist Cyclops) :fresse2:
 
Zuletzt bearbeitet:
Das ist für einen berechneten Ray kein Problem. Das es eben genau andersherum wie in der Realität funktioniert ist ja genau der Witz der es überhaupt möglich macht.
Läuft über Rekursion. Er startet beim Auge und überprüft was er anzeigt indem er eben "mal loszieht und schaut auf was er trifft". Jedesmal wenn er reflektiert wird, added er Informationen und wenn er auf etwas nicht Reflektierendes trifft terminiert er und der Bildpunkt bekommt seinen finalen Returnwert.
Sehe da kein Problem. So funktioniert nahezu alles in der Computerscience. Rekursion ist ein integraler Teil von Optimierungen und performanten Ansätzen, die keine unnötigen Dinge abklappern sollen.

Habe jetzt echt gesucht, aber keine einzige Quelle für Deine Theorie gefunden.
Von der Rechenleistung her würde das absolut nicht gut gehen, wenn es von Lichtquellen aus berechnet würde. Das wäre auch in 20 Jahren wohl noch unmöglich. Wir reden da nicht nur über 10x so viele Rays, sondern über gut und gerne einen Faktor im 7-10 stelligen Bereich. Überleg mal grob wieviele Bildpunkte ein 1080p Screen hat. Das ist bereits die maximal nötige Anzahl an Rays mit Rekursion. Wenn man jede Lichtquelle in alle Richtungen und in allen Winkeln überschlägt, dann ist das sehr schnell bei einer nahezu unendlich großen Zahl. Und 99,9% dieser Berechnungen wären total nutzlos und würden nie angezeigt werden. Man hätte dann ja auch nicht die Wahl welche Features von DXR man implementiert, weil dann wahllos alles RT nutzen müsste. Also solange Du nicht doch noch einen Beleg dafür findest, gehe ich davon aus, dass der Rekursionsansatz verwendet wird, so wie er seit 20 Jahren beschrieben wird.
 
Wenn man logisch mal darüber nachdenkt merkt man das man nur die korrekten "Lichtwerte" bekommt wenn man die Lichtquelle und dessen Strahlen traced, und nicht umgedreht, da du gar nicht weisst welche Strahlen überhaupt dein Auge erreichen. ;)
Auch Nvidia nutzt es so. Alles Andere ist kein Raytracing. Und ja, man kommt auf eine schiere Anzahl von Rays, das ist der Grund warum das so viel Leistung frisst, aber nur so bekommst du realistische Ergebnisse. Nicht ohne Grund wird viel interpoliert. Man begrenz die Anzahl der Rays bzw. Samples. Umso mehr Samples umso genauer und besser ist das Ergebnis. (Noise).

BTW:
Auch die TensorCores der RTX können da nicht viel Ändern. Diese können Noise zwar gut unterdrücken, ist aber auch nur Interpolation. Fehlende Informationen werden aus benachbarten Informationen errechnet/interpoliert.
 
Zuletzt bearbeitet:
da du gar nicht weisst welche Strahlen überhaupt dein Auge erreichen

Genau darum geht es ja vom Auge aus. Man weiß bei Frame Berechnungen exakt was das Auge sieht, weil man genau das ja berechnet und eben nicht alles andere.
Die Rays suchen sich die Lichtinformationen anhand der Objekte die sie treffen und geben diese an das Sichtfeld rekursiv zurück. Welche Lichtquellen existieren ist bei RT komplett egal. Wenn eine Lichtquelle ein Objekt erhellt, dann bekommt der Ray diese Information in dem Moment in dem er auf das Objekt trifft und reicht die Information weiter an das Sichtfeld / Auge.

Sorry, aber deine Vorstellung diesbezüglich ist einfach falsch. Rekursion ist kein Hexenwerk. Und wenn du dir die Turing Vorstellung ansiehst, wirst du auch genau das erneut finden. Sie haben das auf der Bühne so gesagt, es ist in allen wissenschaftlichen Artikeln so hinterlegt, es würde von der Leistung anders gar nicht funktionieren und nur du stellst es anders dar. Würde behaupten damit bist du in der Beweispflicht. Zeig uns eine Quelle für die Theorie oder lass es gut sein.
 
Sorry, dann denk doch was du willst. Mach dir wenn du mal die Muse hast Gedanken... ;)
Nach deiner Logic hätte ich die doppelte Menge an Daten die berechnet werden müssen. Einmal die Strahlen von der Lichtquelle um die Eigenschaften dieser zu berechnen und in welche Richtung diese Reflektiert werden dann noch deine Strahlen abgehend vom Auge um zu berechnen welche Primären Strahlen man kreuzt bzw. man sieht.
 
Das hat nichts mit mir zu tun, wieso beziehst Du das auf mich?
Ich gebe nur wieder was sowohl NVidia, als auch die Wissenschaftlichen Artikel zu dem Thema sagen. Das ich als Entwickler verstehe, dass Rekursion ein großer Performancevorteil ist und bei diesem Thema wichtig ist, hat ja nur erklärende Wirkung die nicht die Fakten ansich ändert. Du bist der einzige der sich eine eigene Realität aufbaut und auch nach mehrfacher Aufforderrung keinen Beleg bringen möchte.

Also belassen wir es dabei. Die anderen Leser sind ja selber in der Lage sich die Präsentation von Nvidia anzusehen (oder einfach nur den Wikiartikel zu lesen) und "zu entscheiden" was richtig ist.
 
Zuletzt bearbeitet:
...

1. Wieso sehen die Waffen immer aus, wie 130 jährige, verrottete Gewehre, importiert aus dem afghanischen Hochland.

(Gib einer denen mal bitte etwas Gewehrfett!)


2. Erst wird bei der Präsentation von DXR alles völlig überspiegelt präsentiert, als Anreisse, danach reduziert man die Spiegelungen wieder und verkauft das als Verbesserung. (Als Beispiel des Gewehres im Video (mit Timecode im Link).


Battlefield V: Official DXR Dev Update – Up To 50% Performance Increase! - YouTube


3. Mich interessierte mal, wie die Leistung aussieht, wenn man realistischere Settings setzt. Das Ganze sieht einfach viel zu aufgesetzt aus. Da spiegelt alles. Ein verschmutztes Gewehr kriegen sie nicht gebacken, dafür spiegelt jede olle Holztür, als ob sie gerade frisch mit Hochglanzlack gestrichen worden wäre.


Ich würde gerne einmal zum Vergleich ein kleines Video sehen mit 4xAF, kein AA, kein DXR, Shader mittel, Texturen und Umgebung hoch und das auf einem 24" WQHD Monitor/Auflösung. (Ich spiele meisten alle Spiele mit diesen Einstellungen. Sieht einfach realistischer aus ggü. diesen polierten Welten > Battlefield V: Official DXR Dev Update – Up To 50% Performance Increase! - YouTube).


Obwohl auf eine Stadt Tage zuvor ein Bombenhagel niedergegangen ist, seither darin hart gekämpft wird, es hat geregnet, überall Matsch und durch Einschläge verursachte SchlammSpritzer, sehen Autos aus, als wären sie gerade aus der Waschanlage gekommen und am Abstellplatz dann nochmals aufpoliert worden.

Dem kann man dann effektiv sagen:" ist ein Blender", mehr Schein als sein.

...
 
Zuletzt bearbeitet:
Dem stimme ich definitiv zu.
BFV übertreibt es mit den Spiegelungen gewaltig. Wenn sie realistischer implementiert wären, würden sicher nochmal mehr FPS entstehen und das Gesamtbild verbessern.
Leider würden dann aber auch die Unkenrufe wegen "reduzierter Qualität" kommen, obwohl sie eigentlich verbessert würde... aber blenden ist halt effektiver als Realismus. Leider.

Hoffe andere Games gehen einen weniger extremen Weg.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh