DLSS 3 und Frame Generation: Die KI-Revolution ist losgebrochen

Hier wird erklärt wie Frame Generation möglich ist:
+https://nvidianews.nvidia.com/news/...red-frame-generation-for-up-to-4x-performance
1682685421904.png

Beitrag automatisch zusammengeführt:

Bin ich blind oder ist da nur die Performance der Karte zusehen?
Die Tensor Kerne spielen hier erstmal keine Rolle.
Es geht ja um die Informationen der AI/KI zur Verfügung gestellt wird und dafür ist der Optical Flow Accelerator Verantwortlich.

Und die technische Dokumentation dazu hab ich ja bereits gepostet.
Dort wird dokumentiert wie lange es dauert bist der Flow Accelerator 2 Frames vergleicht.

Das ist die quasi die "Quintessenz" grob der Tabelle im vergleich der 3 Grafikkarten und Architekturen.
Die Inital Tabellezeigt die verfügaberen und notwendigen Features an.

Die sind bei Ampere und Ada grundsätzlich gleich, natürlich hat Ada die zweite Generation, so wie halt Ampere bei RT Cores die zweite Generation hat und Turin gen1 RT Cores.

Das macht am Ende bei gleicher Anzahl an verarbeitunskerne einen Unterschied in der Leistung. Das sieht man ziemlich gut an den unterschiedlichen Latenzen.

Ada ist 3x so schnell wie Turing.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
imho:
1. ohne gsync ist das thema in vielen fällen eher theoretischer natur. ein faktor, der aus meiner sicht oft zu kurz kommt.

2. dlss: wo es nötig ist, funktioniert es gut.
leider war die die implementierung bis zur (ich glaube vorletzten) treibergeneration unterirdisch. persönlich finde ich dlaa potentiell deutlich spannender, wird leider von zu wenigen games unterstützt. besonders weil msaa (+ssaa) wegen deferred rendering in immer mehr games nicht funzt und...lets face it: die ganzen post-aa weichzeichner etc. liefern doch eher mässige qualität.

3. frame generation: funktioniert (nicht).
Das heißt: es macht exakt das, was es soll. im Cyberpunk 2077 benchmark (5.120×1.440, max settings, dlss auto, path tracing, reflex, geringe latenz=ultra via treiber) steigen die durchschnitts-fps von 44.18 (ohne fr) auf 93.79 (mit fr)...Ada's tensor-cores haben wirklich brachial viel leistung. Das heißt aber auch: >50% aller frames werden eben nicht gerendert. bei 70-80 1%fps liegt die latenz hier bei ~50ms. das ist quasie unspielbar. so wird Cyberpunk zum wunderschönen walking-simulator.
 
Hier wird erklärt wie Frame Generation möglich ist:
+https://nvidianews.nvidia.com/news/...red-frame-generation-for-up-to-4x-performance
Anhang anzeigen 881631
Beitrag automatisch zusammengeführt:


Die Tensor Kerne spielen hier erstmal keine Rolle.
Es geht ja um die Informationen der AI/KI zur Verfügung gestellt wird und dafür ist der Optical Flow Accelerator Verantwortlich.

Und die technische Dokumentation dazu hab ich ja bereits gepostet.
Dort wird dokumentiert wie lange es dauert bist der Flow Accelerator 2 Frames vergleicht.

Das ist die quasi die "Quintessenz" grob der Tabelle im vergleich der 3 Grafikkarten und Architekturen.
Die Inital Tabellezeigt die verfügaberen und notwendigen Features an.

Die sind bei Ampere und Ada grundsätzlich gleich, natürlich hat Ada die zweite Generation, so wie halt Ampere bei RT Cores die zweite Generation hat und Turin gen1 RT Cores.

Das macht am Ende bei gleicher Anzahl an verarbeitunskerne einen Unterschied in der Leistung. Das sieht man ziemlich gut an den unterschiedlichen Latenzen.

Ada ist 3x so schnell wie Turing.
Wie kommst du zu der Aussage, das hätte nichts mit den Tensor Cores zu tun?
Hintergrund sind die Tensorkerne in Ada Lovelace, so der Codename der jüngsten Generation, und der Optical Flow Accelerator. Beides gibt es schon auf Turing-Karten, aber mit Lovelace wurden sie laut Nvidia immens verbessert. Im Moment hat man als Maßgabe vor allem die höheren Durchsatzwerte und Leistungsfaktoren, die die Einheiten nun erreichen sollen. Vermutlich bedeutet das ein Performance-Malus für DLSS 3 auf älteren Karten. Wie dramatisch das ist oder nicht, wird erst die Zeit zeigen. Bis dahin stehen die Aussagen des Nvidia-Marketings erst einmal ungeprüft im Raum. Da nennt man zum Beispiel für den Optical Flow Accelerator das 2 bis 2,5-fache an Leistung zum Vorgänger.
Und direkt von Nvidia:

DLSS 3 is powered by the new fourth-generation Tensor Cores and Optical Flow Accelerator of the NVIDIA Ada Lovelace architecture, which powers GeForce RTX 40 Series graphics cards.

Hier noch mal eine Erklärung, die den gleichen Schluss zieht; kaum bis keine Mehr-FPS bei gleichzeitigem Lag und schlechterer Bildqualität.

Nvidia's DLSS 3 technology relies on the Ada's fourth generation Tensor cores and the new Optical Flow Accelerator (OFA) to work. OFA isn't some new invention that Nvidia recently cooked up with Ada. OFA has been present since the Turing days. The difference is that Nvidia has tremendously improved it in Ada versus Ampere, and it now delivers higher performance and better quality. The OFA in Ada is reportedly 2 to 2.5 times faster than on Ampere. Nvidia has seemingly made some algorithmic changes as well. Ampere and Turing can theoretically leverage DLSS 3, but they won't yield the same benefits. Catanzaro said that DLSS 3 likely won't boost frame rates on Ampere or Turing — on the contrary, owners would probably experience laggy gameplay and bad image fidelity..."
Mir ist nicht ganz klar warum Leute etwas fordern, dass ihre Situation verschlechtern würde und dazu auch noch Verschwörungstheorien entwickeln.

Wie gesagt, ich kann das nicht überprüfen, aber es klingt nachvollziehbar. Auf der anderen Seite habe ich von denen, die das Gegenteil behaupten noch keine stichhaltigen Belege gesehen außer: doch, das geht!
 
Zuletzt bearbeitet:
Wie gesagt, ich kann das nicht überprüfen, aber es klingt nachvollziehbar. Auf der anderen Seite habe ich von denen, die das Gegenteil behaupten noch keine stichhaltigen Belege gesehen außer: doch, das geht!
Ein Entwickler hat in einem Interview auf die Frage (er war überrascht), theoretisch würde das funktionieren wir haben das nur nicht in erwägung gezogen.

 
3. frame generation: funktioniert (nicht).
Das heißt: es macht exakt das, was es soll. im Cyberpunk 2077 benchmark (5.120×1.440, max settings, dlss auto, path tracing, reflex, geringe latenz=ultra via treiber) steigen die durchschnitts-fps von 44.18 (ohne fr) auf 93.79 (mit fr)...Ada's tensor-cores haben wirklich brachial viel leistung. Das heißt aber auch: >50% aller frames werden eben nicht gerendert. bei 70-80 1%fps liegt die latenz hier bei ~50ms. das ist quasie unspielbar. so wird Cyberpunk zum wunderschönen walking-simulator.
hast du FG schonmal probiert?
 
Und dann schaut man sich UNREAL5 LUMEN an und merkt man braucht den ganzen RTX scheiß nicht.
Vielleicht erstmal warten bis der Scheiß wirklich so existiert. Gebrummt wie ne Tut voll Mucken hat er der kleine Sweeney, beachten sollte man bei dem Mann vor allem, dass wenn er guten Tag sagt, man aus dem Fenster gucken sollte obs auch wiklich hell ist. Fantasten kann er gut und die Performance kennt auch noch keine Sau. Aber mal wieder interessant wer auf einmal auf Rasterization abfährt nachdem man in den Benchs oben steht und auf alles andere natürlich scheißt, weils ja Scheiße ist....is klar
So das war viel Scheiße zum Morgen. Grüße
 
Vorher gab es ja kein Rytracing und wenn war das Softwarebasiert.
Bitte was?
Raytracing gab es auch schon zuvor, nur war die Hardware viel zu langsam für real-time Raytracing, sodass dieses nur in anderen Medien verwendet wurde und nicht in Spielen. Raytracing war und ist immer noch software-basiert. Nur gibt es jetzt dedizierte Hardwareeinheiten, die die Berechnungen beschleunigen können und somit real-time Raytracing ermöglichen.

Wer mal die NeonNoir Demo/Benchmark Szene hat laufen lassen, wird feststellen das es auch ohne HW RTX gut gelaufen wäre wenn man das nur technisch richtig in die Engine eingebunden hätte.
Klar und verschweig dabei einfach mal, dass dies nur mit Einschränkungen läuft: "Auf Partikel oder fließendes Wasser sollen sich die Effekte bisher noch nicht anwenden lassen. Weitere Einschränkungen sind ein Versatz von ein bis zwei Frames bei der Darstellung von indirekter Beleuchtung und dass es durchaus ein paar Sekunden dauern kann, bis das System funktioniert, wenn die Kamera an einen komplett anderen Ort springt – offensichtlich benötigt die initiale Berechnung der Voxel-Umgebung viel Zeit. Eine weitere Einschränkung: Raytracing kommt nur für Objekte zum Einsatz, die sich nahe am Auge des Betrachters befinden."
Source: https://www.computerbase.de/2019-11.../#abschnitt_derzeit_noch_mit_einschraenkungen

Passt wohl nicht in deine Argumentation? ;)

Ich meine mit XeSS hat Intel ja nichts anderes gemacht und das funktioniert ohne "Tensor Cores".
XeSS läuft auf Intel GPUs mit Intel Xᵉ Matrix Extensions (XMX) und auf anderen GPUs nur in einem Fallback-Modus. Benchmarks zeigen, dass XeSS der Fallback-Modus schon merklich schlechter läuft..

Die KI ist nicht in der Lage mit einem unbekannten untrainiertem Game richtig zu funktionieren.
Kannst du diese Aussage auch irgendwie belegen?
Ein Training per Game ist seit DLSSS 2.0 nicht mehr nötig, Also wie kommst du darauf?

Ein Entwickler hat in einem Interview auf die Frage (er war überrascht), theoretisch würde das funktionieren wir haben das nur nicht in erwägung gezogen.
Hast du den falschen Artikel verlinkt?
In deiner Verlinkung lautet die zusammengefasste Aussage: "Wäre theoretisch möglich, aber mit Nachteilen". Und PCGH bezieht sich da auf die Aussagen derselben Person, die dein Diskussionspartner schon genannt hat. 🤔
 
Sehr interessant zu lesen, danke für den ausführlichen Artikel. :) Für mich aktuell noch Zukunftsmusik, ich steige dann ein wenn alle Drawbacks behoben sind. :d
 
Vielleicht erstmal warten bis der Scheiß wirklich so existiert. Gebrummt wie ne Tut voll Mucken hat er der kleine Sweeney, beachten sollte man bei dem Mann vor allem, dass wenn er guten Tag sagt, man aus dem Fenster gucken sollte obs auch wiklich hell ist. Fantasten kann er gut und die Performance kennt auch noch keine Sau. Aber mal wieder interessant wer auf einmal auf Rasterization abfährt nachdem man in den Benchs oben steht und auf alles andere natürlich scheißt, weils ja Scheiße ist....is klar
So das war viel Scheiße zum Morgen. Grüße
Tja schade existiert schon - nennt sich Unreal 5.2 und kann man downloaden und performance testen....
 
Nennt sich Preview und Final Unterschied. Tja schade.....einfach warten und dann gucken.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh