DLSS später abwärtskompatibel?

BomberHarry

Enthusiast
Thread Starter
Mitglied seit
04.01.2011
Beiträge
301
Hallo,
ich frage mich, ob DLSS in späteren Versionen abwärtskompatibel ist. Also aktuell gibt es DLSS 3 und vermutlich irgendwann mal 4.0, 5.0... Wie ist das, wenn man eine RTX 4000 mit DLSS 3.0 besitzt, später die Titel aber DLSS 4 können. Kann ich dann trotzdem 3.0 nutzen, oder geht das dann nur mit 4.0, welches die RTX 4000 nicht besitzt?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Deine aktuelle Graka kann doch DLLS 2 auch "noch".
Nicht aufgefallen?
Sie kann also 3 und 2. Das hört sich doch wie "abwärtskompatibel" an für mich 8-)
 
Anders gemeint: Ein kommendes Spiel inkl. neuerer Grafikkarten-Generation wurde auf einem SDK mit DLSS 4 (hypothetisch) programmiert. Kann ich davon dann DLSS 3 nutzen, oder muss das Spiel dann auch für 3.0 oder 2.0 extra freigegeben sein?
 
muss implementiert werden wie in jedem aktuellen spiel auch. nvidia ist ja fleißig dabei auch ältere spiele mit DLSS auszustatten.

DLSS 2 ist quasi normales DLSS

DLSS 3 ist quasi FG
 
Anders gemeint: Ein kommendes Spiel inkl. neuerer Grafikkarten-Generation wurde auf einem SDK mit DLSS 4 (hypothetisch) programmiert. Kann ich davon dann DLSS 3 nutzen, oder muss das Spiel dann auch für 3.0 oder 2.0 extra freigegeben sein?
Hängst du dich grade an Versionsnummern auf oder gehts dir um die Technologie?
Weil in meinem Kopf ergibt deine Frage keinen Sinn? :confused:
 
Aus meiner Sucht wird jedes Spiel mit DLSS jede Version unterstützen. Ob Deine 4000er DLSS 4 können wird, wage ich mal zu bezweifeln. Denn 3000er "können" auch kein 3er DLSS wie Du ja sicher weisst. Nvidia will verdienen.
 
Hängst du dich grade an Versionsnummern auf oder gehts dir um die Technologie?
Weil in meinem Kopf ergibt deine Frage keinen Sinn? :confused:

Um die Implementierung^^
z.B.
DLSS2 = DLSS 2
DLSS3 = DLSS2 + FG
DLSS4 = DLSS2 + FG + XYZ

Angenommen ein Game ist mit DLSS 4 (später mal) ausgestattet. Hat man dann den kleinsten gemeinsamen Nenner der nutzbaren Funktion? In meinem Fall dann DLSS2 + FG OHNE XYZ
 
Angenommen ein Game ist mit DLSS 4 (später mal) ausgestattet. Hat man dann den kleinsten gemeinsamen Nenner der nutzbaren Funktion? In meinem Fall dann DLSS2 + FG OHNE XYZ
Das hängt davon ab was Nvidia zur Verfügung stellt an SDKs und Treibern.
Egal wie die Antwort ist, es wäre geraten.

Technisch gibts keinen Grund warum DLSS3.0 aka Frame generation nicht auf 2000er und 3000er laufen sollte. Aber Nvidia gibts dennoch nicht frei in Form von Treibern.

Davon ab ist Frame Genration Verschwendung von Lebenszeit der Programmierer und Softwaremüll. Das kann man schon ablesen wenn man sich anschaut wie die Technologie funktioniert. Es ist etwa so sinnvoll wie ein Edding und ne Normschriftschablone. Schreib dir einfach ne Zahl die du sehen willst auf den Monitor.
Das ist sinnvoller als Frame Generation nutzen.
 
Um die Implementierung^^
z.B.
DLSS2 = DLSS 2
DLSS3 = DLSS2 + FG
DLSS4 = DLSS2 + FG + XYZ

Angenommen ein Game ist mit DLSS 4 (später mal) ausgestattet. Hat man dann den kleinsten gemeinsamen Nenner der nutzbaren Funktion? In meinem Fall dann DLSS2 + FG OHNE XYZ
Eher abwärts als aufwärts kompatibel. Grafikkarten mit DLSS 4/5 werden wohl auch DLSS 2/3 können. So wie moderne DX12 Grafikkarten auch noch Direct X 9/10/11 können.
Umgekehrt wird es nicht so einfach möglich sein das eine Grafikkarte die DX9 Kann Direct X 10 Titel bespielen kann. Zumindest nicht das es Sinnvoll wäre.

Ich denke aber im Kern wird Nvidia das semi aufwärts kompatibel machen wie es halt jetzt schon ist. DLSS3.X Titel können auch von älterer DLSS Generation genutzt werden verzichten halt auf Frame Generation. Wenn die nächste Generation irgendwas mit Deep Learing Ray-Tracing haben würde, können das die alten nicht. Also nur normales Raytracing ohne DLRT...
Außer Nvidia beschließt was gänzlich an dem System zu ändern was dann irgendwann.. nicht mehr unterstützt wird.. auch wenn es technisch mal wieder keine spezifischen gründe gibt wie Wirtschaftlichkeit.
 
Davon ab ist Frame Genration Verschwendung von Lebenszeit der Programmierer und Softwaremüll. Das kann man schon ablesen wenn man sich anschaut wie die Technologie funktioniert. Es ist etwa so sinnvoll wie ein Edding und ne Normschriftschablone. Schreib dir einfach ne Zahl die du sehen willst auf den Monitor.
Das ist sinnvoller als Frame Generation nutzen.

Den selben Müll haben auch Leute erzählt als DLSS rauskam... :)
Zeigt einfach das du keine Ahnung hast von was du redest. Frame Generation und generell AI rendering ist die Zukunft.
Davon abgesehen ist Frame Generation extrem beeindruckend dafür das es die erste Version ist, wenn es dich stört kannst es ja zum Glück ausstellen... :)
 
Den selben Müll haben auch Leute erzählt als DLSS rauskam... :)
Zeigt einfach das du keine Ahnung hast von was du redest. Frame Generation und generell AI rendering ist die Zukunft.
Davon abgesehen ist Frame Generation extrem beeindruckend dafür das es die erste Version ist, wenn es dich stört kannst es ja zum Glück ausstellen... :)
Frame Generation ist aber wirklich ein wenig Esotherik. Die KI muss quasi raten was passieren könnte. Das kann einfach nicht funktionieren, es sei denn da werden Quanteneffekte genutzt vielleicht irgendwann in der Zukunft mit Quantenbasierten Computern. Ich sehe aber für die aktuellen das nicht. Wird auch nie im Multiplayer funktionieren.
 
Den selben Müll haben auch Leute erzählt als DLSS rauskam... :)
Zeigt einfach das du keine Ahnung hast von was du redest. Frame Generation und generell AI rendering ist die Zukunft.
Davon abgesehen ist Frame Generation extrem beeindruckend dafür das es die erste Version ist, wenn es dich stört kannst es ja zum Glück ausstellen... :)
Ich sehe nur Nachteile:
- Inputlag/frametime und dadurch Spielgefühl als würden weniger FPS als anliegen als ohne Frame Generation. Technologisch bedingt, da immer das neue Frame berechnet werden muss, um zwischen dem aktuellen und dem neuen eines dazwischen zu bekommen für das es keine Daten von der CPU gibt. Du bist also immer 1 Frame von der CPU hinten dran. Das ist das was das Spielgefühl verschlechtert.
Es ist ein reiner Pixelalgorithmus. Er vergleicht was war, was kommt und baut dann pixel für pixel etwas was dazwischen passen könnte. Das führt zu:
- Artefakte

Was ist für dich der Vorteil?
Was sehe ich nicht?
 
Zuletzt bearbeitet:
Es ist etwa so sinnvoll wie ein Edding und ne Normschriftschablone.
Ich seh da jetzt eigentlich erstmal keine grundsätzlichen Probleme.
1677661027357.png

Man muss nur den richtigen Edding nehmen. Wie in der Softwareentwicklung halt auch. ;)
 
Frame Generation ist aber wirklich ein wenig Esotherik. Die KI muss quasi raten was passieren könnte. Das kann einfach nicht funktionieren, es sei denn da werden Quanteneffekte genutzt vielleicht irgendwann in der Zukunft mit Quantenbasierten Computern. Ich sehe aber für die aktuellen das nicht. Wird auch nie im Multiplayer funktionieren.

Natürlich ist FG in der aktuellen Form nicht perfekt und wird in gewissen Rahmenbedingungen halt immer eine gewisse Einbusse an Bildqualität haben, muss es ja.
Es ist halt die erste Form einer neuen Technologie die enorm viel potential hat. Je besser die AI wird im vorhersagen, desto besser wird die Technologie und dahin wird der Weg gehen.

FG hat in gewissen Szenarien auch jetzt schon einen Vorteil, evtl. nicht für Leute die jeden Frame analysieren, aber es sorgt im allgemeinen für ein smootheres Gameplayerlebnis mit Einbußen für Inputlatency und Imagequalität.

Was ist für dich der Vorteil?
Was sehe ich nicht?

Schau doch dein eigenes Video, dann hast du doch die Vorteile aufgelistet.
Man darf halt auch einfach nicht vergessen, das es sich hier um die erste Iteration einer Technologie handelt. FG wird in Zukunft besser.
 
Frame Generation ist aber wirklich ein wenig Esotherik. Die KI muss quasi raten was passieren könnte. Das kann einfach nicht funktionieren, es sei denn da werden Quanteneffekte genutzt vielleicht irgendwann in der Zukunft mit Quantenbasierten Computern.
Von dem was ich so gesehen habe, verschätzt sich die KI da noch öfter und es kommen Artefakte oder Fehler raus. Aber das ist ja alles noch relativ am Anfang.
Das Ziel ist da noch lange nicht erreicht. Wenn ein Mensch ein Bild vor sich hat mit einem Menschen drauf der die Arme runterhängen lässt, kann er das Bild trotzdem abmalen und die Arme auch so verändern, das sie hochgehalten werden. Auch bei Menschen hängt das mehr von Erfahrung ab, als von Intelligenz.

Nur weil es jetzt noch nicht perfekt funktioniert, ist kein Argument es nicht weiter zu verfolgen. Wenn man das immer so gemacht hätte, säßen wir heute noch in Holen.

Man gucke sich 3D-Grafikkarten von vor 20 Jahren an und dann aktuelle. Man hat die übrigens auch benutzt, obwohl sie gefühlt nur 100 Polygone in 640x480 darstellen konnten. Und dann überlegt man sich mal, was eine Grafikkarte in 20 Jahren vielleicht können wird.
 
Je besser die AI wird im vorhersagen, desto besser wird die Technologie und dahin wird der Weg gehen.
Erstmal ist da keine KI am Werk, sondern ein Pixelalgorithmus.
Dann wird auch nix vorhergesagt, sondern gewartet und dann ein generiertes frame verspätet dazwischengeschoben. Das ist genau der Punkt!

Wenn du so willst wird gewartet bis 2 frames existierten und dann ein Mittelwert-Bild dazwischen berechnet. Aber der musst halt warten bis die Zukunft berechnet ist um aus jetzt und Zukunft einen Mittelwert zu bilden.
Und das Warten ist das Inputlag.
Du kannst den Algorithmus so schnell machen wie du willst, du musst dennoch auf die Zukunft warten.
Und ich sehe keinen Weg wie man das umgehen sollte und kommen daher zu einer sehr negativen Bewertung von DLSS FG.

Ich kann dir die Videoreihe für Mathenerds zum Thema Bildbearbeitung und DLSS empfehlen, ist hier ganz unten im Spoiler verlinkt:
 
Der Algorithmus wird aber iteriert und lernt von den bisherigen Daten (= AI)
Das macht er nicht live bei dir am PC, aber die Daten werden im Hintergrund trotzdem verarbeitet.
Du profitierst mit dem vorgegeben Dataset quasi von dem learning der AI und das kann durch Treiberupdates geschehen.

Wenn es runterbrichst ist jede AI nen algorithmus.
 
Der Algorithmus wird aber iteriert und lernt von den bisherigen Daten (= AI)
Das macht er nicht live bei dir am PC, aber die Daten werden im Hintergrund trotzdem verarbeitet.
Du profitierst mit dem vorgegeben Dataset quasi von dem learning der AI und das kann durch Treiberupdates geschehen.

Wenn es runterbrichst ist jede AI nen algorithmus.
Das ist mir alles bewusst.
Mir ist nur technisch nicht klar wie du das Timing Problem beheben willst oder in die Zukunft sehen willst um das Timing Problem zu eliminieren.

Ich halte deswegen FG für einen Holzweg und sehe deutlich bessere Chancen darin die upscaler wie dlss2.3 weiter zu verbessern.
 
Das ist mir alles bewusst.
Mir ist nur technisch nicht klar wie du das Timing Problem beheben willst oder in die Zukunft sehen willst um das Timing Problem zu eliminieren.
Vielleicht nicht den kompletten nächsten Frame vorrausberechnen, sondern nur Bewegungsvektoren für den nächsten Frame.
Also ein Frame voll gerendert, ein Frame nur Wireframe und anhand AI mit dem vorhigen "gerendert".
Ist dann eigentlich ähnlich wie auch Videokompression funktioniert.
 
Der Algorithmus wird aber iteriert und lernt von den bisherigen Daten (= AI)
Das macht er nicht live bei dir am PC, aber die Daten werden im Hintergrund trotzdem verarbeitet.
Du profitierst mit dem vorgegeben Dataset quasi von dem learning der AI und das kann durch Treiberupdates geschehen.

Wenn es runterbrichst ist jede AI nen algorithmus.
Ja aber er kann nicht voraussehen was im nächsten Moment tatsächlich passiert. Die KI sieht erstmal nur das Bild vor deinen Augen, nur eine Millisekunde später wirst du von hinten von einer Rakete getroffen und je nach Physik mit Wechselwirkungen die einprogrammiert wurden verändert sich deine Position und dein Sichtfeld. Das ist für die KI/AI/Algorithmus niemals voraussehbar.
 
Das ist richtig, aber darum geht es auch nicht. Du wirst niemals, ohne das Spiel mit Absicht anzuhalten, einen Frame sehen, der das Problem darstellt. Es sei denn du hast superaugen und kannst nen Frame sehen der 8ms auf deinem Monitor dargestellt wird. (Annahme das du mindestens durch FG 120 FPS bekommst)

Darum geht es auch nicht, es geht darum durch so zwischengerechnete Frames die overall smoothness zu erhöhen und das schafft FG jetzt sogar schon. Das du als professioneller FPS Gamer damit nichts anfangen kannst, sollte jedem bewusst sein, darum geht es aber zumindest aktuell noch nicht.
 
Vielleicht nicht den kompletten nächsten Frame vorrausberechnen, sondern nur Bewegungsvektoren für den nächsten Frame.
Also ein Frame voll gerendert, ein Frame nur Wireframe und anhand AI mit dem vorhigen "gerendert".
Ist dann eigentlich ähnlich wie auch Videokompression funktioniert.
Ist aber für Multiplayer Shooter/Moba etc. nichts. Mag für Games die eher statischer Natur sind interessant sein. z. B Strategie Spiele. Da sind dank KI Interaktionen mögliche Positionen bekannt.
Wenn der Gegner seine Einheiten anvisiert zu Koordinate XY zu laufen und in der Regel sind die Befehle eh etwas verzögernd bis die Einheiten auf Befehle reagieren. Da ist es auch nicht entscheidend ob die Einschätzung mal daneben liegt.

Also Gutes Beispiel: Anno 1800, Simcity, Farmsimulator oder so etwas. Überall dort wo gewisse Aktionen weniger durch den Zufall von Spielern beeinflusst wird.
 
Ist aber für Multiplayer Shooter/Moba etc. nichts. Mag für Games die eher statischer Natur sind interessant sein. z. B Strategie Spiele. Da sind dank KI Interaktionen mögliche Positionen bekannt.
Wenn der Gegner seine Einheiten anvisiert zu Koordinate XY zu laufen und in der Regel sind die Befehle eh etwas verzögernd bis die Einheiten auf Befehle reagieren. Da ist es auch nicht entscheidend ob die Einschätzung mal daneben liegt.
Du vergisst, das ein Spiel sowieso durch Frames "gerastert" ist. Wenn du einen Frame siehst und dich 1ms später eine Rakete trifft, siehst du das nicht 1ms später, sondern erst 16ms später, wenn der nächste Frame gerendert ist. Wahrscheinlich weiß dein Rechner das noch nichtmal eine Millisekunde später schon, weil das Paket das ihm das mitteilt sowieso erst nach 5ms bei deinem Rechner ankommt.
Ob dich eine Rakete trifft oder nicht interessiert obendrein die GPU doch gar nicht. Das macht deine CPU und das kann sie ja auch machen. Das heisst nicht, das die GPU den ganzen Frame nativ rendern muss.
Der Punkt ist, das du nicht auf das nächste Bild warten musst, bevor du ein interpoliertes, das sogar noch vorher in der Timeline steht, sehen kannst.
Die CPU kann ja mit 240Hz rechnen. Die GPU rendert dann eben nur 120Hz nativ und 120Hz interpoliert. Oder vielleicht sogar dynamisch verteilt. Wenn sich nicht viel bewegt, vielleicht sogar mal 2-3 Frames in Folge nur interpoliert?
 
Du vergisst, das ein Spiel sowieso durch Frames "gerastert" ist. Wenn du einen Frame siehst und dich 1ms später eine Rakete trifft, siehst du das nicht 1ms später, sondern erst 16ms später, wenn der nächste Frame gerendert ist. Wahrscheinlich weiß dein Rechner das noch nichtmal eine Millisekunde später schon, weil das Paket das ihm das mitteilt sowieso erst nach 5ms bei deinem Rechner ankommt.
Ob dich eine Rakete trifft oder nicht interessiert obendrein die GPU doch gar nicht. Das macht deine CPU und das kann sie ja auch machen. Das heisst nicht, das die GPU den ganzen Frame nativ rendern muss.
Der Punkt ist, das du nicht auf das nächste Bild warten musst, bevor du ein interpoliertes, das sogar noch vorher in der Timeline steht, sehen kannst.
Die CPU kann ja mit 240Hz rechnen. Die GPU rendert dann eben nur 120Hz nativ und 120Hz interpoliert. Oder vielleicht sogar dynamisch verteilt. Wenn sich nicht viel bewegt, vielleicht sogar mal 2-3 Frames in Folge nur interpoliert?
Jetzt kommt noch Netzwerklatenz hinzu.
 
Alles was ihr diskutiert hat nix mehr mit der Technologie von DLSS 3.0 FG zu tun ;)

Was ihr da diskutiert ist irgendwas ganz anderes.
 
Für mich hat es dieser Artikel am ehesten verständlich beschrieben.


Jedenfalls empfinde ich die Technik als Bereicherung und in W3 bspw. funktioniert sie für mich sehr gut. Evtl. Input lags sind bei einem Hack n Slash Game nicht so dramatisch. Die Frage ist halt auch was Reflex da noch tun kann.

Ich hoffe sie entwickeln das weiter. Als erster Aufschlag ist FG jedenfalls schon mal top. Und solange optional in Games ja auch für jeden individuell einsetzbar.
 
Nur um zu verdeutlichen, das 1ms eben nicht bedeutet, das auch alles nach 1ms direkt sichtbar wird.


Du hast doch gefragt, wie man gedenkt das Latenzproblem zu beseitigen. Ich habe eine Idee dazu geliefert.
Nein natürlich nicht, aber gerade bei schnellen Shootern insbesondere im PvP, sehe die Technik nicht fruchten. (gerade wenn man mit der Sniper scoped) zählt jeder optische falsche Information. Es reicht ja schon das die Latenz einem optische Täuschungen erzeugen kann (lag Schatten).
Bei einem Flugsimulator oder ähnliches ist das was anderes oder Einzelspieler Game, vielleicht.

Du spielst einen Shooter im Singleplayer mit Frame Generation und der fühlt sich an wie eine Internet Session mit einem 60er Ping....

Da muss man um diese zusätzliche Latenz zu negieren noch mehr auf einen schnellen Bildschirm mit niedrigem Input lag achten. Ich sehe die Technik vielleicht nicht ganz als Sackgasse, aber es wird auch kein Heilsbringer sein. Bei DLSS ist ja auch das Problem die AI/KI muss erstmal effektiv antrainiert werden.

Die Resultate mit unbekannten Pattern sind halt auch dort noch nicht immer besonders gut. Ein unbekanntes Game ohne DLSS Integration und Trainingsdatenläuft halt noch nicht treiberseitig.
Da sollte meiner Meinung DLSS eigentlich hin, die Möglichkeit eine lokale Analyse zu fahren und die KI zu kalibrieren das sie auch ohne Cloud und Update Daten zumindest ein brauchbares Resultat liefern könnte.

Ein andere Baustelle wäre hier bei den Stufen noch die Qualitäten zu verbessern. DLSS kannst du aktuell auch nur wirklich mit Quality einigermaßen nutzen, manchmal noch Balance.. die Stufe ab Performance ist halt nicht brauchbar. Da sieht es teilweise besser aus mit herunter gesetzter Auflösung.
 
Zuletzt bearbeitet:
Für mich hat es dieser Artikel am ehesten verständlich beschrieben.


Jedenfalls empfinde ich die Technik als Bereicherung und in W3 bspw. funktioniert sie für mich sehr gut. Evtl. Input lags sind bei einem Hack n Slash Game nicht so dramatisch. Die Frage ist halt auch was Reflex da noch tun kann.

Ich hoffe sie entwickeln das weiter. Als erster Aufschlag ist FG jedenfalls schon mal top. Und solange optional in Games ja auch für jeden individuell einsetzbar.
Ja was nicht drin steht, das es nicht universell einsetzbar ist. FSR mehr oder weniger schon, es brauch keine Trainingsdaten und mit moderner Variante nicht mal unbedingt eine Engine Integration. Achja und hatte ich vergessen es läuft mit jeder Grafikkarte, wenn es im Game integriert wurde. Egal ob AMD/NVIDA/INTEL. Ich denke AMD wird in Punkt0 DLSS 3.0 auch etwas nachlegen. Der Unterschied ist aber damals gewesen AMD hatte sowas selbst noch nicht auf dem Schirm und auf der anderen Seite wollte man nicht seine anderen Produkte droppen (AMD fine wine). Jeder mit einer Geforce 9xx oder 1xxx hat sich zu Corona Zeiten über das "Geschenk" von AMD gefreut. Während man mit Nvidia nur noch froh war wenn die Treiber Day 1 keine Probleme mit der alten Architektur verursacht haben.

Was Nvidia aktuell macht kann man nicht für gut heißen, jede Generation kommt was neues (mag innovativ sein) aber droppt den Support für die Vorgänger.
Wie 2k5lexi schon gesagt hat, technisch ist Frame Generation auch mit zumindest der 3000er Generation technisch definitiv möglich...

Achja das neue DLSS für Videos benutzt zufällig Shader Cores für die Unterstützung der Realisierung... warte mal wie war das damals mit DLSS1.X ... Shader taugen nichts dafür man brauch unbedingt Tensor Cores und deshalb wird das nicht mehr Shader basierend unterstützt....

 
^^ Fanboy Gelaber. Und tschüss.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh