Ein Ersteindruck: Eine Analyse zu FSR 3 und Fluid Motion Frames

Da muss der Opensource Apostel aber 5er Dioptriengläser haben um keine Unterscheide zu erkennen, DLSS macht seit Einführung als belächeltes Feature doch deutlich mehr Sinn als der FSR Murks.

Machine Learning ist halt eben kein Gebiet wo AMD mit der Radeon punkten kann, da läuft man Gefahr selbst bei sich eingekauften Projekten von Steinzeit DLSS.dlls vorgeführt zu werden.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Funkt sogar mit 1000er Serie Karten (NV) .. kind of ... ;)
 
Ich habe nen LG C1 TV mit A9 AI Engine. Das berechnen von Zwischenbildern um auf die Zielbildrate von immer 120 Bildern zu kommen ist fast perfekt. Ein Film läuft also nicht mit 29fps sondern mit 120fps. Genau so klappt das auch mit Ps4/5/PC Spielen.
Mit anderen Worten ich nutze "FSR3" schon seit 4 Jahren...
Mich würde eher mal interessieren in wie weit vom C1 zum C3 sich diese Technologie verbessert hat.
 
Ich habe nen LG C1 TV mit A9 AI Engine. Das berechnen von Zwischenbildern um auf die Zielbildrate von immer 120 Bildern zu kommen ist fast perfekt. Ein Film läuft also nicht mit 29fps sondern mit 120fps. Genau so klappt das auch mit Ps4/5/PC Spielen.
Mit anderen Worten ich nutze "FSR3" schon seit 4 Jahren...
Mich würde eher mal interessieren in wie weit vom C1 zum C3 sich diese Technologie verbessert hat.
Der Unterschied ist die effektive Latenz. Die ist auf deinem LG weitaus höher als mit FSR3 und FreeSync.
 
Ich habe nen LG C1 TV mit A9 AI Engine. Das berechnen von Zwischenbildern um auf die Zielbildrate von immer 120 Bildern zu kommen ist fast perfekt. Ein Film läuft also nicht mit 29fps sondern mit 120fps. Genau so klappt das auch mit Ps4/5/PC Spielen.
Mit anderen Worten ich nutze "FSR3" schon seit 4 Jahren...
Mich würde eher mal interessieren in wie weit vom C1 zum C3 sich diese Technologie verbessert hat.

Das tu ich auch, aber bei Spielen ist das meist unangenehm*

* die Latenz steigt auf über 100ms
 
Als allererstes ist es super das AMD diese Technologie für alle Hersteller brauchbar macht. So das alte Grafikkarten nochmal Leben eingehaucht bekommen. Das es dann evtl. minimale Abstriche bei der Bildqualität gibt, finde ich jetzt nicht so schlimm. Es sollte halt beim Spielen nicht massiv stören.

Sie hätten auch den proprietären Weg gehen können, haben Sie aber nicht und das kommt allen zugute, die es gebrauchen können.
Ich finde solche Technologien sind gerade für ältere GPUs gedacht. Und es ist auch schön dass FSR selbst auf NVIDIA läuft.

DLSS ist ausgereifter, aber eben auch NVIDIA only und selbst wenn man NVIDIA nutzt darf man immer brav neu kaufen für die neuste Version. Daher ist sowas eher als Dreingabe zu sehen. Zumindest macht Leistung immer am meisten Sinn, FSR/DLSS kommen erst wenn die nicht mehr stimmt. Oder für Experimente mit RT. RT ist geil aber für mich kein kaufgrund für maßlos überteuerte Produkte. Zumal Spiele mit RT selten sind. Von dem was ich momentan Spiele fielen mir da nur Darktide und Cyberpunk ein. BFV würde auf NVIDIA vermutlich laufen, ist aber keine Rechtfertigung, eher ein Beispiel für einen gescheiterten Entwickler. RT auf AMD läuft in BFV nämlich nicht, weil es nie jemand für nötig empfunden hat das mal nachzupatchen - Wohlgemerkt bei DEM RT-Vorzeigetitel der 2018 nur so gehyped wurde, dann aber komplett fallen gelassen wurde.
 
Ich finde solche Technologien sind gerade für ältere GPUs gedacht. Und es ist auch schön dass FSR selbst auf NVIDIA läuft.

DLSS ist ausgereifter, aber eben auch NVIDIA only und selbst wenn man NVIDIA nutzt darf man immer brav neu kaufen für die neuste Version. Daher ist sowas eher als Dreingabe zu sehen. Zumindest macht Leistung immer am meisten Sinn, FSR/DLSS kommen erst wenn die nicht mehr stimmt. Oder für Experimente mit RT. RT ist geil aber für mich kein kaufgrund für maßlos überteuerte Produkte. Zumal Spiele mit RT selten sind. Von dem was ich momentan Spiele fielen mir da nur Darktide und Cyberpunk ein. BFV würde auf NVIDIA vermutlich laufen, ist aber keine Rechtfertigung, eher ein Beispiel für einen gescheiterten Entwickler. RT auf AMD läuft in BFV nämlich nicht, weil es nie jemand für nötig empfunden hat das mal nachzupatchen - Wohlgemerkt bei DEM RT-Vorzeigetitel der 2018 nur so gehyped wurde, dann aber komplett fallen gelassen wurde.
Ja das ist halt so ein akutes Problem allgemein, schön teasen und die Leute zum kaufen animieren und dann fallen lassen.
Das macht Nvidia aktuell auch Serienmäßig im warten Sinn. z. B Frame Generation mit der Nivida 3000er.
Technisch spricht nichts dagegen und dann heißt aber die Latenzen sprechen dagegen. Anstelle ein proof of concept zu zeigen warum die Kunden enttäuscht seien dürfen wird das weggeschwiegen und mit technischen Unwägbarkeiten argumentiert.
Dann kommt der KI support für Pathtracing bei dem die alten Karten eh unterdimensioniert sind dann erhalten diese support für etwas sie wirklich technisch offensichtlich nicht wirklich nutzen können...

Anderes Beispiel ob man es mag oder nicht Diablo4, nettes ARPG mit grandioser Story... viel Marketing etc. Ernüchterung nach dem Durchspielen, mehr gibt es nicht (keine echte Wiederspielbarkeit).
Das geht bei vielen Dingen so weiter. Auch AMD muss sich nicht mit Ruhm bekleckern, gab es vor jedem GPU Release die Blase echte Konkurrenz zu Nvidia aufbauen zu können. Leider muss man sagen fürs Gaming ohne besondere Features (FSR mal außen vor und die Reflex variante von AMD) nicht bahnbrechendes. Wenigsten mehr RAM fürs Geld, dafür sind die Karten für Produktiv Einsatz absolut abgespeckt worden. Da hast du mit Nivida mehr davon, auch wenn der Gaming Treiber dort auch Riegel vorschiebt, gibt es die Studio Treiber.
 
Es wird auch wieder kommen bei der 5000er und DLSS5 oder was auch immer dann kommt. Ich würde natürlich trotzdem eine NVIDIA kaufen, aber dann eben gebraucht aus der Ada-Generation, falls AMD dann nichts auf die Reihe bekommt. Käufer für die 5090 wird es immer geben, selbst wenn die 3K kostet, siehe Titan V. Und das war nichtmal eine richtige Gamingkarte, sie machte aus gamingsicht nahezu null Sinn. AMD scheitert vor allem beim Marketing. Das ist aber nun auch nichts Neues mehr. Die 7000er sind nicht das was manche erwartet hatten, doch sind sie auch kein totaler Schrott. Die Leistung der 7900ern ist problemlos konkurrenzfähig. Die anderen Karten lohnen weniger weil sie nicht sonderlich schneller/besser als der Vorgänger zu einem ähnlichen Preis sind.

Im Produktiveinsatz ist NVIDIA vor allem auch sehr gut optimiert. CUDA ist für manche Sachen praktisch unverzichtbar. Dazu war AMD im Highendmarkt einige Jahre praktisch tot. Seit den 290ern ging es nur noch bergab, so gesehen gibt es erst seit der 6900 XT überhaupt mal wieder ein Rennen auf knapper Augenhöhe. Mit RDNA stehen sie zumindest nun deutlich besser da als zu GCN-Zeiten. Und sie müssen nichtmal die Spitze schaffen - 80-90 % der Leistung zum halben Preis des Konkurrenzprodukts sind mir deutlich lieber.
 
Es wird auch wieder kommen bei der 5000er und DLSS5 oder was auch immer dann kommt. Ich würde natürlich trotzdem eine NVIDIA kaufen, aber dann eben gebraucht aus der Ada-Generation, falls AMD dann nichts auf die Reihe bekommt. Käufer für die 5090 wird es immer geben, selbst wenn die 3K kostet, siehe Titan V. Und das war nichtmal eine richtige Gamingkarte, sie machte aus gamingsicht nahezu null Sinn. AMD scheitert vor allem beim Marketing. Das ist aber nun auch nichts Neues mehr. Die 7000er sind nicht das was manche erwartet hatten, doch sind sie auch kein totaler Schrott. Die Leistung der 7900ern ist problemlos konkurrenzfähig. Die anderen Karten lohnen weniger weil sie nicht sonderlich schneller/besser als der Vorgänger zu einem ähnlichen Preis sind.

Im Produktiveinsatz ist NVIDIA vor allem auch sehr gut optimiert. CUDA ist für manche Sachen praktisch unverzichtbar. Dazu war AMD im Highendmarkt einige Jahre praktisch tot. Seit den 290ern ging es nur noch bergab, so gesehen gibt es erst seit der 6900 XT überhaupt mal wieder ein Rennen auf knapper Augenhöhe. Mit RDNA stehen sie zumindest nun deutlich besser da als zu GCN-Zeiten. Und sie müssen nichtmal die Spitze schaffen - 80-90 % der Leistung zum halben Preis des Konkurrenzprodukts sind mir deutlich lieber.

Naja im professionellen Einsatz kann AMD einfach nichts Anbieten, da scheitert es direkt an den Treibern.
 
Die Analyse zu FSR 3 (wohlgemerkt nicht dem treiberbasierten FMF) von HUB :

Zusammenfassung:
- Das (für den Gebrauch doch sehr schwerwiegende) Problem mit VRR/Vsync in der aktuellen FSR3-Implementierung wurde hier ja bereits diskutiert
- Qualitativ ist FSR 3s FG überraschend gut. DLSS FG kann feine Details manchmal etwas besser interpolieren und hat manchmal etwas weniger Probleme mit plötzlichen Bewegungen. FSR 3 händelt die UI aber massiv besser, da es sie nicht interpoliert.
- Der Overhead von FSR 3 ist niedriger als der von DLSS FG, sodass FSR 3 FG etwas höhere FPS erreichen kann.
- Zurzeit funktioniert radeon anti-lag noch nicht mit FSR 3, die Latenz ist daher höher als bei DLSS FG + Reflex, aber mit anti-lag+ könnte sie vielleicht grob vergleichbar werden
- das größte Problem von FSR 3 (abgesehen von Punkt 1) wird sein, dass exklusiv FSR 2 als Upscaler verwendet werden muss und nicht auf XeSS oder DLSS SR zurückgegriffen werden kann. Während die Interpolierung grob vergleichbar gut ist, sorgt dieser Fakt in den Augen von HUB dafür, dass die Gesamtbildqualität insb. bei Bewegungen bei DLSS FG merklich überlegen ist, v.a. bei niedrigeren Zielauflösungen. HUB schätzt, dass das auch so bleiben wird, denn ansonsten hätte man ironischerweise das beste FSR 3-Erlebnis, wenn man FSR 3 auf Nvidia-GPUs verwenden würde. Sehr schade!

Interessanterweise deutet das Ergebnis darauf hin, dass die RTX-40-Exklusivität von DLSS FG technisch wohl unbegründet zu sein scheint. (Edit: keine Aussage von HUB, sondern mir!)
 
Zuletzt bearbeitet:
Analyse von Digital Foundry

 
Interessanterweise deutet das Ergebnis darauf hin, dass die RTX-40-Exklusivität von DLSS FG technisch wohl unbegründet zu sein scheint.
Das ist gerade interessant, denn FSR3 dürfte auch auf 3000er Karten oder gar älter funktionieren. Das ist dann schon fast etwas bitter für deren Käufer. Die Technologie wird allerdings auch noch einige Zeit brauchen bis sie ausreift. War ja bei DLSS auch nicht anders, DLSS 1.0 war damals schlimmer als FSR heute.
 
Und was sagt jener bitte ?
Er sagt AMDs Lösung ist als reine Softwarelösung letztlich genau so gut wie nVidias proprietäre. Bildunterschiede gibt es durch DLSS vs. FSR im Upscaling, aber FG ist genausogut, auch latenzmäßig, wobei aber Anti-Lag+ noch nicht richtig funktioniert.

Zu den Problemen mit VRR und Vsync ist er mit AMD im Gespräch.

Dazu liefert er sehr interessante Analysen. Manche Frames sind ohne Vsync nur 1 mS zu sehen, daher bringt gerade Treiber-FMF noch nicht so viel. Nach einem Zwischenframe kommt sehr schnell das vorgerenderte Frame hinterher, was dann zu sehr unregelmäßigen Frametimes führt. Das wird sicher mit einem einfachen Algorithmus anpassbar sein, so dass einfach mit der Ausgabe halb so lange gewartet wird wie das parallel berechnete neue Frame braucht.

Immortals of Aveum und Forspoken nutzen inzwischen bereits veralteten Code, da wird auf jeden Fall weiter dran gearbeitet.

Entscheidend ist wohl erstmal gewesen überhaupt die Interpolation und Framebuffering fertigzustellen. Dann wird Vsync genutzt um es glattzuziehen.

Wenn die treiberseitige FMF genutzt wird kommen die extra-Frames ganz zum Schluss dazu, daher funktioniert Vsync da nicht. Es wird quasi auf das Original-Frame gesynct. Daher dann auch das Tearing.

Bei Implementierung in Spielen hat der Algorithmus die Informationen direkt vom Spiel vor dem Rendering und kann daher früher in der Pipeline das Zwichenbild vorbereiten. Dann funktionieren auch Framebegrenzer und Vsync.

Für VRR müssen "nur" die Frametimes geglättet und das Triggersignal an den Monitor auf die bereitgestellten Frames angepasst werden. Dafür muss das alles umgestrickt werden, denke aber das ist alles machbar. Vermutlich geht dann auch Anti-Lag+ weil das ja auch an VRR hängt..
 
Hier noch eine kürzlich erschienene Analyse von HUB zu FMF, also der treiberbasierten, spielunabhänigen Framegeneration, die keine Motion Vectors nutzt:


... TldR (bzw. in dem Fall eher W): Mal von den Framepacing-Problemen, die zurzeit auch FSR 3 noch plagen, abgesehen, ist hier die Qualität ziemlich schlecht und die Latenz deutlich höher als bei FSR 3. Die UI wird, anders als bei FSR 3, ebenfalls sehr mies in Mitleidenschaft gezogen.

Wenn man schnelle Bewegungen macht, schaltet sich die Technik komplett ab, da sie dann erst recht nichts mehr sinnvoll generieren kann (wie schnell die Bewegungen dafür sein müssen, ist spielabhängig).
 
Ist das nicht bei DLSS teilweise genauso? Dafür gibts ja wohl NVIDIA Reflex. AMD wollte doch eine änliche Technik bringen.
Der Satz bezog sich auf einen Vergleich zwischen den beiden AMD-Framegen-Technologien, die Latenz von FMF Framegeneration ist zurzeit massiv höher als die Latenz von FSR 3 Framegeneration.
(Radeon Anti-Lag ist noch in keiner von beiden Technologien implementiert, FSR Framegeneration käme damit aber wohl tatsächlich auf eine vergleichbare Latenz wie DLSS Framegeneration)
 
Einfach sich darüber freuen etwas für umsonst zu bekommen, was nicht teil des ursprünglichen Produktes gewesen ist. Abwarten ob und wie das besser wird, wir werden wahrscheinlich bei der nächsten Generation auch an der HW Architektur eine optimierte Lösung sehen die sich dem Problem widmen wird. Auch wenn es keine reine HW-Dedizierte Lösung wird.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh