AMD FidelityFX Super Resolution: Bildqualität und Leistung im Test

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Naja DLSS basiert auf den Tensor Cores, die sowohl Pascal und Maxwell nicht haben. Wie genau hätte NVIDIA deiner Meinung nach diese Karten unterstützen sollen?
Naja durch genau sowas was AMD hier gemacht hat. Aber möglicherweise hat Nvidia das nicht auf dem Schirm das sowas so möglich ist.
Auch wenn ich kein Softwareentwickler bin, aber was ich so mitbekommen habe, gewinnt nie der komplexeste Algorithmus sondern der einfachste.
 
Bestimmt hätte das Nvidia auch machen können, aber dann würden sie ja weniger der RTX Karten verkaufen.
Denke mal hier haben sie sich hart verzockt, AMD hat im Endeffekt sehr gut gehandelt und wird sich wohl breiter durchsetzen.
Schade dabei hat Nvidia die bessere Technologie.
 
Einfach keine Tensor Cores einbauen sollen und sowas wie AMD machen sollen.
Die Tensorcores werden afaik auch für RTX benötigt. Das das auch ohne geht, hat NVidia erst später nachgeliefert. Eigentlich erst nachdem AMD vorgeführt hat, das es auch ohne gehen kann.
NVidia neigte aber schon immer dazu proprietäre Lösungen anzubieten. PhysX, G-Sync, RTX, DLSS, ... Wenn AMD NVidia nicht hinterherjagen würde und früher oder später offene Alternativen zu proprietären NVidia-Techniken rausbringen würde, könnte man heute vermutlich grundsätzlich nur noch mit NVidia-Karten überhaupt irgendwas spielen. :d
 
Naja durch genau sowas was AMD hier gemacht hat. Aber möglicherweise hat Nvidia das nicht auf dem Schirm das sowas so möglich ist.
Auch wenn ich kein Softwareentwickler bin, aber was ich so mitbekommen habe, gewinnt nie der komplexeste Algorithmus sondern der einfachste.
Dir ist klar das FSR und DLSS komplett unterschiedliche Implementierungen sind? Natürlich hätte man wie AMD einen "einfachen" Upscaler machen können, aber das war nicht die Idee, sondern man wollte mittels AI die negativen Effekte von eben solchen Upscalern (Unschärfe durch fehlerhafte Pixel in Bewegung) umgehen und hat deswegen explizit eine Hardwarelösung auf Basis der AI Cores geschaffen. Deswegen war DLSS 1.0 zum Beispiel auch nicht wirklich berauschend da man teilweise die selben Effekte wie nun bei FSR in Bewegung hatte. Bei DLSS 2.0 wurde das deutlich verbessert und wird vermutlich auch in Zukunft bei FSR besser werden, erfordert aber manuelles optimieren im Gegensatz zum DLSS Ansatz.
 
Naja durch genau sowas was AMD hier gemacht hat. Aber möglicherweise hat Nvidia das nicht auf dem Schirm das sowas so möglich ist.
Oder Nvidia hatte einfach keinen Bock so einen 08/15-Kram zu liefern, der nicht wirklich besser ist, als vorhandener Kram?

Auch wenn ich kein Softwareentwickler bin, aber was ich so mitbekommen habe, gewinnt nie der komplexeste Algorithmus sondern der einfachste.
Ihr redet immer von so komplex... Was ist denn an der Integration von DLSS so unglaublich komplex? Es ist vollkommen Latte, wie komplex der Algorithmus letzendlich ist, da die Softwareentwickler damit nicht in Kontakt kommen. Es geht lediglich darum, wie einfacher sich der Bums integrieren lässt und dies ist bei DLSS relativ simpel. Siehe meine Verlinkung zuvor.

Die Tensorcores werden afaik auch für RTX benötigt. Das das auch ohne geht, hat NVidia erst später nachgeliefert. Eigentlich erst nachdem AMD vorgeführt hat, das es auch ohne gehen kann.
Bitte was?
Es war nie die Rede davon, dass Raytracing nur mit dedizierter Hardware möglich sei. Die dedizierte Hardware dient lediglich dazu, die Berechnungen zu beschleunigen. Bei Raytracing gibt es Berechnungen, die auf Shadern eher suboptimal laufen. AMD hat bei Big Navi auch dedizierte Hardwareeinheiten eingebaut, welche dazu dienen Raytracing zu beschleunigen.
Ach ja, RT Cores != Tensor Cores :wink:
 
Ach ja, RT Cores != Tensor Cores :wink:
Jap, eben. Das Raytracing wird aber, soweit ich das verstanden habe, nie in voller Auflösung berechnet und immer Upscaled (bzw. muss entrauscht werden), und das machen bei RTX-Karten afaik die Tensor-Cores, die RT-Cores machen nur das Raytracing ansich.
 
Jap, eben. Das Raytracing wird aber, soweit ich das verstanden habe, nie in voller Auflösung berechnet und immer Upscaled (bzw. muss entrauscht werden), und das machen bei RTX-Karten afaik die Tensor-Cores, die RT-Cores machen nur das Raytracing ansich.
Wäre mir neu und dafür hätte ich dann doch gerne eine Quelle.
 
Zuletzt bearbeitet:
Also da gibt es verschiedene Umsetzungen. Für die Raytracing-Effekte können die Entwickler bestimmte Vorgaben machen, was in den Grafik-Presets anders gemacht werden soll, um die Qualität des Effekts einzustellen.

Am Beispiel von Battlefield V wäre das:
  • Niedrig: 15 % der Auflösung werden als Rays im Ray Tracing berechnet. Glatte Oberflächen ab dem Faktor 0,9 und weniger werden nicht mehr berechnet.
  • Mittel: 23.3 % der Auflösung werden als Rays im Ray Tracing berechnet. Glatte Oberflächen ab dem Faktor 0,9 und weniger werden nicht mehr berechnet.
  • Hoch: 31,6 % der Auflösung werden als Rays im Ray Tracing berechnet. Glatte Oberflächen ab dem Faktor 0,5 und weniger werden nicht mehr berechnet.
  • Ultra: 40 % der Auflösung werden als Rays im Ray Tracing berechnet. Glatte Oberflächen ab dem Faktor 0,5 und weniger werden nicht mehr berechnet.
Müssten mehr als die 15 bis 40 % berechnet werden, werden die unterrepräsentierten bzw. fehlenden Pixel, die sonst ein Rauschen wären, mit den Tensor Cores entrauscht.
 
Müssten mehr als die 15 bis 40 % berechnet werden, werden die unterrepräsentierten bzw. fehlenden Pixel, die sonst ein Rauschen wären, mit den Tensor Cores entrauscht.
Ach deshalb rauscht bspw. Control bei aktiviertem RT mit einer Radeon-Karte so?
 
Ach deshalb rauscht bspw. Control bei aktiviertem RT mit einer Radeon-Karte so?
Könnte zumindest erklären warum dieser Effekt nicht negiert wird, ich glaube da aber auch einfach das Remedy Raytracing bei Control auch nicht für AMD Karten optimiert hat, sonst hätte man das Rauschen auch durch andere Methoden etwas in Griff bekommen können, was bei anderen spielen offenbar ja möglich ist.

Nachtrag: Ich meine es wäre verschwendete Ressource die Tensor Cores gar nicht zu nutzen wenn ein Game kein DLSS feature bietet und die Funktion nicht aktiv ist, schließlich wäre das ja auch ungenutzte Rechenleistung die theoretisch vorhanden ist.

Hatte mir ohnehin schon die Frage gestellt ob statt dessen nicht mehr Shaderkerne und mehr Speicher einfach unterm Strich mehr Leistung oder adäquate Leistung gebracht hätte.
 
Zuletzt bearbeitet:
Ach deshalb rauscht bspw. Control bei aktiviertem RT mit einer Radeon-Karte so?
AMD hat seinen eigenen Denoiser, muss halt auch implementiert werden. Vielleicht ist er auch noch nicht so gut optimiert (da hab ich keine Erfahrungen).

Generell sind die ganzen Paralellentwicklungen nicht so Klasse. Hoffentlich wird vieles in DX12.x genormt werden.

Nach einem test mit der Demo von The Riftbreaker von Steam bin ich doch beeindruckt. Es ist fuer mich aber keine direktes Gegenstueck zu DLSS. Einfach ein sehr guter Upscaler mit "tricked out" Schaerfung.
Vorteile von FSR sind:
Keine Halos und Artefakte um bewegte Objekte. Fuer Spiele mit viel Bewegung finde ich es prinzipiell besser als das aktuelle DLSS 2.0, auch wenn es keinen direkten Vergleich in einem Spiel gibt.
Upscaling kostet kaum Leistung im Vergleich zur nativen Aufloesung.

Nachteile von FSR:
Keine "DLSS-Magie" beim Upscaling von kleinen Aufloesungen. Aufloesungen unter 1080p lassen sind nicht wirklich gut mit FSR hochscalieren.
Kein Alising beim Upscaling. Bei Kabeln, Gitter etc. ist DLSS 2.0 um klasssen besser (klar da NL Rekonstruktion).
Hat leider das selber Problem wie DLSS mit gelegentlich flackernden Texturen.

Also eigentlich keine direkter Konkurent zu DLSS, auch wenn es so vermarktet werden sollte. Mein Wunsch waere es in die naechste DX Version zu packen. Ist ja OpenCompute und braucht keine speziellen Recheneinheiten.
 
Zuletzt bearbeitet:
Ganz wichtig Farming Simulator 22 ist mit dabei.
Aber kein CP2077 oder CoD oder sowas.
Oder BF 2042
 
Ganz wichtig Farming Simulator 22 ist mit dabei.
Aber kein CP2077 oder CoD oder sowas.
Oder BF 2042
Glaub mal Cyberpunk2077 wird ganz schnell folgen, wenn der Trick auch auf Konsolen läuft wird CDPR schnell nachpatchen und andere auch, denn dort ist sowas bitter nötig.
 
Ganz wichtig Farming Simulator 22 ist mit dabei.
Ohne Witz, die vorgaenger sind beliebt und viele Spieler von solchen Sims spielen auf gammel Systemen wie Laptops mit APUs oder alte PCs. Ein sinnvoller Einsatz von FSR.
"Core Gamer" machen sich ja oft ueber die Sim-Spieler lustig. Aber es ist ein Markt der seit Jahren waehst und eine treue Anhaengerschaft hat.
 
Schon irgendwie lustig, hier haben wir nicht mal 50 Kommentare, bei Computerbase sind es fast 500.
Das wollte ich gestern auch schon schreiben!
Kann ich nicht nachvollziehen, FSR ist so ein Mega wichtiges Thema, wie kann man soviel Desinteresse haben "HardwareLuxx" ?
 
Glaub auf Hwluxx haben einfach mehr ne NVidia Karte und Fanboys
 
Jap, eben. Das Raytracing wird aber, soweit ich das verstanden habe, nie in voller Auflösung berechnet und immer Upscaled (bzw. muss entrauscht werden), und das machen bei RTX-Karten afaik die Tensor-Cores, die RT-Cores machen nur das Raytracing ansich.
Die Tensor Cores können für das Denoising genutzt werden, müssen aber nicht. Siehe hier.

https://www.nvidia.com/en-us/geforce/news/geforce-gtx-dxr-ray-tracing-available-now/ << da werden die Tensor Cores immer mit genutzt. Selbst bei DLSS off werden Tensor Cores für RTX Features verwendet, vor allem für "Advanced Raytracing" wie Nivida das nennt..
Keine Ahnung, ob ich Tomaten auf den Augen habe, aber deine Aussage wird durch deine Verlinkung nicht bestätigt. In der Grafik entstehen die Spikes bei den Tensor Cores erst am Ende durch DLSS, weil dort das komplette Bild hochskaliert wird.
 
Glaub auf Hwluxx haben einfach mehr ne NVidia Karte und Fanboys
Jedes Forum in ganze DE hat mehr Nvidia Karten Besitzer als AMD Karten Besitzer! Das doch normal wenn man die Marktanteile anschaut.
Und mehr Fanboys, neeeee.
Es sind andere Leute am Start, mit stark anderen Interessen hier bei HWL als bei CB.
Ok, CB hat mehr aktive Mitglieder, das ist aber auch ein Mit Grund!
 
Das wollte ich gestern auch schon schreiben!
Kann ich nicht nachvollziehen, FSR ist so ein Mega wichtiges Thema, wie kann man soviel Desinteresse haben "HardwareLuxx" ?


Vielleicht weil es im "Sonstiges" nicht wirklich gut aufgehoben ist. Sollte es im Grafikkartenbereich auch einen Thread geben ist das was anderes und mein Beitrag kann ignoriert werden aber wer schaut denn täglich hier rein?
 
Das wollte ich gestern auch schon schreiben!
Kann ich nicht nachvollziehen, FSR ist so ein Mega wichtiges Thema, wie kann man soviel Desinteresse haben "HardwareLuxx" ?
Vielleicht weil seit Release von DLSS von den AMD-Fanbois immer gesagt wurde das ist total nutzlos, lächerlich wie NVIDIA sowas braucht für ihre kaputten GPUs, yadda yadda yadda. Da könnte man jetzt sehr gut Heuchelei vorwerfen, vielleicht auch ein Grund für die, zur Abwechslung, sehr normale und sachliche Diskussion über das Thema.
Habs mal mit meiner 3080 in Evil Genius 2 und Anno 1800 jeweils auf Ultra Quality oder wie das heißt getestet. Bei Anno konnte ich bis auf ca. 5% mehr FPS keinen Unterschied an der Bildqualität oder ähnlichem feststellen. Bei EG2 war der FPS Zuwachs bei über 10%, allerdings gab es gerade bei Kamerafahrten und silbernen Objekten mit Spiegelungen dann ein sehr unruhiges Bild. Würde vermutlich nicht auffallen nach einiger Zeit aber bei solchen Tests achtet man ja extrem auf sowas.
Bin mal gespannt auf die ersten Titel sowohl mit FSR als auch DLSS - in meinem absoluten Traumszenario könnte man sogar beides gleichzeitig nutzen, aber das wird nicht passieren.
 
Zuletzt bearbeitet:
Und was hat das damit zutun, dass AMD in irgendeiner Weise verhindern sollte, dass ein Spiel DLSS und FSR gleichzeitig supportet? Das war doch die Aussage des Artikels.

Es gibt schlicht und ergreifend absolut keinen Grund für AMD, etwas dagegen zu unternehmen, dass ein Entwickler beide Technologien in seinem Spiel unterstützt und somit ist die Aussage des Artikels ziemlicher Quark.
Ja gut, beides wird man evtl. zähneknirschend in Kauf nehmen, aber ist natürlich dennoch ärgerlich, wenn Nvidia Karten im direkt Vergleich dann irgendwie besser abschneiden.
Nur DLSS ohne FSR wird AMD aber sicher nur ungern in Kauf nehmen, das wollte ich oben sagen.
 
Einfach keine Tensor Cores einbauen sollen und sowas wie AMD machen sollen.
Eine schlechtere Technologie entwickeln nur um hardwareunabhängig zu sein?
Kann man machen, muss man aber nicht. Sicher erreicht man damit mehr potentielle Nutzer, aber was hat man als Hersteller davon? Man lässt damit Potential der neueren Hardware ungenutzt.
Es war mutig und wie sich herausgestellt hat, sinnvoll es anders zu machen. Der Erfolg gibt ihnen Recht.
AMD hätte FSR vor Jahren bringen können und DLSS weniger Chancen lassen. Haben sie aber nicht.

Ich geh allerdings auch davon aus dass in ein paar Jahren, eine große Zahl an Games die DLSS unterstützen, auch FSR implementieren.
 
Zuletzt bearbeitet:
1
2

Welches ist Nativ 4K
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh