FidelityFX Super Resolution: AMD strebt offenbar plattformübergreifende Lösung an

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.949
ffxv-dlss.jpg
Neben der gestrigen Vorstellung der Radeon RX 6700 XT wurde auch erwartet, dass AMD sich zur Einführung der AI-Upscaling-Technik FidelityFX Super Resolution äußert. Aber dazu verlor AMD leider kein Wort. Gegenüber LinusTechTips aber schien sich AMD geäußert zu haben. Aus dem Video kann wie folgt zitiert werden:
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bzgl. FidelityFX gibt es ja Gerüchte, dass es bald mit einem neuen Treiber kommen soll:
 
Bzgl. FidelityFX gibt es ja Gerüchte, dass es bald mit einem neuen Treiber kommen soll:
Mit dem nächsten Treiber Update macht meine 5 Euro Kaffeemaschine auch nen Espresso ;D
 
Wenn man nichts sinnvolles beizutragen hat, einfach mal ....

Ich fände es übrigens nicht schlecht wenn es Plattformübergreifend wäre.
Selbst wenn ich daran Zweifel, wäre es eine Möglichkeit den alten Konsolen noch mal zum Ende einen kleinen Boost zu verschaffen aber ich vermute dass das wohl nicht passieren wird :P
 
Hat sich wohl erledigt das es so schnell da sein wird.
da wäre NV ja dann deutlich im Vorteil weil je länger man wartet desto besser wird DLSS werden.
DLSS 1.0 war ja zu anfang auch voll der rotz aber nun ist das ja wirklich richtig gut.
 
DLSS 1.0 war ja zu anfang auch voll der rotz aber nun ist das ja wirklich richtig gut.

Kommt ganz auf den Anwendungsfall drauf an. WQHD auf 4k hoch zu skalieren funktioniert in der Tat sehr gut. Bei FHD und drunter auf WQHD siehts schon nicht mehr so toll aus.
 
@brometheus
DLSS2.0 ist da aber garnicht schlecht.
wenn man sich mal Wolfenstein 2 ansieht und von 1440p auf 4k hochrechnen lässt dann sieht das bild besser aus als wenn man es in nativem 4k berechnen lässt.
1080p zu 4k ist da auch richtig gut und erreicht quasi fast die native 4k Qualität.
aber das ist halt nur ein Spiel.
habe da aber mal gelesen das es wohl recht komplex sein soll DLSS richtig zu implementieren.
 
habe da aber mal gelesen das es wohl recht komplex sein soll DLSS richtig zu implementieren.
Die Unreal Engine soll DLSS bald unterstützen. Da wird man sehen was kleinere Studios damit dann erreichen können.

Was AMDs Lösung angeht - sie werden sich beweisen müssen. Alle Platformen zu unterstützen kann leider auch ein Nachteil sein weil...
Ich fürchte sie könnten das Selbe spiel wie mit Freesync abspulen: Günstiger und freier/verbreiteter, aber dafür eben nicht ganz an der Konkurenz ran.
 
Die Unreal Engine soll DLSS bald unterstützen. Da wird man sehen was kleinere Studios damit dann erreichen können.

Was AMDs Lösung angeht - sie werden sich beweisen müssen. Alle Platformen zu unterstützen kann leider auch ein Nachteil sein weil...
Ich fürchte sie könnten das Selbe spiel wie mit Freesync abspulen: Günstiger und freier/verbreiteter, aber dafür eben nicht ganz an der Konkurenz ran.
Im Besten Fall gibt es dann eine gleichwertige Einstellung für Nvidia und für AMD.
Ich fürchte aber, dass dann insbesondere die kleinen Studios nur noch für DLSS optimieren und die Spiele dann auf AMD-Hardware grütze laufen. NVIDIA GameWorks läßt grüßen.
Bis AMD nachpatchen kann haben sie dann schon de ruf weg, miese Karten/Treiber zu haben. Ob das Spiel zwei Wochen später auch auf AMD brauchbar läuft ist dann schon wieder uninteressant.

Cunhell
 
Is ja schön was die alles anstreben, aber ich fände es irgendwie besser, wenn das endlich mal ankommt beim Kunden.
Die "Wir haben das auch!" - Trommel bearbeiten sie ja nun schon eine echt lange Weile. Im Endeffekt immer nur Worte ohne Resultate.

Wie so oft in der Vergangenheit, verbockt es AMD mit der Software, obwohl die Hardware echt gut ist.
Is ja nett, wenn sie "irgendwann" gleichziehen, aber bis dahin gibt es dann DLSS 3.0, jede Engine supported es (jetzt ja schon bald so) und keinen Entwickler kümmert mehr die AMD Implementation.
Dann kommen die Forencowboys und erzählen, dass Nvidia daran schuld wäre,...

Immer dieselbe Leier.
Nu haben sie die Hardware einigermaßen im Griff, dann scheitert es an so nem Schmaren. Das sollte doch viel leichter / billiger zu entwickeln sein, als die Hardware zu bauen. DLSS Like Implementationen lassen wir in der Uni von Studenten machen als POC. Da fehlt meist nicht viel zu einer echt guten Lösung. AMD wird doch wohl bessere Entwickler haben als 5. Semester Studenten,...
 
Echt ein DIlemma für AMD in dieser Gen, endlich haben sie mal wieder konkurenzfähige GPUs und nun ist Nvidia
in Sachen Software enteilt. Ich hatte persönlich richtig Bock auf eine 6800XT, aber DLSS und die bessere RTX
Performance ließen mich dann doch wieder bei Nvidia landen.

Ich spiele mitlerweile fast ausschließlich auf 4k und gerade auf meinem mITX System mit 3060ti macht DLSS den
großen Unterschied aus. Control, Shadow of the Tomb Raider, CP2077, Nioh 2...60Fps mit maximalen Details und
RTX mit DLSS, ohne teilweise nur die Hälfte. In DLSS Spielen wischt die 3060ti selbst mit der 6900XT den Boden
und das bei kaum merklichem Schärfeverlust. Vorallem auf einem 55zoll 4k TV mit etwas Sitzabstand kann ich
teilweise sogar bei DLSS 1080p -> 2160p keinen wirklichen Unterschied feststellen. Da sieht sogar TAA Kanten-
glättung häufig unschärfer aus.

Ich wünsche es AMD, dass ihr Fidelity FX zumindest 50% des Performanceboosts, bei ähnlicher Bildschärfe, erreicht.
Das wäre definitiv ein guter Anfang, wirklich aufschließen wird man wohl nur können, wenn eigene KI-Kerne verbaut
würden. Vielleicht in der Next-Gen...
 
ich erinnere mich noch daran als 3D in den Kinos DAS Riesending war.

DLSS & RT hilft mir auch nix wenn das Spiel scheisse ist.

Für die nächste Kartengeneration brauchste wohl ein Upgrade deines Stromversorgers und die Firma Linde die deine Stickstoffkühlung beliefert.

es wäre wohl eher Zeit für einen Generationensprung der Chips. Ich bin Gespannt

Ich warte sehnsüchtig auf meine eigene Holokammer :d
 
Ich lese immer nur:

Seht her unsere Grafikkarten sind zu langsam, deshalb gibts jetzt ein Buzzword-Upscaler und gegen das Matchebild dann den Buzzword-Nachschärfer...

Sobald die Karten dann mal schnell genug sind wird das Zeug wieder eingestapft weil es einen Mehraufwand bedeutet.
 
Ich lese immer nur:

Seht her unsere Grafikkarten sind zu langsam, deshalb gibts jetzt ein Buzzword-Upscaler und gegen das Matchebild dann den Buzzword-Nachschärfer...

Sobald die Karten dann mal schnell genug sind wird das Zeug wieder eingestapft weil es einen Mehraufwand bedeutet.
Problem ist, Karten werden sehr lange nicht die Games mit 4k mit ALLEN Reglern rechts rendern können. Ich rechne mit 5-7 Jahren. Bis dahin ist so eine Technik durchaus eine gute Alternative.
 
Wenn DLSS eine nahezu native Bildqualität erzeugt, warum sollte man die doppelte Leistung verbraten um quasi das Gleiche zu erreichen? DLSS spart somit auch noch Strom und Silizium ein. Ich denke Ki Upscaling wird sich dauerhaft durchsetzen. Die Grafik der Spiele entwickelt sich ja auch abseits der Auflösung weiter (RTX z.B.), was mit DLSS eingespart werden kann, sollte lieber dahin fließen.
 
Genau. Zudem sind meine 5-7 Jahre vieleicht auch noch zu niedrig geschätzt, denn es gibt noch einen weiteren Schritt den man gehen kann: Echtes Raytracing wie es in Renderingsoftware eingesetzt wird (Disney Pixar Filme usw. wo Rechencluster an jedem Frame einzeln arbeiten). RTX ist erstmal "nur" sogenanntes "Pathtracing" - eine Zwischenstufe welche zugunsten der Performance, einen Kompromiss zwischen polygon Rendering und vollem Raytracing darstellt.
 
was mit DLSS eingespart werden kann, sollte lieber dahin fließen.

Also,... ich stimme Dir da voll und ganz zu. Das vorweg.

ABER:
Das ist ein gefährlicher Weg.
Wenn dann DLSS viel besser läuft als FidelityFX, dann hat AMD verschissen.
Sollten Spiele mit DLSS im Hinterkopf entwickelt werden, dann bekommen wir viel früher Fotorealistische Spiele mit RTX, ohne Frage. Das wäre total genial!... aber halt nur mit NVidia GPU.
Und eigentlich wollen wir ja von nur einem Team am Markt weg...

Von dem her bin ich etwas gespalten.
Die Idee dahinter gefällt mir sehr gut. DLSS2.0 sieht meist besser aus, als natives rendern. Gründe dafür gehen etwas arg weit in die wissenschaftlichen Bereiche, um das hier nun aufzudröseln.
Diesen Performancegewinn durch noch bessere Grafik einzusetzen, ist natürlich sehr verlockend. Aber eben auch ein mögliches Problem für AMD (und Intel wohl auch dann).
 
Ich finde DLSS sieht nicht besser aus, sobald man mehr als die erste Stufe hinzugefügt, fängt das Bild an sich teilweise zu verfälschen... Es ist nicht schlecht um um nochmal einen Performance Boost zu bekommen ohne optische Einschlüsse zu erhalten, aber zu viel DLSS bringt zwar krasse Performance aber auch krasse Veränderung, es ist noch weit entfernt optimal zu sein. Vor allem wenn Spieleentwickler soviel Zeit rein stecken müssen damit es nutzbar wird.

Auch fehlt die Möglichkeit DLSS global zu verwenden. Das ist ein absolutes Manko. Aktuell sieht es auch aus wenn ich an die Interviews mit den Cyberpunk Entwicklern denke so aus, als hätte Nvidia sogar Manpower rein gesteckt damit CDRP das realisieren konnte, auch Teil der release Verzögerung...
 
Ich finde DLSS sieht nicht besser aus, sobald man mehr als die erste Stufe hinzugefügt, fängt das Bild an sich teilweise zu verfälschen... Es ist nicht schlecht um um nochmal einen Performance Boost zu bekommen ohne optische Einschlüsse zu erhalten, aber zu viel DLSS bringt zwar krasse Performance aber auch krasse Veränderung, es ist noch weit entfernt optimal zu sein. Vor allem wenn Spieleentwickler soviel Zeit rein stecken müssen damit es nutzbar wird.

Da es nun in Engines vorhanden ist, geht der Aufwand gegen 0.
Ist ne Checkbox.

Und natürlich kann man es eben AUCH in Performance Mode setzen, dann sieht es nicht mehr besser aus.
Es geht aber explizit um den schicken 2.0 Modus, der definitiv besser als nativ wirkt. Der Performancegewinn dadurch ist halt geringer, aber weiterhin vorhanden und je nach Game wohl so bei 50-75%.

Man sagt ja auch nicht, dass ein 4k Monitor pixelig ist, nur weil man ihn auch auf 720p stellen kann. ;-)
 
Ja wie gesagt, ist nicht schlecht und war ein Kaufargument für Cyberpunk. Wenn allerdings AMD nachlegt und die das Global hinbekommen ohne das es speziell vom Entwickler unterstützt werden muss, wäre das halt ein + für alle Games, vor allem auch mit der alten Gen kompatibel die schon FidelityFx unterstütz hat.
 
In allen Spielen nutzbar ohne Qualitätsverlust, das wäre mal was. Das bekommt nämlich auch NVIDIA nicht hin. Darum sehe ich in DLSS auch wenig Kaufargument, da es kaum unterstützt wird.
 
Bin skeptisch.

Ich habe noch nie DLSS in Aktion gesehen, muss ich sagen. Das, was man aber in vergrößerten Ausschnitten sieht, ist nicht besser als native Auflösung. Ok, die Texturen sind höher aufgelöst etc., aber das Gesamtbild profitiert überhaupt nicht davon. Im Gegenteil, das Bild weist Fehler auf durch das Funktionsprinzip.

Ich will echt hoffen, dass da mal vernünftiges Upscaling kommt. Also ich meine etwas, was man im Treiber einstellen kann bei jedem modernen Spiel, ohne dass der Spieleentwickler was implementieren muss.

RedGamingTech hat da ein Video herausgebracht, was AMDs Lösung geleakt hat (angeblich). Nach seiner Aussage steigt die Performance um bis zu dem Faktor 2, soll aber eher so eine Art Radeon Boost (also bewegungsabhängige Lösung mit AI-Unterstützung durch DirectML) sein. Wenn ich es jetzt richtig verstanden habe, soll das auch auf Navi1 laufen und laut anderen Leaks auch auf den Konsolen, da Tensor-Cores weder vorhanden sind, noch in diesem Zusammenhang nötig zu sein scheinen.

Ich wette, dass Machine Learning Models bzgl. Upscaling auf jeder modernen DX12-GPU schnell genug laufen. Das ist ja auch der Sinn hinter DirectML. Meine Radeon VII war ja auch etwa so schnell wie eine RTX 2080 Ti bzgl. Machine Learning trotz fehlender Tensor Cores (bei Half-Precision). Apropos Half-Precision. Das ML soll spürbar bei Navi1 + 2 durch Int8 und Int16-Operationen verschnellert werden (habe das irgendwo aufgeschnappt).

Leider soll auch die AMD-Lösung in jedem Spiel einzeln implementiert werden müssen. Schade ist es ja schon.

Ich würde gerne SuperResolution mal in Aktion sehen. Für RT denke ich mal fast unabdingbar. Wobei man die Wahl hat zwischen nativem Bild und schönerer Beleuchtung, falls SuperResolution Artefakte zeigen sollte. Naja, ich halte DLSS und SuperResolution halt irgendwo für eine Entschuldigung, Games nicht zu optimieren nach dem Motto: "ihr könnt doch SuperResoultion anschmeißen, wenn Spiel X zu langsam läuft"
 
Beim DLSS geht es meines Wissens auch eher um Upscaling ohne Qualitätsverlust. Aber wirklich funktionieren tut das nicht, nur DLSS 2.0 ist überhaupt brauchbar und funktioniert in sehr wenigen Titeln.

Sowas finde ich gehört eher zu Low-End und Midrange-GPUs, bei denen man eben Kompromisse machen muss. Bei überteuren Karten ist das eher ein Marketinggag um über die fehlende Leistung hinwegzutäuschen. 4K mit RT geht auch auf einer 3090 nicht. Zumindest nicht kompromisslos, was ich bei der Bepreisung aber erwarten würde. Die 2080 Ti wäre mir schon damals 1500 wert gewesen wenn das RT und alles auf Anschlag in nativem 3840 x 2160 möglich gewesen wäre, nur war es das nicht. Es sieht aber sowieso so aus als wenn ich erstmal keine neuen GPUs mehr kaufen werde, meine Nieren bleiben schön drin. Und letztlich reicht auch eine Turingkarte oder RDNA1 für das Meiste aus. Mit der 2080 Ti würde ich vermutlich selbst in Cyberpunk brauchbare Ergebnisse bekommen, wenn ich es denn spielen würde, letztlich heißt das aber auch dass Leute mit geringerer Auflösung selbst mit 2060-2080 oder einer 3060 glücklich werden dürften.
DLSS & RT hilft mir auch nix wenn das Spiel scheisse ist.
Denn das trifft es perfekt. Ich glaube nicht das Cyberpunk wirklich schlecht ist, es ist einfach noch nicht marktreif. Gleiches gilt auch für Kommende Releases wie ME:Legendary, da darf man sich getrost zurücklehnen und andere Betatesten lassen, ansonsten darf man sich nicht beschweren wenn die die ME-Andromeda-Masche wieder durchziehen. Heute noch zu erwarten dass ein Spiel bei Launch spielbar ist wäre utopisch.

Langfristig wird es chiplet-basierte GPUs geben was auf den Grafikmarkt denselben Effekt haben wird wie Zen 1. Markiert meine Worte. Die erste Generation wird sicher noch ihre Mängel haben, man sah es aber schon bei Zen 2 und nun bei Zen 3 was innerhalb weniger Jahre möglich ist. Für die Nutzer wird das dann aber vor allem wieder bezahlbare Grafikkarten und eventuell eine Leistungssteigerung wie zuletzt zwischen 2005 und 2012 bedeuten.
 
Ich war quasi dazu gezwungen. Ich hatte noch ne RX 580 und wollte wenigstens in WQHD ordentlich zocken können. Jetzt ist UWQHD daraus geworden, aber wie du schon richtig beschrieben hast ist 4k noch Utopie.
Für 850€ ne 3080 ist ein relativ Fairer Preis gemessen an der Leistung, im Vergleich zum aktuellen Angebot.

Ich wollte unbedingt Cyberpunk ordentlich spielen, auch AC Valhalla ... was mit der RX 580 schwierig gewesen wäre.

Jeder der eine RTX 2xxx hat sollte sich wirklich überlegen ober er wechseln müsste. Ich war kurz davor mir eine RX 5700xt für 360€ zu holen. Im Oktober/November hat Mindfactory die Karten rausgehauen und ich hab noch drüber gelacht ... ich hatte auch auf den Drop von AMD gewartet mit der neuen Generation... danach hatte ich es bereut und hab über 2 Wochen lang ständig Preise verglichen und versucht was ergattern.
 
Naja besonders überschaubar 45 davon 17 Status "TBA" = 0 DLSS

Also tatsächlich eher so 28 davon 8 DLSS 1.0... was eher für die Tonne ist.

Effektiv sind es 20 Spiele ...

Es ist ja nicht gänzlich nutzlos, aber entweder ist es demnächst einfach der Standard in jedem Game oder es muss was unabhängiges her über DirectX oder Vulkan was automatisch integriert ist.
 
Zuletzt bearbeitet:
Das wird nicht unabhängig und automatisch funktionieren.
DLSS ist "Deep Learning", es muss also trainiert werden. Da kannst Du nicht einfach sagen: "Mein Spiel hat das", sondern das Training muss irgendwo passieren. Also muss irgendjemand die Server und GPUs dafür bezahlen und laufen lassen. Das kostet durchaus Geld und wird sicher nicht von irgendeinem netten Mrd. kostenlos zur Verfügung gestellt.

Aktuell stellt NVidia diese Dinge, weil es ein Aushängeschild für sie ist. Quasi absetzen als Werbekosten.
Wenn man das Feature allgemeingültig haben will, dass automatisch funktioniert per Treiber, dann würde mir da aktuell kein Weg einfallen, wie das zu realisieren ist.

Man könnte zwar sagen, dass man nur ein Modell macht und damit alle Spiele abdecken will,... da wäre das Ergebnis aber wohl ein fundamentaler Reinfall. Pixelgames durch ein Modell skalieren, dass mit Cyberpunk 2077 trainiert wurde unter anderem? Andersherum? Eher nicht. Für ein gutes Ergebnis muss jedes Spiel eingepflegt werden und separat behandelt werden. Ein paar Aspekte kann man sicher verallgemeinern, aber gerade bei Grafik und Artstyle ist es integral, dass es spezifisch für das Spiel ist und eben nicht allgemeingültig.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh