Kommentar: FSR ist ein großer Wurf für AMD – aber auch nur ein erster Schritt

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.949
amd-ffxss.jpg
Gestern gab AMD das sehnlichst erwartete FidelityFX Super Resolution oder kurz FSR frei. Gestern Nachmittag wurden dann auch die dazugehörigen Spiele-Updates veröffentlicht, sodass zumindest in sieben Spielen der Upscaler mit Schärfefilter ausprobiert werden kann. In unserem Artikel zur FSR haben wir uns auf die Leistung und Darstellungsqualität konzentriert.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Erster Schritt für eine unwichtige kleine Fummeltechnologie, die in wenigen Jahren eh Keinen mehr interessiert? Die Hersteller sollen lieber schnellere und vor Allem bezahlbare GPUs rausbringen, so dass keine billigen Tricks wie Upscaling mehr für erträgliche FPS gebraucht werden. Statt des ganzen Werebetraras hätten sie schon die RX7xxx und RTX4xxx releasen können somit und echten Fortschritt geschaffen!
Der ganze Hype zeigt aber schön, wie die Hersteller dazu gelernt haben, was PR angeht, denn vor einigen Jahren noch hat man den Käufern Bildverschlechterungstechnologien wie z.B: "Anisotropische Optimierung" für ein paar FPS mehr heimlich untergeschoben und dafür den verdienten Kundenunmut zurückbekommen.. Heute aber macht man Werbung mit solchem Mist und sahnt noch extra ab, wegen ein paar FPS mehr dank schlechterer Optik!

Und gerade wenn man einer Derer ist, die glauben dass die bisher praktisch nahezu unsichtbaren Fortschritte dank Ray-tracing tatsächlich schon jetzt immense Aufpreise wert seien, sollte man doch darauf bedacht sein, diesen nahezu nichtigen "Vorteil" nicht an anderer Stelle einfach wegzuwerfen.. und dennoch werden DLSS und FSR gerade gerne im Highend diskutiert, weil man's ja für seine 4K braucht.. um den Monitor dann mit mehr aber dafür minderwertigen Pixeln zu füllen!
Im LowEnd hat das Zeug evtl. eine Daseinsberechtigung, wenn's darum geht auf einer APU ein Spiel in 1080p halbwegs zum Laufen zu überreden, aber ansonsten ist die Sache einfach nur eine lächerliche Farce!

Egal wie weit Upscaling auch entwickelt sein möge: Es ist niemals ein Positivum! Sondern immer nur der armselige Versuch, das eigentliche Problem, nämlich die reale Stagnation der GPU-Rohleistung die beim Kunden ankommt (vor Allem auf Grund der Preisgestaltung!) zu kaschieren! Und dementsprechend haben diese Tricksereien auch durch seriöse Magazine zu behandelt werden! Da braucht es keine ständigen News, Updates, Tests und Superhypes herum, das hat dieser Werbetrick nicht im Geringsten verdient, sondern doch viel eher: Beständige, berechtigte Kritik an diesen Praktiken!
 
Zuletzt bearbeitet:
Das ist deine Meinung, @Elmario ...
Andere Leute nehmen 50% mehr FPS bei 15% weniger Qualität einfach gern mit :)

Des weiteren müssen wir uns darauf einstellen dass auch bei GPUs sich der Fortschritt verlangsamt. Ich gehe nicht davon aus dass z.B. echte 8K mit 120FPS ohne sehr besondere Tricks (z.B. komplett separat je 25% des Bildes rendern) machbar sein wird.
 
...

Des weiteren müssen wir uns darauf einstellen dass auch bei GPUs sich der Fortschritt verlangsamt.
Damit hast du natürlich recht, denn Verlangsamung bei höherem Entwicklungsstand ist ja der prinzipielle Verlauf aller technischen Entwicklungen.
Aber: Was ich kritisieren will ist der Umgang von Medien mit der Thematik. Dass die Hersteller ihre Ideen als das Nonplusultra präsentieren versteht sich von selbst. Aber Ich bin's leid Upscaling ständig und von allen Seiten als den neuen Messias präsentiert zu bekommen, wo es doch bestenfalls ein Trostpflaster ist. Und seitens der Berichterstatter ist im Vergleich zu früher eine doch extrem "nachsichtige" (oder besser gesagt: herstellerfreundliche) Entwicklung offensichtlich, wie ich mit dem Vergleich zur Anisotropischen-Optimierung (gibt natürlich ncoh viele andere, vergleichbare "Cheats")damals aufzeigen wollte. Und das kann's einfach auch nicht sein. Einheitliche und gleichbleibende Maßstäbe sind das A und O seriöser Vergleiche und falsche Zufriedenheit hemmt den Fortschritt. Und so ein Aufblasen verdient das Zeug sicher nicht.
 
Zuletzt bearbeitet:
Derzeit ist es noch nicht möglich ein Spiel mittels FSR und DLSS gegenüber zu stellen. Keines der Spiele, die aktuelle FSR unterstützen, bietet auch DLSS. Daher gibt es keine Möglichkeit einen direkten Vergleich anzustellen. Durch die Rekonstruktion des Frames aus höher aufgelösten "Ground Truth"-Daten und der damit verbundenen Möglichkeit, Details wiederherzustellen, die eigentlich aufgrund der niedrigeren Auflösung verloren gegangen sind, bietet NVIDIA mit DLSS aktuell noch die bessere Bildqualität. DLSS im Quality-Mode dürfte den Ultra-Quality- und Quality-Modi von FSR überlegen sein – so zumindest die aktuelle Einschätzung dessen, was wir gesehen haben.
Genau so sehe das auch. DLSS Quality ist auf 1 FSR Ultra Quality ist auf 1-2, DLSS Balance ist auf 2, FSR nur quality ist auf 2-3. Der Rest ist bei beiden eher proof of conecpt oder Notnagel für 8k+ Texturen.

Erster Schritt für eine unwichtige kleine Fummeltechnologie, die in wenigen Jahren eh Keinen mehr interessiert? Die Hersteller sollen lieber schnellere und vor Allem bezahlbare GPUs rausbringen, so dass keine billigen Tricks wie Upscaling mehr für erträgliche FPS gebraucht werden. Statt des ganzen Werebetraras hätten sie schon die RX7xxx und RTX4xxx releasen können somit und echten Fortschritt geschaffen!
Der ganze Hype zeigt aber schön, wie die Hersteller dazu gelernt haben, was PR angeht, denn vor einigen Jahren noch hat man den Käufern Bildverschlechterungstechnologien wie z.B: "Anisotropische Optimierung" für ein paar FPS mehr heimlich untergeschoben und dafür den verdienten Kundenunmut zurückbekommen.. Heute aber macht man Werbung mit solchem Mist und sahnt noch extra ab, wegen ein paar FPS mehr dank schlechtere Optik! Wie doof sind nur Alle geworden?
Naja ist nicht so ganz richtig, alle Methoden oder Techniken die erlauben ein gleichwertiges Erlebnis zu bekommen, bei niedrigerem Aufwand sind ja auch ein Fortschritt.
Bei FSR Ultra Quality und DLSS Quality, muss man nach Fehlern suchen und selbst da darf man sich nicht sicher sein das die nicht auch im Nativ enthalten sind.
Alles andere ist mit Sicherheit ein "Jetzt kann ich das spielen" Faktor. Ich glaub selbst ohne RTX und DLSS währen die Grafikkarten nicht wesentlich günstiger geworden.
DLSS oder auch FSR, erlauben zum teil bei Großen Texturen Speicher zu sparen.. was schon die Hardware etwas günstiger hält. Für echtes True 4K brauchst du heute schon mindestens 16GB RAM. Die Probleme sieht man doch schon an der 3090 oder 6900xt, obwohl beide genug Speicher haben kommen die Rechenkerne kaum nach. Die kommen schon richtig ins "4k Feeling" auch was die FPS angeht. Aber trotzdem sind die Frameraten nicht jenseits der 100FPS zumindest in sehr wenigen aktuellen Titeln und selbst dort nicht ohne Taschenspielertricks.

Ich nenne dir ein Beispiel: Du kannst in einem Spiel Schatten die nicht für den Spieler sichtbar sind "Rendern", dann sind sie da und kosten Rechenpower und Speicher.
Du kannst aber auch sagen, hey das sieht eh kein Arsch, also "ignoriere den Bereich" und rendere da nichts.
So machen das die Techniken ja auch, du guckst aus 100M Entfernung auf eine Zielscheibe mit 30 Pfeilen die ineinander oder nebeneinander stecken, man kann die kaum erkennen.
Macht das jetzt einen unterschied für dich wenn es plötzlich 5 Pfeile weniger sind? Sobald du näher kommst werden es mehr Pfeile aber aus der Distanz kommt ne Unschärfe und einige werden ausgeblendet.
Sowas macht die Industrie schon seit Jahren.

Ich sehe eher als Wichtig an wie das Resultat aussieht am Ende, mir ist nur wichtig das die Immersion der Autoren nicht verändert wird. .z. B Wenn ein Bösewicht eine Narbe hat, soll er die auch nach den ganzen Filtern haben usw. Also das Ergebnis soll das Gefühl / die Immersion nicht stören.
 
ich bin da ganz bei @Elmario

klar... Fortschritt... ja, wollen wir, ist begrüßenswert. Aber diese upscalerei sehe ich auch als "trickserei" an um dem Kunden schönere Zahlen und blingbling wie RT verkaufen zu können. Kann ich gern drauf verzichten.

Eigentlich brauchts das eh nur um entweder RT flüssig darstellen zu können, oder in hohen Auflösungen wie 8K noch irgendwie "flüssig" zocken zu können. Weder das eine noch das andere ist wirklich sinnvoll in meinen Augen. Sollen sie doch lieber die Zeit und Energie darin investieren RT hardwareseitig so zu optimieren, dass das ohne software trickserei flüssig läuft. Da schätze ich eher den hardwareseitigen Fortschritt, denn softwareseitige Tricks.

RT würde ich gerne immer und überall sehen. Ist halt ne tolle Technologie und die ist wirklich ein Fortschritt - aber naja, bitte in "echt" und nicht in geschönt vom schlauen Algorithmus ;)
 
Warum ist es bei NVidia eine Technik, nach der jeder schreit und bei AMD ist es Trickserei, die bald in der Versenkung verschwindet? Wurde der Artikel richtig gelesen? Bei Gaming hat AMD eine starke Relevanz. Wenn ich mir die Verbreitung von Technologie anschaue, hat AMD die Nase vorn. Freesync zB liegt bei der Verbreitung so weit vor GSync, dass Nvidia irgendwann nachgeben musste. Bei FSR wird es exakt genauso laufen. Allein schon wegen des offenen Ansatzes. Der Konsolenjoker macht den Rest.
 
ich bin da ganz bei @Elmario

klar... Fortschritt... ja, wollen wir, ist begrüßenswert. Aber diese upscalerei sehe ich auch als "trickserei" an um dem Kunden schönere Zahlen und blingbling wie RT verkaufen zu können. Kann ich gern drauf verzichten.

Eigentlich brauchts das eh nur um entweder RT flüssig darstellen zu können, oder in hohen Auflösungen wie 8K noch irgendwie "flüssig" zocken zu können. Weder das eine noch das andere ist wirklich sinnvoll in meinen Augen. Sollen sie doch lieber die Zeit und Energie darin investieren RT hardwareseitig so zu optimieren, dass das ohne software trickserei flüssig läuft. Da schätze ich eher den hardwareseitigen Fortschritt, denn softwareseitige Tricks.

RT würde ich gerne immer und überall sehen. Ist halt ne tolle Technologie und die ist wirklich ein Fortschritt - aber naja, bitte in "echt" und nicht in geschönt vom schlauen Algorithmus ;)
Das Problem sind Hardwarelimitierung die wir aktuell haben. Alleine das wir schon echtes 4K erreicht haben ist schon beeindruckend. Schau dir doch mal was die Schinken alle so verbrauchen 300-400W mit Tricksereien.
Für die Gleiche oder bessere Leistung müsste man einen Herd betreiben. Mal vom technischen Aspekt der Latenzarmen Datenübertragung etc.
Ist halt wie bei den CPUs, nur das GPUs schon seit Jahren quasi Multiprozessoren sind.

1624457812079.png

Quelle: https://de.wikipedia.org/wiki/Amdahlsches_Gesetz
Das gilt natürlich indirekt auch für Grafikprozessoren, wo viel nicht immer viel hilft.

Kleiner Nachtrag: https://de.wikipedia.org/wiki/Gustafsons_Gesetz
Dieser arbeitet btw bei AMD und versucht genau diese Probleme zu lösen bzw. zu umgehen.
Deshalb wird ja auch AMD in der nächsten oder übernächsten Generation auf Multi-GPUs wieder setzen.

Beitrag automatisch zusammengeführt:

das heißt ich könnte sogar in FHD mit einer RX480 noch kommende Spiele flüssig spielen?
Genau das.
 
Zuletzt bearbeitet:
Ich fand DLSS 2.0 mit meiner 2080Ti und auch kurz mit der RTX 3080 genial .
Es wird Titel geben die auch ohne Raytracing keine konstanten 60 FPS in 4K zulassen ohne Stark an den Reglern zu drehen.
Cyberpunk ist auch ohne RT eine harte Nuss @4K und genau da sehe ich meinen Vorteil mit den Techniken!
Hätte AMD kein Gegenstück zu DLSS angekündigt dann hätte ich die 6900XT nicht gekauft!
Gerade in solchen verrückten Zeiten wie jetzt ist es doch klasse wen man mit FSR oder DLSS noch länger mit seiner Karte aushalten kann.
Hab gestern noch probiert bei Terminator man kann noch mit Schärfen im AMD Treiber nachhelfen .
 
Aber Ich bin's leid Upscaling ständig und von allen Seiten als den neuen Messias präsentiert zu bekommen, wo es doch bestenfalls ein Trostpflaster ist.
Ist halt deine persönliche Meinung! In Zeiten von extremen Grafikkartenpreisen gepaarte mit mieser Verfügbarkeit ist es aber eine Lösung für alle, die mit älteren Karten aktuelle Spiele haben wollen und nicht mit GPUs neuester Generation gesegnet wurden.

Eine 5700XT und ggf sogar ne Vega oder na alte RX570 oder RX480 taugt somit noch für aktuelle Games in ansehnlicher Qualität, wenn die Patches nachgereicht werden.
Hinzu kommt, dass AMD hier die Werbetrommel rührt, weil es eben nicht nur Käufer und endkunden, sonders auch Spielehersteller betrifft. Tendiert der Endkunde zu FSR, wird auch der Spieleentwickler sich ggf eher für FSR entscheiden und dies ins Game implementieren.

Großer Vorteil für die Zukunft in meinen Augen ist eben:
keine Festlegung auf bestimmte Hardware
Open Source und damit von breiter Front unterstützbar und weiterentwickelbar

Keiner muss das nutzen, aber ich finde die Möglichkeit recht ansehnlich und achtenswert.
Der Markt ist frei, lasst uns schauen, wohin die Reise geht ... G-Sync und Freesync ist ja auch recht ähnlich gestrickt und beides läuft mittlerweile parallel.
 
Wer braucht schon neue Technologien, hört auf die Keller Kinder... Ironie off
 
Auch hier stellt der breiter aufgestellte und offenere Ansatz von FSR ein klares Plus gegenüber den (künstlichen) Einschränkungen von DLSS dar: 2:0 für AMD!

Wir ignorieren mal die künstlichen Einschränkungen die AMD bei FSR ansetzt und vergeben Mitleidspunkte...
 
DerGoldeneMesia schrieb:
das heißt ich könnte sogar in FHD mit einer RX480 noch kommende Spiele flüssig spielen?
Genau das.

Oha, den Aspekt habe ich leider bisher komplett ignoriert. Das ist natürlich wiederum genial für Leute mit schwächerer Hardware - wenn das auf alten Systemen funktioniert und eigentlich unspielbare Spiele wieder spielbar werden, ist das ja natürlich wirklich ne tolle Sache!

Ja - ist ne gute Sache... okay. Aber ich sehs trotzdem nicht als tolle neue Technologie an. Das ist ein "Krückstock" der Hardware dabei hilft, Pixel die eigentlich nichtmehr flüsslig berechnet werden können, doch in halbwegs flüssig zu stemmen.

Neue Technologie wäre für mich eher ne Hardware, die es unnötig macht Bilder auf die Weise berechnen zu müssen weil das Silizium nichtmehr mithalten kann ;) aber naja, man kann ja an allem rummeckern. Alles in allem haben wir damit auch bei AMD dieses Stück Software erhalten, das für gewisse Szenarien absolut Vorteile bringt. Ich kann nur nicht nachvollziehen, wieso man sowas als den großen Heilsbringer tituliert....

Jedenfalls schön das auch AMD jetzt in dem Bereich was zu bieten hat
 
Wow, du hast das 1x1 der Fanboy-Kommentare mit jedem Buchstaben erfüllt. Keine Sau nimmt dich ernst. Geh am besten raus, holf frische Luft und denk darüber nach, warum dich keiner leiden kann.
Wow, du hast das 1x1 der Fanboy-Kommentare mit jedem Buchstaben erfüllt. Keine Sau nimmt dich ernst. Geh am besten raus, holf frische Luft und denk darüber nach, warum dich keiner leiden kann.
 
Aber ich sehs trotzdem nicht als tolle neue Technologie an. Das ist ein "Krückstock" der Hardware dabei hilft, Pixel die eigentlich nichtmehr flüsslig berechnet werden können, doch in halbwegs flüssig zu stemmen.
Also Kyro 1 und Kyro II waren damals also auch keine Revolution in neuem Denken, obwohl tile-based deferred rendering heute in jedes Featureset als immediate renderer gehört, sondern nur eine Krücke, weil der Chip an sich nicht schnell genug war? Wach mal bitte auf !

Ja, 4k jedes Pixel haar klein berechnen ist schön, aber die Frage ist doch, was man beim Zocken überhaupt davon sieht. Es wird sicherlich immer einzelne geben, die ein Bild in voller Pracht haben wollen, klar.
Es bleibt aber unbestritten, dass flüssige Framerate sicherlich immer vor jeder Grafikpracht steht und das ist als erste Bedingung zu erfüllen.

Ich wüßte keinen Gamer, der 25fps und Grafikpracht einer 60fps reduzierte Grafikqualität vorzieht. Eher im Gegenteil ... viele reduzieren die Auflösung und Qualität auf ein persönlich erträgliches Maß um flüssige Bildraten bis hoch auf 144fps erhalten zu können. Sicherlich betrifft das nicht alle, aber eine Vielzahl.

Wer auf pure Grafikqualität und das Maximum setzt, der muss halt das geld für die immer schnellste Karte am Markt ausgeben.

Ich sehe DLSS und FSR als gute automatische Alternative zur manuellen Anpassung um anständige Frameraten zu erreichen.
 
RT ist halt Fluch und Segen zu gleich.
Und erst kommende GPU Generationen werden den Fluch auflösen können.
 
Was glaubt IHR wieso es keine non-RTX Ableger der 2080Ti / 3080Ti gab / gibt?
Hätten die Gamer die Wahl, würde kaum
einer den völlig überteuerten RT Müll kaufen.
 
gerade live:
 
Hm... @Strikeeagle1977 munter bin ich danke. So scheiden sich die geister.

RT ist hier für mich das Feature - und DLSS & co nur der Krückstock der dazu dient das auch flüssig zu berechnen. RT ist geil - das ist neue Technik. RT will ich - aber nicht jetzt, sondern dann wenn Chips in der Lage sind sowas selbst zu berechnen und nicht einen vorgeschobenen Matschfilter wie @Scrush es nennt brauchen um das bling bling flüssig auf den Monitor zu bringen. Ich bin high-fps zocker... schon immer. Und grade weil mir schöne Optik weniger wichtig als FPS sind, kann ich auf die Spielerein noch gut verzichten, das nehm ich dann mit wenn die Hardware es hergibt.

Bestimmt schaffen die es irgendwann, jede Menge Rohleistung zu bringen und nebenher noch einen sauber funktionierenden Algorithmus ohne Nebenwirkungen - das ist dann Fortschritt ;)
 
Mein erster Test in Anno in UWQHD war ernüchternd. Es ist sichtbar unscharf und flimmert in den kleinen Details.
 
RT ist geil - das ist neue Technik. RT will ich - aber nicht jetzt, sondern dann wenn Chips in der Lage sind sowas selbst zu berechnen und nicht einen vorgeschobenen Matschfilter wie @Scrush es nennt brauchen um das bling bling flüssig auf den Monitor zu bringen.
nur dummerweise muss RT auf die Karten um suksessive Erfahrung damit zu gewinnen. Sieht man ja be Nvidia. 1. Generation RT lahm, 2. generation stark RT verbessert. AMD wird es genauso machen. Du kannst keine Features in der Schublade lassen, bis sie mal irgendwann gut ausgereift sind.
Siehe Auto oder Flugzeug. "Ach nee, lassen wir das mal 20 Jahre in der Schublade reifen bis es was taugt!" So funktioniert die Welt nicht ...

Einige Features setzen sich durch , andere nicht. Das muss man ausprobieren. nVidia hat das getan und siehe da, die Spieler haben es wohl gekauft.
AMD springt ja auch nicht auf den RT Zug auf, weil es modern ist, sondern weil die Endkunden es zum Großteil nutzen wollen.
 
@Don
Magst du in Sachen Bildqualität nochmal FSR gegen 70 und 80 %Auflösung + Radeon Bildschärfen nachtesten?
Dann kann man mal sehen was es wirklich damit auf sich hat.

Dlss 1 sieht nämlich nicht besser aus als 80 % Auflösung + Nachschärfen und laut Bildvergleichen ist FSR Ultra Quality beinahe/unterhalb Dlss 1 angesiedelt.

Wenn man bei Amd nicht innerhalb von 1 - 2 Jahren FSR 2.0 herausbringt, wird sich eher Epic Games TSR durchsetzen.
Hier gibt es einen ersten Vergleich im Forum bei 3dcenter, und den massiven Leistungsfresser 4xOGSSAA+TAA mal ausgenommen, sieht TSR auch im Vergleich zu DLSS 2.2 beeindruckend aus, und dies bei 1080p Renderauflösung (TSR Quality).
 
@Don
Magst du in Sachen Bildqualität nochmal FSR gegen 70 und 80 %Auflösung + Radeon Bildschärfen nachtesten?
Dann kann man mal sehen was es wirklich damit auf sich hat.

Dlss 1 sieht nämlich nicht besser aus als 80 % Auflösung + Nachschärfen und laut Bildvergleichen ist FSR Ultra Quality beinahe/unterhalb Dlss 1 angesiedelt.

Wenn man bei Amd nicht innerhalb von 1 - 2 Jahren FSR 2.0 herausbringt, wird sich eher Epic Games TSR durchsetzen.
Hier gibt es einen ersten Vergleich im Forum bei 3dcenter, und den massiven Leistungsfresser 4xOGSSAA+TAA mal ausgenommen, sieht TSR auch im Vergleich zu DLSS 2.2 beeindruckend aus, und dies bei 1080p Renderauflösung (TSR Quality).
Das ist aber auch nicht Open Source und limitiert auf die eigene Epic Engine, laut dem Entwickler von AMD könnte man schon bereits bei der Entwicklung Dinge optimieren um mit FSR bessere Resultate zu erzielen, aber das ist genau der Punkt der nicht gewünscht wird. Es soll jeder so entwickeln wir er möchte und FSR soll einfach "funktionieren".

Ihnen ist bewusst das es nicht für jeden perfekt ist, aber ist halt typisch Deutsch :-) man beschwert sich über etwas das man "geschenkt" bekommt, wenn man es möchte.
Die Zielgruppe für FSR sind sowieso keine Gamer mit Highend Hardware und Nvidia Jünger die schon DLSS2.0 haben können, das war FSR nie und wird es nie werden.

Ich kann zu DLSS 1.0 nichts sagen, doch habe ich eine RTX 3080 und konnte DLSS schon mit Control und Cyberpunk testen.
Alle Tester unter anderem Youtuber, wie Gamersnexus oder Hardwareunboxed haben zumindest subjektiv eingeworfen das FSR besser aussieht als DLSS 1.0 und die Erwartungen wären teilweise übertroffen worden.
FSR wurde von mir mit bisher nur mit Anno 1800 getestet.
Wie haben das schon auch einige Tester formuliert, wenn man nicht nach Fehlern oder Ungereimtheiten sucht fällt Ultra Quality FSR nicht wirklich auf und genauso habe ich es in Anno 1800 wahrgenommen.
Bei Cyberpunk ist Quality auch ziemlich gut, bei Balance aber fängts da auch an ab zu wahrnehmbar zu werden durch Verzerrungen oder Halo Effekte.

Man wird aber als Entwickler die Möglichkeit haben, so wie ich das verstanden habe nochmal die Auflösung anpassen zu können und die Modis Ultra Quality, Quality, Balance und Performance sind nur "Defaults" die vordefiniert sind.
 
Was erwartest du vom simplen skalieren. Amd hat das gebracht weil sie auf Dlss reagieren mussten. Ganz großes Kino. 💩
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh