[Sammelthread] Upscalertechnologien: DLSS, FSR, XeSS, Integer scaling und co.

2k5lexi

Lars Christmas
Thread Starter
Mitglied seit
29.03.2010
Beiträge
43.516
Ort
Ostallgäu

Grundlage: Monitore und Grafikkarten​

Jeder Monitor hat eine festgelegte Pixelzahl, die wir mit unserer Grafikkarte öfters pro Sekunde neu berechnen wollen, damit wir ein flüssiges Spielgeschehen bekommen. Wir kennen von den Monitoren unterschiedliche Auflösungen und unterschiedliche Bildwiederholfrequenzen.
Hier ein paar gängige Auflösungen:
1280x720 = 720p (HD)
1920x1080 = 1080p (FHD)
2560x1440 = 1440p (WQHD)
3840x2160 = 2160p ("4k")
Es gibt auch noch ein paar mehr...*klick*

An Bildwiederholfrequenzen kennen wir:
60Hz, 120Hz, 144Hz als die gängigen für Gamer.
1Hz = 1/s = 1 pro Sekunde.
60Hz = 60 pro Sekunde
144Hz = 144 pro Sekunde

Den meisten dürfte das bekannt vorkommen, für uns Gamer ganz wichtig:
FPS = Frames per Second = Bilder pro Sekunde. Mehr ist besser. Immer.

Das Problem an der Sache:
Irgendwie sind die Grafikkarten immer zu schwach. Das liegt daran, dass Grafikkarten ne bestimmte Rechenpower haben und eine bestimmte Pixelzahl pro Sekunde rechnen können. Und wir uns entscheiden müssen, ob wir lieber mehr Pixel (Bildschirmauflösung) oder mehr FPS (Bilder pro Sekunde) haben wollen. Und selbst wenn wir die fetteste und teuerste Grafikkarte kaufen die es gibt, die ist irgendwann auch am Ende.

Hier ein Rechenbeispiel:
1920x1080 Pixel = 2.073.600 Pixel
2560x1440 Pixel = 3.686.400 Pixel (=1.8x mehr als FullHD = braucht 180% der Power von FullHD für gleiche FPS)
3840x2160 Pixel = 8.294.400 Pixel (= 4x mehr als FullHD = braucht 400% der Power von FullHD für gleiche FPS)
Wir merken: Geht die Auflösung hoch, brauchen wir mehr GPU Power...

Jetzt kommt dazu, dass wir mehr FPS wollen. Also mehr Bilder in der gleichen Zeit. Und auch das skaliert linear, also von 60 FPS auf 120 FPS bei gleicher Auflösung brauchen wir doppelt so viel Power...
Das bringt uns, was Grafikkartenpower betrifft, zu folgendem gerundeten Überschlag damit ihr einschätzen könnt was ihr eurer Grafikkarte so antut:
1080p/60 FPS = 100%
1440p/60 = 1080p/120 = ca. 200%
1440p/120 = 1080p/240 = 2160p/60 = 400%
Wir brauchen also für moderne Displays nicht nur n bischen mehr Power, sondern SEHR VIEL mehr Power für Berechnung der nativen Auflösung.

Was sind Upscaler?​

Upscaler sind Funktionen, welche aus einem kleineren Bild, ein größeres Bild machen.
Ob wir dabei ein JPEG im Word Dokument vergrößern, etwas in Paint vergrößern oder aber die Auflösung vom PC Monitor vergrößern ist erstmal egal, denn: Jeder moderne Flachbild Monitor hat ein festgelegtes Pixelraster, wie ein Bild, nur als Monitor.
Dabei gibts ein Problem:
Wegen in der Regel recht primitiver Implementierung sieht es ziemlich mies aus, alles ist verwaschen, verschmiert, unscharf usw.
(Probiert es mal aus, stellt ein Spiel auf 1280x720, wenn ihr einen 1920x1080 Monitor habt)

Wofür braucht man Upscaler?​

Upscaler Technologien wollen genau dieses Problem lösen. Upscaler rechnen ein Bild z.B. auf 1080p, aber geben es als 4k an den Monitor aus. Dabei gibts ein paar Probleme bei der Bildqualität (wenn ihr oben den 1280x720 Pixel auf einem FullHD Monitor Test gemacht habt wisst ihr bescheid) zu lösen.
Upscaler versprechen, dass sie massiv die FPS erhöhen können, ohne dass die Bildqualität leidet. Dazu werden die Bilder in niedrigerer Auflösung als der nativen Bildschirmauflösung gerendert, in hohen FPS, und in einer größeren Auflösung als der gerenderten ausgegeben.

Okay, aber was kann man damit so anstellen? Die Quadratur des Kreises!​

Als Upscaler gibt es verschiedenste Technologien, welche qualitativ unterschiedlich gute Ergebnisse liefern, für unterschiedliche Anwendungszwecke mit unterschiedlichen Vor- und Nachteilen.
"Die Beste (TM)" Lösung gibt es nicht, aber es gibt eine Menge Optionen zum Auswählen für unterschiedliche Rahmenbedingungen.

Primitive Interpolierung über den Monitor​

Bild wird einfach in einer nicht nativen Auflösung an den Monitor geschickt. Der Monitor selbst übernimmt die Interpolierung.
+ sehr einfache Berechnung im Monitor/Fernseher
+ Funktioniert immer auch auf einfachsten Basistreibern
- extrem verschwommenes, unscharfes Bild
- nur als Notlösung zu gebrauchen

Integer Scaling 1080p auf 4k Fernseher​

Stellt 2x2 Pixel in 4k als 1 Pixel in 1080p dar.
+ Extrem gut für Pixelart-Spiele / Emulatoren
+ Gut als Übergang für schwächere Grafikkarten und moderne Bildschirme/Fernseher
+ Gut für große Fernseher und große Sitzabstände
+ Funktioniert auf Treiberbasis für jede Art Bild und jeden Monitor anwendbar (Auch Windows Desktop)
+ Intel ab IGP der 11000er CPU, Nvidia ab 2000er Serie und Treiber 436.02, AMD ab GCN Architektur von 2011
+ Bis zu 4x mehr FPS als in 4k, da nur 1/4 Pixel pro Bild
- Vergrößert jedes Bild um den Faktor 4x
- funktioniert nur für glatte Teiler (1080p auf 4k, 720p auf 1440p usw.)
- Sieht bei geringem Bildabstand grob aus
- Eingeschränkt für Monitore z.B. 27" 4k geeignet wegen des Sitzabstands
- Wird in Treibern für ältere Grafikkarten noch nicht unterstützt

Nvidia DLSS2.4​

Der Platzhirsch unter den Upscalern
+ Sieht sehr gut aus
+ verdoppelt die FPS ca. (je nach DLSS Einstellung)
- Funktioniert lange nicht für alle Spiele
- Muss vom Spiel unterstützt werden und muss im Spiel aktiviert werden
- Funktioniert nur mit Nvidia Tensorcores (ab 2000er Generation)

Nvidia DLSS3.0 Frame Generation​

+ Höhere FPS in der FPS Anzeige, egal ob CPU oder GPU Limit
+ Kann mit DLSS 2.3 Upscaler kombiniert werden für noch mehr FPS
- Motion Blur in schnellen Spielen
- Artefakte vor allem bei User Interface Elementen
- Höhere Latenz und langsamere Frametimes (gefühlt niedrigere FPS)

AMD FSR (FidelityFX Super Resolution)​

Der direkte Konkurrent zu Nvidia DLSS
+ verdoppelt die FPS ca. (je nach DLSS Einstellung)
+ Funktioniert mit fast allen AMD Grafikkarten (einpflegen ab welcher Generation es geht)
+ Funktioniert auf Treiberbasis
+ Muss nicht vom Spiel unterstützt werden
+ Herstellerunabhängig? Geht auch mit Nvidia und Intel?
o Schaut nicht so gut aus wie Nvidia DLSS

Intel XESS​

(Noch keine Infos vorhanden)

Fazit: Integer scaling, FSR, DLSS, XeSS - welchen nehme ich denn jetzt?​

Welche Technologie für euch die richtige ist, hängt stark von euren persönlichen Rahmenbedingungen ab:
- Welche Grafikkarte nutze ich?
- Welches Betriebssystem nutze ich?
- Welche Treiber habe ich zur Verfügung?
- Welchen Monitor nutze ich?
- Welche Spiele / Anwendungen nutze ich?
Am Ende funktionieren alle Upscaler nach einem ähnlichen Prinzip - sie Rendern ein Bild in niedrigerer Auflösung für mehr Performance (FPS), und versuchen dann über die Skalierung und Nachbearbeitung des Bildes ein möglichst hübsches Bild zu generieren und wichtige Informationen zu erhalten. Die dazu eingesetzen mathematischen Bildbearbeitungstechnologien reichen von primitiv bis unendlich kompliziert und entsprechend verschieden sind die Ergebnisse in der Qualität und der Art/des Style der Bildausgabe.

Nur so viel:
Nie war die Technologie bunter, nie gab es mehr Auswahl, nie waren die Ergebnisse unterschiedlicher - für am Ende das gleiche Ziel: Mehr FPS bei höherer Auflösung!

Schaut euch an was euer System hergibt, probiert die unterschiedlichen Technologien aus, teilt eure Erfahrungen und helft anderen noch mehr aus ihren PCs herauszuholen!

2023-03-07

2022-02-24

Link- und Videosammlung mit How-to: Upscaler konfigurieren​

Ab hier gehts in einen Kaninchenbau, mit unterschiedlichen mathematischen Methoden wie das Bild skaliert wird, der Vollständigkeit halber...

Link- und Videosammlung für Mathenerds​

 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Versionshistorie:
2022-03-15 Urfassung v1.0
2023-03-03 Update v1.1 - FSR XESS DLSS3.0 angepasst und ergänzt.
 
Zuletzt bearbeitet:
To-Do Liste:
Typos und Rechtschreibung.
Intel XeSS
AMD RSR
AMD FSR überarbeiten
AMD FSR 2.0




 
Zuletzt bearbeitet:
Hoffe ich kann mich hier mal anschließen.

Hat jemand sich mit AMD RSR für VR/Steam VR mit der Reverb befasst? Würde es gerne für MSFS und DCS VR nutzen, leider keine Ahnung wie ich in der AMD Software die VR Brille (die übrigens mit 4 Displays in der Systemsteuerung erkannt wird) wählen kann um die als primäre Anzeige für ein Spiel zu verwenden?
 
DLSS/FSR zielen darauf ab, aus der eigentlich niedrigeren Auflösung mehr Details rauszuholen, als irgendwelche "pauschalen" Skalierungstechniken.
Das Ziel bei diesen Techniken ist, das man Idealfall nichtmehr erkennt, das das Bild nur hochskaliert wurde, sondern es schon sehr nahe an ein in nativ höherer Auflösung gerendertes Bild rankommt. Die machen das eben "intelligent".

Die GPU kann aber auch "einfach" hochskalieren, bilinear/bicubic/whatever, was idR deutlich bessere Ergebnisse bringt und imho auch durchaus benutzbare Ergebnisse, als wenn man die Skalierung dem Monitor überlässt oder eben gleich nur Integerscaling anwendet. Es kommt nur eben nicht an die Qualität von DLSS/FSR ran, die ja eben auch eine deutlich höhere Zielsetzung haben.

Einem WQHD-Monitor nur FHD zuspielen, will man idR wirklich nicht. Wenn man die GPU aber nur FHD rendern lässt, sie aber dann mit "einfachen" Mitteln auf WQHD hochskalieren lässt, so das der Monitor wirklich auch ein fertiges Bild in WQHD kriegt (und damit nicht selbst skalieren muss) ist das auch ganz brauchbar.
 
War das eine Antwort auf meine Frage oder dem Eingangspost? Ist mir schon alles klar, darum ging es ja gar nicht. Geht ja darum das wenn FSR nicht von der Software unterstützt wird nur RSR als Alternative bleibt
 
Funktioniert das neue FSR 2.0 etc. mit Vega 64, habe den aktuellsten Treiber drauf 22.3.1, würde das gerne mal Testen, da ich einen 40" iiyama 4K habe, wo stellt man das denn ein?

Möchte mir das mal anschauen, da wenn ich nicht nativ spiele zb. nur FHD ist das ganze extrem unscharf und pixelig, trotz Treiber Einstellung 100% Schärfe.

Logischerweise schafft die Karte hier und da eben kein flüssiges Bild mehr unter 4K bei diversen aktuellen Titeln.

Gruß :bigok:
 
Mhh, bisschen fehlt mir bei: "Fazit: Integer scaling, FSR, DLSS, XeSS - welchen nehme ich denn jetzt?" der Punkt, dass man ja doch als User eigentlich gar nicht die Wahl hat...

Ich mein, da ist viel Text, aber im Endeffekt ist die Aussage, die eigentlich relevant ist (noch) -> in aktuell noch seeeeeeehr wenigen Spielen funktioniert mal DLSS, mal FSR und mal auch beides. Die Masse der Titel kann mit nichts der Beiden irgendwas anfangen!! DLSS ist NV only und Game Abhängig. FSR ist nicht Hersteller only, aber Game Abhängig. Intels Lösung ist aktuell unbekannt. Unterm Strich bleibt bei der Frage nur die "alte" simple Pixel Interpolation über den Monitor oder Upscaling über ne externe Box. BQ idR ultra mau. Bis auf die paar wenigen Ausnahme Titel, wo man DLSS und/oder FSR hat, weil die Hersteller sich da haben reingekauft oder es anderweitige Absprachen gab, hat sich auch in 2022 leider nicht sonderlich viel am Problem von mehr notwendiger Leistung geändert.

Features wie bspw. bei den Konsolen mit dem Checkerboard Zeugs oder ähnliches gibts auch nicht auf dem PC. Auch ist es bspw. untypisch (ähnlich dem RT Krams bei den aktuellen Konsolen), die Renderauflösung je nach Kontent unterschiedlich hoch zu setzen. RT in FHD und Rastergrafik in UHD bspw. ist auch auf dem PC nicht üblich. Zumindest nicht pauschal von wegen Einknipsen und los.


@2k5lexi
die 400% der Power von FHD auf UHD würde ich anpassen. Denn real liegt das irgendwo im Schnitt bei ca. 2-3x mehr notwendiger Performance. Man verliert von FHD auf UHD ca. 2/3tel der FPS. Also 120 FPS in FHD macht in der gleichen Szene idR so ca. 40 FPS in UHD. Bzw. andersrum natürlich auch (wenn die CPU mitspielt) Ist nicht so vieeel besser, keine Frage, aber so schlimm wie der Pixel Count es aufzeigt, ist es dann aber auch nicht. Bei den FPS hingegen stimmt das natürlich. 60FPS vs. 120FPS = doppelte GPU Leistung notwendig.
Der Hintergrund dafür ist, dass einige Berechnungen in beiden Fällen recht identisch ausfallen. Skalierungskram von Texturen und Co. fällt mir da spontan ein. Oder irgendwelches Postprozessing Zeugs oder so. Da spielt die Auflösung weniger direkt eine Rolle. Bei der Pixelberechnung hingegen schon. In Summe kommt man aber auf die ungefähr 2/3tel Verlust bei 4x der Pixel Anzahl.


Übrigens, ich persönlich betreibe Upscaling, sofern es geht per DLSS nicht mit dem Wunsch mehr Pixel für weniger GPU Leistung zu bekommen, sondern um es mit Downsampling gepaart als 1a Kantenglättungsverfahren zu verwenden. Das funktioniert recht gut wo es eben die Option gibt und kostet weit weit weit weniger GPU Power als herkömmliches Downsampling mit voller "Renderauflösung" ohne dabei optisch anders auszuschauen. Anstatt also native Monitorauflösung zu fahren -> DLSS Upscaling und per Downsampling dann wieder auf native Auflösung zurück. Beim Downsampling sollte man aber möglichst auf ganzzahlen Faktoren achten. Also 2x2 bspw. UHD -> FHD funktioniert besser als UHD -> WQHD. Aber das nur am Rande, weil hat ja hier mit dem Topic nix zu tun...
 
Features wie bspw. bei den Konsolen mit dem Checkerboard Zeugs oder ähnliches gibts auch nicht auf dem PC. Auch ist es bspw. untypisch (ähnlich dem RT Krams bei den aktuellen Konsolen), die Renderauflösung je nach Kontent unterschiedlich hoch zu setzen. RT in FHD und Rastergrafik in UHD bspw. ist auch auf dem PC nicht üblich. Zumindest nicht pauschal von wegen Einknipsen und los.
Dafür kannste die Intensität von Raytracing beeinflussen. Low, Medium, High.

Ach ja und AMDs RSR fehlt noch, die Treiber Upsacale Variante.
Nvidia hat auch eine DLSS Variante auf Treiber ebene, aber die ist etwas limitierter.
 
Nvidia hat auch eine DLSS Variante auf Treiber ebene, aber die ist etwas limitierter

Du meinst aber nicht NIS? Das hat recht wenig mit DLSS zu tun. NIS ist wie RSR nur ein einfacher upscaler, da wird nichts nachgerechnet/bearbeitet/aufgebessert.
 
Wir sind beim Thema ganz am Anfang einer Entwicklung in der Branche. Und es wird tausend Produkte und Technologien geben die irgendwas besser oder schlechter machen.

Das grundlegende Problem ist ja ein mathematisches: wie rechne ich präzise Ergebnisse aus unvollständigen Daten? Wie extrapoliere ich Daten? Denn die upscaler wissen nicht ob sie ein Haus, ein Baum oder sonstwas berechnen.

Vgl. Dazu die Videos für Mathenerds die oben verlinkt sind, oder auch den 2h techtalk der oben verlinkt ist.
Computergrafik ist ein wildes Feld, was wann wie gerechnet wird, wo wann welcher Filter gesetzt wird...

Wer die Videos verstanden hat, weiß dass es nicht dass perfekte Produkt geben wird. Und er weiß dass in Spiele engines implementierte upscaler immer besser sein werden als treiberbasierte. Es sei denn es gibt irgendwann einen Branchenstandard der diese Grenze verwischt.

Ich kann das alles nachpflegen, oder wir Clustern die Technologie, DLSS mit RSR weil temporal upscaling, und dann den Rest ohne temporal upscaling...

Ich frag mich ob das relevant ist. Die Technologie dahinter, wo sich was unterscheidet, wird sehr schnell sehr nerdig. Das wollte ich eigentlich vermeiden, bzw. In die nerd-section schieben.
 
Zuletzt bearbeitet:
Wir sind beim Thema ganz am Anfang einer Entwicklung in der Branche. Und es wird tausend Produkte und Technologien geben die irgendwas besser oder schlechter machen.

Das grundlegende Problem ist ja ein mathematisches: wie rechne ich präzise Ergebnisse aus unvollständigen Daten? Wie extrapoliere ich Daten? Denn die upscaler wissen nicht ob sie ein Haus, ein Baum oder sonstwas berechnen.

Vgl. Dazu die Videos für Mathenerds die oben verlinkt sind, oder auch den 2h techtalk der oben verlinkt ist.
Computergrafik ist ein wildes Feld, was wann wie gerechnet wird, wo wann welcher Filter gesetzt wird...

Wer die Videos verstanden hat, weiß dass es nicht dass perfekte Produkt geben wird. Und er weiß dass in Spiele engines implementierte upscaler immer besser sein werden als treiberbasierte. Es sei denn es gibt irgendwann einen Branchenstandard der diese Grenze verwischt.
Das ist eigentlich die größte Schande, das hier jeder seine eigene Suppe kocht, es müsste halt hier was universelles her.
AMD versucht es mit FSR einen Branchenstandard zu etablieren, aber alle scheinen nicht ganz davon überzeugt zu sein.
Es gibt auch noch TSR von EPIC entwickelt, das funktioniert auch Grafikkarten unabhängig und scheint brauchbare Resultate zu liefern

Hier ein interessanter vergleich: https://www.techpowerup.com/review/ghostwire-tokyo-dlss-vs-tsr-vs-fsr-comparison/

Die Probleme haben ja alle Grafikkartenhersteller, die Grenzen der Rechenpower in Kombination mit der Benötigten Energie.
Wenn ich mir die Leaks zur kommenden Generation anschaue, dann wird einem schlecht wie viel Watt die Karten an Leistung brauchen werden.
Nvidia macht ja jetzt schon mit der 3090 Trommelwirbel für 8K, auch wenn das erstmal nur Marketing ist.
Realistisch läuft nur Doom Eternal drauf und das läuft quasi auf jedem Toaster.
 
Das ist eigentlich die größte Schande, das hier jeder seine eigene Suppe kocht, es müsste halt hier was universelles her.
Das wird kommen. Alle haben das gleiche Problem. Alle haben die gleichen Werkzeuge. Alle kochen nur mit Wasser.

Im kleinen ist es ein Fotoshop Problem. Welche Filter mit welcher Einstellung auf welches Bild anwenden? Das in eine Einstellung definieren, in einen Treiber programmieren und es als Technologie vermarkten. Mehr ist es nicht.

Der Unterschied ist, wie die Unternehmen an die Definition der Filtereinstellung kommen und welche Bereiche der Grafikkarte zum Einsatz kommen um die Filter bei maximalen FPS und möglichst wenig Latenz zu berechnen.

Der große technologische Unterschied ist aktuell: 2D oder 3D?
2D ist Bildbearbeitung, Pixel für Pixel, Photoshop in extra schnell mit 100+FPS. Meist in Treibern zu finden.

3D ist 2D+Zeit. Da werden Informationen der Vergangenheit, also von Bildern vor dem aktuellen Bild mit berücksichtigt. Wenn in 2D der Fahnenmast Weg ist, weil in 2D Wegefiltert kommt das vorhergehende Bild dazu und sagt: "aber der Fahnenmast, mach den Mal schön wieder rein!" Plus er soll nicht flimmern. Aber das ist dann wieder nur Konfiguration der Nutzung der Zeit.
Aber die Info Zeit muss aktuell, wenn ich das richtig verstehe, aus dem Spiel kommen. Deswegen musst du RSR und DLSS im Spiel aktivieren, die 2D Methoden aber nicht.
Deswegen ist es wichtig, das die Dimension Zeit ins Spiel implementiert wird, was natürlich Aufwand für Programmierer ist.
 
Zuletzt bearbeitet:

Integer Scaling 1080p auf 4k Fernseher​

Stellt 2x2 Pixel in 4k als 1 Pixel in 1080p dar.
+ Extrem gut für Pixelart-Spiele / Emulatoren
+ Gut als Übergang für schwächere Grafikkarten und moderne Bildschirme/Fernseher
+ Gut für große Fernseher und große Sitzabstände
+ Funktioniert auf Treiberbasis für jede Art Bild und jeden Monitor anwendbar (Auch Windows Desktop)
+ Intel ab IGP der 11000er CPU, Nvidia ab 2000er Serie und Treiber 436.02, AMD ab GCN Architektur von 2011
+ Bis zu 4x mehr FPS als in 4k, da nur 1/4 Pixel pro Bild
- Vergrößert jedes Bild um den Faktor 4x
- funktioniert nur für glatte Teiler (1080p auf 4k, 720p auf 1440p usw.)
- Sieht bei geringem Bildabstand grob aus
- Eingeschränkt für Monitore z.B. 27" 4k geeignet wegen des Sitzabstands
- Wird in Treibern für ältere Grafikkarten noch nicht unterstützt

Was würde in dem Fall gegen 2715x1527 sprechen auf einem 4K Monitor? Damit hätte man doch die Pixel verdoppelt, also anstelle 2x2 Pixel, dann 4x4 Pixel in 4K als 1 Pixel dargestellt was ein schärferes Bild ergeben sollte?
 
Was würde in dem Fall gegen 2715x1527 sprechen auf einem 4K Monitor? Damit hätte man doch die Pixel verdoppelt, also anstelle 2x2 Pixel, dann 4x4 Pixel in 4K als 1 Pixel dargestellt was ein schärferes Bild ergeben sollte?
Ich verstehe nicht was du meinst.
Du kannst von 1280x720 auf 2560x1440. Oder von 1920x1080 auf 3940x2160. Ist dann 1:4.

Was du mit deiner Auflösung meinst verstehe ich nicht.
 
probiert mal DLSS in Quality und Performance bei Cyberpunk aus.

Performance = /4 also 4k > 1080 / 1440p > 720p.

das bild hat weniger aliasing als quality obwohl quality eine höhere auflösung ist. quality ist aber leider krumm und deswegen sieht das im aliasing schlechter aus. performance ist weniger aliasing dafür einen kleinen ticken unschärfer. bei CP77 aber in kombination mit Raytraced GI und AO das deutlich bessere gesamtergebnis vor allem was dann am ende noch an performance übrig bleibt
 
Was würde in dem Fall gegen 2715x1527 sprechen auf einem 4K Monitor? Damit hätte man doch die Pixel verdoppelt, also anstelle 2x2 Pixel, dann 4x4 Pixel in 4K als 1 Pixel dargestellt was ein schärferes Bild ergeben sollte?
Das wären 4.145.805 Pixel
4k = 8.294.400 Pixel

= Ne Pixelratio von ~x2
 
Das wären 4.145.805 Pixel
4k = 8.294.400 Pixel

= Ne Pixelratio von ~x2
Achso jetzt hab ich es verstanden...
Wenn das das Ziel ist würde ich Mal upscaling von 2560x1440 auf 4k probieren, aufgrund der krummen Teiler aber nicht als integer scaling. Damit da kein Bildmatsch rauskommt braucht es DLSS, FSR oder sowas.
 
Achso jetzt hab ich es verstanden...
Wenn das das Ziel ist würde ich Mal upscaling von 2560x1440 auf 4k probieren, aufgrund der krummen Teiler aber nicht als integer scaling. Damit da kein Bildmatsch rauskommt braucht es DLSS, FSR oder sowas.

Mit 2715x1527 hast keinen krummen Teiler bei einem 4K Monitor wie es mit der 2560x1440 der Fall wäre, denn mit 2715x1527 verdoppelst du die 4er Blöcke genau auf 8, somit kann Integer Scaling verwendet werden. Da ich leider keine passende GPU zum Testen habe, kann ich nur von der Theorie sprechen.
 
Mit 2715x1527 hast keinen krummen Teiler bei einem 4K Monitor wie es mit der 2560x1440 der Fall wäre, denn mit 2715x1527 verdoppelst du die 4er Blöcke genau auf 8, somit kann Integer Scaling verwendet werden. Da ich leider keine passende GPU zum Testen habe, kann ich nur von der Theorie sprechen.
3840/2715 ist ziemlich krumm. Das ist 1.41, oder Wurzel2 oder sowas.
2160/1527 ist das gleiche.

Für Integerscaling brauchst du vielfache von 2 in jeder Richtung, X und Y.
Also 1920, 3840, 5760, 7680 in der einen und 1080, 2160, 3240, 4320 in der anderen Richtung. Oder aber du nimmst ne andere Basis als 1920x1080, du kannst das ganze auch mit 1280x720 machen.
 
Mit 2715x1527 hast keinen krummen Teiler bei einem 4K Monitor wie es mit der 2560x1440 der Fall wäre, denn mit 2715x1527 verdoppelst du die 4er Blöcke genau auf 8, somit kann Integer Scaling verwendet werden. Da ich leider keine passende GPU zum Testen habe, kann ich nur von der Theorie sprechen.
Die Pixelratio, sagt erstmal nur was über die Anzahl der Informationen die vervielfältigt werden müssten, das andere was @2k5lexi meint ist bei integer Scaling/typischer Skalierung die Quadratische Vervielfältigung der Informationen zum Quadrat.
Hier mal eine Schöne Veranschaulichung: https://community.amd.com/t5/graphics/amd-s-opinion-about-quot-integer-scaling-quot/td-p/216612
1650304704410.png


P. S moderne Varianten kombinieren das, bzw. die schauen wo man Informationen weglassen kann und machen das Selektiv, schon bei der Generierung der Informationen
1650305488305.png

Quelle: https://developer.nvidia.com/vrworks/graphics/variablerateshading
Das heißt hier wird selektiv in bestimmten Arealen die Information reduziert um die Rechenleistung zu reduzieren und nur wo der typische Fokus des Spielers anliegt die Höchste Auflösung zu verwenden.
 
Zuletzt bearbeitet:
...für VR/Steam VR mit der Reverb befasst? Würde es gerne für MSFS und DCS VR nutzen, leider keine Ahnung wie ich in der AMD Software die VR Brille (die übrigens mit 4 Displays in der Systemsteuerung erkannt wird) wählen kann um die als primäre Anzeige für ein Spiel zu verwenden?
Weiß nicht ob du inzwischen fündig geworden bist. Für FSR1 in VR kannst du die OpenVR FSR App nutzen.
Immer schön mit Nativ vergleichen, da es gerade in VR extrem auffällt wenn alles matschig wird. Dann besser FSR aus und andere Grafik Features abschalten bzw Auflösung reduzieren. Das üblich halt.
Ist übrigens mit DLSS(2) nicht wesentlich besser. Das ganze Upscaling führt bei schlechter Implementierung in VR zu Augenkrebs :kotz:
 
Weiß nicht ob du inzwischen fündig geworden bist. Für FSR1 in VR kannst du die OpenVR FSR App nutzen.
Immer schön mit Nativ vergleichen, da es gerade in VR extrem auffällt wenn alles matschig wird. Dann besser FSR aus und andere Grafik Features abschalten bzw Auflösung reduzieren. Das üblich halt.
Ist übrigens mit DLSS(2) nicht wesentlich besser. Das ganze Upscaling führt bei schlechter Implementierung in VR zu Augenkrebs :kotz:
Ne war ich so noch nicht, danke für den Tipp. FSR2 für MSFS kommt ja jetzt im November, in DCS gibt es ja das OpenXR Toolkit mit NIS, aber das bringt null Performance und mit Open XR funktioniert keine Motion Reprojektion, die blockt nicht korrekt und springt immer hin und her, noch schlimmer es verursacht FPS Einbrüche in hohem Ausmaß.

Werde das Tool Mal in DCS testen, bis die soweit sind das FSR unterstützt wird vergehen wahrscheinlich noch 4 Jahre
 
Wie kann ich FSR unter Linux nutzen? Ich benötige das bei meinem aktuellen Rig + Spielen zwar nicht, würde es aber gerne mal testen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh