RT ist genauso in Stufen geplant wie die Physics und die Auflösungen.
Die kleinen Karten haben halt Ray Tracing nur für Full HD Performance, WQHD / medium RT während HIGH-END eher noch etwas Puste nach hinten hat für HIigh & Ultra Performance auf hoher Auflösung.
Da kommt dann Trick 77 mit DLSS, es drückt bei hoher Auflösung die Auflösung der Effekte runter, die RT Lichter und Schatten werden in niedrigerer Auflösung gerendert als die Tatsächliche Auflösung hergibt und dann hoch skaliert.
Nicht das man das nicht auch mit Reglern einstellen könnte und das ohne DLSS auch implementieren könnte. So habe ich das zumindest verstanden, ist die Auflösung 4k = RT Schatten auch 4k.
DLSS entkoppelt das und passt dynamisch an den Sichtbereich an, so das alles was sehr nahe ist normal oder nur reduziert runter skaliert ist, während ganz weite Objekte oder Objekte die nach dem festgelegten Algorithmus identifiziert werden runter skaliert und mit eigenen Filtern nachbearbeitet werden um sie zu verschärfen. Was manchmal aber nicht immer gut ist, von den Entwicklern und Designer gewünschte unscharfe Objekte werden plötzlich künstlich nachgeschärft und das kann das Szenenbild verfälschen.
Was mich hier interessieren würde:
Schafft eine RTX 3090 vs einer 3060 TI bei gleicher Auflösung z. b 1080P Mit DLSS bei geleichen Settings ein besseres Bild?
Oder wie darf man die Tensor Cores interpretieren?
Wurde das schon mal gebenchmarkt? Ich rede hier nicht von den FPS die hinten rauskommen, sondern von der Bildqualität bei gleichen Bedingungen...