Gerücht: GeForce RTX 3080 Ti mit Mining-Nerf und nur 12 GB VRAM

Mir fiel gerade nichts besseres ein als AA^^ Dafür das es als das nonplus ultra beworben wird, liefert es einfach nicht was es soll. Noch nicht, das ist auch der Grund für mich darauf gut verzichten zu können.

Kommt auf die Karte an, eine 3060 zb ist sicher nicht optimal für RT auf MAX , meine 3090 macht das problemlos..
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
RT ist genauso in Stufen geplant wie die Physics und die Auflösungen.

Die kleinen Karten haben halt Ray Tracing nur für Full HD Performance, WQHD / medium RT während HIGH-END eher noch etwas Puste nach hinten hat für HIigh & Ultra Performance auf hoher Auflösung.

Da kommt dann Trick 77 mit DLSS, es drückt bei hoher Auflösung die Auflösung der Effekte runter, die RT Lichter und Schatten werden in niedrigerer Auflösung gerendert als die Tatsächliche Auflösung hergibt und dann hoch skaliert.

Nicht das man das nicht auch mit Reglern einstellen könnte und das ohne DLSS auch implementieren könnte. So habe ich das zumindest verstanden, ist die Auflösung 4k = RT Schatten auch 4k.

DLSS entkoppelt das und passt dynamisch an den Sichtbereich an, so das alles was sehr nahe ist normal oder nur reduziert runter skaliert ist, während ganz weite Objekte oder Objekte die nach dem festgelegten Algorithmus identifiziert werden runter skaliert und mit eigenen Filtern nachbearbeitet werden um sie zu verschärfen. Was manchmal aber nicht immer gut ist, von den Entwicklern und Designer gewünschte unscharfe Objekte werden plötzlich künstlich nachgeschärft und das kann das Szenenbild verfälschen.

Was mich hier interessieren würde:

1615144329850.png


Schafft eine RTX 3090 vs einer 3060 TI bei gleicher Auflösung z. b 1080P Mit DLSS bei geleichen Settings ein besseres Bild?
Oder wie darf man die Tensor Cores interpretieren?

Wurde das schon mal gebenchmarkt? Ich rede hier nicht von den FPS die hinten rauskommen, sondern von der Bildqualität bei gleichen Bedingungen...
 
Zuletzt bearbeitet:
@n3cron Der "Trick" von DLSS sind wirklich die "Filter" die du nur beiläufig erwähnst. Dass weiter entfernte Objekte mit weniger Details und Aufwand berechnet werden gibt es schon seit sehr sehr langer Zeit.
Im Mario Kart N64 waren Heissluftbalone im Hintergrund ab einer gewissen entfernung sogar nur 2D Darstellungen und wurden erst in der Nähe, zu 3D Gebilden (fällt mir grad so ein weil ich dazu kürzlich ein Video gesehen hatte).
Heute nennt sich das "LOD": https://de.m.wikipedia.org/wiki/Level_of_Detail
Und ja es bedarf einiges an Arbeit das Switchen der Stufen so unsichtbar wie möglich geschehen zu lassen. Die Technik ist aber in jedem AAA Titel unabdingbar, unabhängig von DLSS.
 
Wie DLSS ist nicht global? Kann das nicht der treiber unabhängig von Spiel machen?
Nein.
Wieso wohl gibt es eine Liste von Games die das unterstützen? (was zugleich der grösste Kritik Punkt an DLSS ist). Ich vermute, so wie man für die Implementation von sinnvollem LOD (siehe Post drüber), viele Entscheidungen treffen und zumindest für jeden Shader-Skript was konfigurieren muss, wird man das wohl auch für die DLSS Implementation tun müssen.

Es wird aber daran gearbeitet es den Entwicklern so einfach wie möglich zu machen. Die Technik ist inzwischen z.B. Teil der Unreal Engine und Unity wird sicher auch bald folgen.
Sobald letzteres geshieht kann ich mal selbst berichten wie einfach/sinvoll die Implementation mir erscheint :)
 
AMD arbeitet, an eine globale Implementation

AMD FidelityFX Super Resolution.

Es funktioniert ein wenig anders als Nvidias DLSS.
Einigen Quellen zu urteilen nach soll es eben auch Global funktionieren.
 
AMD arbeitet, an eine globale Implementation

AMD FidelityFX Super Resolution.

Es funktioniert ein wenig anders als Nvidias DLSS.
Einigen Quellen zu urteilen nach soll es eben auch Global funktionieren.
Vor allem wieder mit offenen Protokollen und gut für die Linux Community.
 
AMD arbeitet, an eine globale Implementation

AMD FidelityFX Super Resolution.

Es funktioniert ein wenig anders als Nvidias DLSS.
Einigen Quellen zu urteilen nach soll es eben auch Global funktionieren.
Hmm, die Quellen würden mich interessieren.
Hier ist ja nur die Rede von plattformübergreifend - also unabhängig von den Herstellerspezifischen Hardwarekomponenten wie NV's tensorcores.
Wir dürfen gespannt sein.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh