Bessere Grafikqualität: DLSS wird weiter optimiert

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.966
turing-gpu.jpg
Bereits mehrfach haben wir uns mit dem Thema Deep Learning Super Sampling oder kurz DLSS beschäftigt. Anfänglich gab es noch große Defizite in der Bildqualität, die vor allem in Battlefield V auffällig waren. Auch in Metro: Exodus und Anthem oder Shadow of the Tomb Raider waren noch Probleme in der Darstellungsqualität erkennbar, was auch Titel wie Anthem betraf. Erst mit Control konnten wesentliche Verbesserungen festgestellt werden.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja, das "mp3" der Grafikrenderung - wo ohne augenscheinlich Qualität verloren zu haben deutlich weniger Aufwand zur Berechnung benötigt wird. Dieser "gesparte Aufwand" kann dann in die RT-Kerne fließen. Bei eher statischen Szenarien funktioniert das auch ganz toll, allerdings wird damit auch die Kreativität der Spielebastler eingeschränkt, da dynamische Effekte/Darstellungen (prozedural, physik-basiert, randomisiert) nicht von dem DL-Algo gelernt werden können. Da genau diese Technologien in letzter Zeit an Interesse gewonnen haben (man möchte ja irgendwann aus den eher statischen 3D Blöcken ausbrechen und in Richtung Fotorealismus gehen), sehe ich die Gefahr, das DLSS diese anfänglichen Fortschritte behindern könnte.

btw - der Hinweis mit den Screen Space Reflections ist mehr als berechtigt. In Control wurden die kurzerhand einfach mal deaktiviert, um den "Effekt" von RTX zeigen zu können. Gut gebaute SSRs sind von Raytracing kaum zu unterscheiden - man muss halt nur jemand Kompetenten an das Szenendesign lassen. Da Raytracing aber SSR ersetzen soll, wundert es dann auch nicht wenn kaum bis gar keine Arbeit mehr in SSR gesteckt wird, wenn Raytracing verfügbar ist.

Unterm Strich finde ich die Grundlagenarbeit von Nvidia in diesem Bereich lobenswert. Was ich nicht lobenswert finde, ist die Daumenschraube gegenüber anderen Technologien, die man schon fast als Sabotage bezeichnen könnte. Ich kann nur hoffen, dass AMDs Raytracing Ansatz weniger restriktiv ist - aber das wird die Zukunft zeigen.
 
unterm strich bedeutet die ganze technik doch, das man vom hersteller abhängig wird, welche grafikqualität er liefert und bereit ist zu berechnen, und zwar auf ewig nach dem kauf des gerätes.
läuft das gerät was man gekauft hat, also die grafikkartenversion,
mal aus dem fokus, ist man der angeschmierte.

das wäre ähnlich als würden ältere modelle nicht mehr so gut bei treibern versorgt werden, also das was man teils zb bei NV schon sehen kannn, nur noch stärker.

danke verzichte.
 
unterm strich bedeutet die ganze technik doch, das man vom hersteller abhängig wird, welche grafikqualität er liefert und bereit ist zu berechnen, und zwar auf ewig nach dem kauf des gerätes.
läuft das gerät was man gekauft hat, also die grafikkartenversion,
mal aus dem fokus, ist man der angeschmierte.

das wäre ähnlich als würden ältere modelle nicht mehr so gut bei treibern versorgt werden, also das was man teils zb bei NV schon sehen kannn, nur noch stärker.

danke verzichte.
Letzteres macht doch jeder Hersteller.
DLSS ist doch erstmal unabhängig vom Grafikkartenmodell. Bin absolut kein Nvidia-Fan aber das ist doch ein nettes Feature. Wer es nicht will kann es lassen. Aber in meinen Augen ist das die einzige Möglichkeit aktuell mit einer „Mittelklasse“ Grafikkarte aktuelle Spiele in 4K zu zocken (oder eben fast).
 
DLSS ist doch erstmal unabhängig vom Grafikkartenmodell.

Nein, ist es eben nicht! Sieht man ja schon daran, dass mit einer 2080Ti kein DLSS in FullHD eingeschaltet werden kann, während es mit den anderen Modellen auch in dieser Auflösung geht.
 
Letzteres macht doch jeder Hersteller.
DLSS ist doch erstmal unabhängig vom Grafikkartenmodell.

es macht nicht jeder hersteller, AMD-karten zb sind dafür bekannt das die treiber mit den jahren teils gar besser werden bzw ihr leistung bei spielen als folge davon.
zu DLSS:
DLSS ist NV-only.
NV berechnet dir mit seinen supercomputern die hochgerechneten bilder die du in spielen dann, bei eingeschaltetem DLSS, zu sehen bekommst.

macht NV das mal nichtmehr, funktioniert wenn man pech hat das ganze DLSS nichtmehr.
müsste man mal testen mit einem rechner ohne internetzugang oder expliziet ohne kontakt zu NV-servern,
was ein spiel dann machen würde
(hallo tester ;-) wär das nix für euch?!).
 
Sehr löblich das nVidia am Ball bleibt, auch eine gute Beleuchtung seitens Hardwareluxx 8-).

Nein, ist es eben nicht! Sieht man ja schon daran, dass mit einer 2080Ti kein DLSS in FullHD eingeschaltet werden kann, während es mit den anderen Modellen auch in dieser Auflösung geht.
Ich glaube das du mal wieder gar nicht verstanden hast worum es bei DLSS geht.
Warum sollte eine 4K Karte Ressourcen sparende Super-Sampling Algorithmen nutzen in 1080p, damit man statt 40% dann 20% GPU Last hat ? Die Option fehlt natürlich meistens damit die Leute diesen Fehler nicht machen, kann aber soweit ich weiß forciert werden bei Bedarf. Die 2080ti hat schlicht soviel Rechenpower und sollte auf WQHD oder 4K laufen und nicht künstlich mit A.I. hochskalieren, das verfehlt den Zweck dieser Technologie.


es macht nicht jeder hersteller, AMD-karten zb sind dafür bekannt das die treiber mit den jahren teils gar besser werden bzw ihr leistung bei spielen als folge davon.
zu DLSS:
DLSS ist NV-only.
NV berechnet dir mit seinen supercomputern die hochgerechneten bilder die du in spielen dann, bei eingeschaltetem DLSS, zu sehen bekommst.

macht NV das mal nichtmehr, funktioniert wenn man pech hat das ganze DLSS nichtmehr.
müsste man mal testen mit einem rechner ohne internetzugang oder expliziet ohne kontakt zu NV-servern,
was ein spiel dann machen würde
(hallo tester ;-) wär das nix für euch?!).
Nur lächerlicher Mumpitz.
Sollte tatsächlich eine stärkere Leistungssteigerung bei Radeons über die Zeit festzustellen sein dann eher weil DAY 1 nicht so die Stärke seitens AMD ist, halte ich aber für einen Mythos. Etliche Informationsquellen im Internet die du nicht verarbeiten möchtest auch.

DLSS ist vom Nvidia A.I. Supercomputer vorgerechnet und wird gecached, die Daten für die Tensor Cores werden dann weitergeleitet im Treiber für das jeweilige Spiel. Warum sollte man dann an Tag X nicht mehr spielen können :unsure:, im Gegenteil umso mehr Zeit vergeht umso mehr kann Nvidia verfeinern umso besser das Ergebnis.
 
Den einizigen Fortschritt den ich die letzten Jahre gesehen habe war es selber die Auflösungsskalierung in Games einzustellen sowie dann passende AA-Modi.

mehr PPI mit mehr FPS halt ich für die Zukunft, eventuell mehr Mods und noch mehr Einstellmöglichkeiten.
 
Sehr löblich das nVidia am Ball bleibt, auch eine gute Beleuchtung seitens Hardwareluxx 8-).

Ich glaube das du mal wieder gar nicht verstanden hast worum es bei DLSS geht.
Warum sollte eine 4K Karte Ressourcen sparende Super-Sampling Algorithmen nutzen in 1080p, damit man statt 40% dann 20% GPU Last hat ? Die Option fehlt natürlich meistens damit die Leute diesen Fehler nicht machen, kann aber soweit ich weiß forciert werden bei Bedarf. Die 2080ti hat schlicht soviel Rechenpower und sollte auf WQHD oder 4K laufen und nicht künstlich mit A.I. hochskalieren, das verfehlt den Zweck dieser Technologie.
nur weil die grösste grafikkarte genug rechenpower hat,
kann sie DLSS bei 1080p nicht nutzen?

was is das denn für eine begründung?!

Nur lächerlicher Mumpitz.
Sollte tatsächlich eine stärkere Leistungssteigerung bei Radeons über die Zeit festzustellen sein dann eher weil DAY 1 nicht so die Stärke seitens AMD ist, halte ich aber für einen Mythos. Etliche Informationsquellen im Internet die du nicht verarbeiten möchtest auch.

DLSS ist vom Nvidia A.I. Supercomputer vorgerechnet und wird gecached, die Daten für die Tensor Cores werden dann weitergeleitet im Treiber für das jeweilige Spiel. Warum sollte man dann an Tag X nicht mehr spielen können :unsure:, im Gegenteil umso mehr Zeit vergeht umso mehr kann Nvidia verfeinern umso besser das Ergebnis.

es gab definitiv über die zeit bessere leistungen bei AMD, davor verschliesst du aber bitte nicht die augen?
das hat auch nicht nur mit day-1 zu tun....
*immer diese leute mit denkerischem tunnelblick*

zu DLSS:
die berechneten daten müssen ja irgendwie auf deinen rechner kommen, richtig?
gut.
wenn NV dann gedenkt das mal ein zu stellen woher genau willst du DANN deine daten beziehen?
genau, dann is nämlich nixmehr mit daten für dein DLSS!

oder wenn NV mal einfällt die rechenpower für die durchläufe zu kappen/verringern, weil zu teuer, dann bist du denen ausgeliefert.
die berechnen schlechter und du hast zu schlucken
und kannst genau NIX daran ändern!

bei einer grafikkarte die selber rendert, bist du vom hersteller unabhängig, egal was der macht, du hast gekauft, du kannst rendern.
bei DLSS machst du dich abhängig davon das NV die daten liefert,
für ewig.

wie wahrscheinlich ist es das NV das in zb 5 jahren für dein jetziges modell noch macht?
was machst du dann?

ja DU hast dann wahrscheinlich schon ne neue karte, andere aber vielleicht nicht!
*immer diese leute mit denkerischem tunnelblick*
 
Zuletzt bearbeitet:
Dann hat man immer noch eine Grafikkarte mit allen Features bis auf eins. Ich kaufe mir ja auch Spiele, obwohl ich weiß dass irgendwann die Server dicht gemacht werden. Es bietet einfach bei kaum Qualitätsverlust viel mehr Frames. Damit hat es für mich schon eine Existenzberechtigung.
 
du meinst eine karte mit extra preisaufschlag den du bezahlt hast,
für 2 features (DLSS und raytracing), von denen eins dann weg ist,
und du umsonst extra für hingelegt hast?

das stört dich dann nicht die bohne wenn das dann wegfällt?
lüg dir doch selber nicht in die tasche!

mehr frames dadurch das du dich wegen der rechnerei vom hersteller, bzw dem der dir das ausrechnet abhängig machst.

wenn NV einfach mehr 'normale kerne' für's selbe geld wie den aufschlag für DLSS-kerne mit reingebaut hätte, hätte man die selbe framratenverbesserung gehabt ohne sich abhängig zu machen,
so kann man das auch betrachten! und DAS hätte dann vorteile bei ALLEN spielen gegeben, nicht nur bei denen die NV auswählt.........
 
Wie soll man denn eine doppelt so fette GPU für den gleichen Preis anbieten? Software skaliert da viel schöner über die gesamten Stückzahlen von 2060-2080ti und die kommenden Generationen mit DLSS.
 
nur weil die grösste grafikkarte genug rechenpower hat,
kann sie DLSS bei 1080p nicht nutzen?
Ne Plausible Begründung. Weil es völlig unsinnig ist ein 1080p Bild mit A.I. hoch zu skalieren wenn die GPU nativ höher rechnen kann.
Würdest du dich nicht den ganzen über Nvidia und Konsorten auslassen, wo im Prinzip nur Fehlinformationen und Polemik enthalten sind wüstest du wohl wie es funktioniert.

DLSS ist nicht per se als Anti-Aliasing zu verstehen, gut umgesetzt hat es den selben optischen Effekt, der Sinn und Zweck des Ganzen ist aber die GPU und Cuda Cores zu entlasten und die Tensor Cores zu belasten.

es gab definitiv über die zeit bessere leistungen bei AMD, davor verschliesst du aber bitte nicht die augen?
das hat auch nicht nur mit day-1 zu tun....
*immer diese leute mit denkerischem tunnelblick*

zu DLSS:
die berechneten daten müssen ja irgendwie auf deinen rechner kommen, richtig?
gut.
wenn NV dann gedenkt das mal ein zu stellen woher genau willst du DANN deine daten beziehen?
genau, dann is nämlich nixmehr mit daten für dein DLSS!

oder wenn NV mal einfällt die rechenpower für die durchläufe zu kappen/verringern, weil zu teuer, dann bist du denen ausgeliefert.
die berechnen schlechter und du hast zu schlucken
und kannst genau NIX daran ändern!

bei einer grafikkarte die selber rendert, bist du vom hersteller unabhängig, egal was der macht, du hast gekauft, du kannst rendern.
bei DLSS machst du dich abhängig davon das NV die daten liefert,
für ewig.

wie wahrscheinlich ist es das NV das in zb 5 jahren für dein jetziges modell noch macht?
was machst du dann?

ja DU hast dann wahrscheinlich schon ne neue karte, andere aber vielleicht nicht!
*immer diese leute mit denkerischem tunnelblick*
Ich denke mehr trollen kann man nicht, ohne AMD jetzt madig zu machen, aber speziell bei den XT Modellen ist der Treiber teils auf Klownlevel hab ich mir sagen lassen.
Beide Hersteller machen aber meist bei der aktuellen Generation deutliche Leistungs und Stabilitäts Fortschritte, liegt in der Natur der Sache bei Hard und Software, wat du laberst ist völliger Non-Sens.

Aber ja wenn Nvidia pleite geht bekomme ich keine frischen DLSS Daten mehr vom DGX SATURN V Supercomputer, ich denke dann werde ich sofort ohnmächtig und falle ins Koma.
 
Über 50% aller Gamer zocken auf FullHD. Klarer Grund keinen dementsprechenden Test zu machen...
So oder so erscheint es aber unsinning, welches Aufhebens man um diese kunstlichen Bildverschlechterungen macht. Täten die Hersteller ähnlichen (angeblichen) Aufwand in die bezahlbare Fortentwicklung der Leistung machen, anstatt in Taschenspielertricks die Fake-Bilder darstellen, dann wäre das der durchschnittlichen Grafikqualität beim Spieler zu Hause zuträglicher.
Gerade in Hinsciht darauf, dass man auf der einen Seite mit RTX wirklich allerkleinste Verbesserungen in Richtung Realilsmus sehr teuer erkauft (sowohl preislich als auch bezüglich FPS!), ist es doch geradezu absurd, dass man auf der anderen Seite dazu motivieren möchte, mit dem resultierenden Bild ein wenig Glücksspiel zu betreiben.
 
Zuletzt bearbeitet:
Über 70% ... nach wie vor.

Nicht jeder ist bereit über 1k für PC und über 500€ in Monitor zu investieren.
4k Gaming ist ein Witz und teuert.
 
Zuletzt bearbeitet:
ich bleibe auch noch eine weile länger bei 1080p.
gestern war 'horrortag' bei mir.
graka ausgefallen.
also auf die schnelle ne neue her, 'ich will abends tv-sehen'....
in HH zum glück nicht das grösste problem, es gibt viele PC-läden und ketten.

da ich für RT-kerne usw (noch) kein geld ausgebe(hab kein spiel das das unterstützen würde) gab's eben, was von AMD.
weil ich nun für längerfristig was haben will, wurde es eine RX 5700 XT.
beim rausuchen im internet, was vom P/L her passt, schon festgestellt, die haben meist ja garkein DVI mehr, also monitore getauscht, zwischen mein frau und mir, ihrer is neuer und hat HDMI.
nach dem umbau und testrunde, hmm, sie is mit dem neuen besser bedient und ich wollt eigentlich auch schon länger was helleres, der jetzige dunkelt langsam immer mehr ab, war eh nie der hellste.
jetzt gibts nenn 27" iiyama mit 144hz und freesync samt LFC, wieder in 1080p.
ich hab lieber FPS als höhere auflösung von der ich mit meinen alten augen und über 1m abstand eh nix hab, is ja nicht wie beim smarthpone mit lesebrille wo 1440p ersichtlich feinauflösender ist ;-)
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh