NVIDIA nimmt massive Änderungen an DLSS vor

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.949
control.jpg
Unser Technik-Check für Control hat gezeigt, dass das Spiel optisch von den RTX-Effekten profitiert und diese auch sinnvoll eingesetzt werden, die Effekte aber auch ordentlich an Leistung kosten. Auf der anderen Seite erreicht die Anwendung von Deep Learning Super Sampling (DLSS) eine Anhebung der FPS auf das Ursprungsniveau, ohne dass die Grafikqualität derart leidet, wie das bei bisherigen DLSS-Implementierungen der Fall war.Unsere Vermutung war also, dass NVIDIA weitere...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das meinte ich^^
Wie erwähnt meinte irgendwer im Forum nach einem Test auch dass dies für raytracing gilt.
Gute Aussichten dass da noch Verbesserungen kommen, wenn tensor cores auch nicht mit fp16-Berechnungen gefüttert werden.
Selbst wenn die nächste rtx 3080 ti wieder nur 20 - 30 % mehr an Leistung oben drauf packt, gibts mehr Leistung eben durch dlss.
Nun, nur für AAA-Spiele und welche die stark dafür optimiert sind.
 
Na das klingt doch auf jeden Fall schon mal gut und ist ein Schritt in die richtige Richtung! Frage ist, ob die Verbesserungen dann später auch bei älteren Titeln nachgepatched werden?
 
Zumindest für Metro Exodus hat NVIDIA zumindest Verbesserungen vorgenommen, die ich mir aber noch nicht angeschaut habe.
 
DLSS ist müll und bleibt müll.
aus weniger pixeln mehr hochscallieren weil sonst nur 1000€+ grafikkarten leistungsfähig genug sind,
mit RTX spiele zu berechnen, zeigt deutlich das auch RTX noch lange nicht weit geung ist, das es massentauglich ist.
da hilft dann DLSSS auch nichmehr bzw wird das spiel dann, nur für paar spiegelungen usw in noch schlechterer qualität gerendert und dann auf kranpf versucht es wieder 'schön zu rechnen'...
vor RTX-gedöns war es so das genug leistung der grafikkarten da war,
das man überlegen konte ehr den umgekehrten weg zu gehen, nämlich in höherer auflösung berechnen und dann auf kleinerer auflösung darstellen, zb in 4k berechnen aber nur in 1080p auf dem monitor laufen haben.

ich warte was RTX angeht noch mindestens 2 generationen ab, bis ich eine karte kaufen würde die das hat, und DLSS können sie gleich ganz behalten!

gibt es eigentlich tests wo man das mal getestet hat mit höhere auflösung berechnen und auf kleinerer darstellen, also downscalling, welche karten genauer welche fps usw schaffen?!?
wäre wesentlich interessanter davon mal zu lesen.
 
Zuletzt bearbeitet:
Am besten RayTracing und DLSS komplett deaktivieren, dann stimmt die Bildqualität und auch die Performance. Ich würde im Leben nicht auf die Idee kommen, meinen WQHD Monitor mit 1.706 x 960 Pixel (dafuq) Material zu füttern, dieses dann via Upscaling aka DLSS hoch zu skalieren, nur um mit der Lupe sichtbare Licht- und Schatteneffekte aktivieren zu können.

Ich mache es genau andersrum, ich werde mir bald einen 4K Monitor kaufen und dann mit "hohen" Details spielen. Das sieht weit besser aus, als FHD Ultra
 
Locker bleiben, weniger von den psychoaktiven Substanzen nehmen.
 
Die sind noch tief in ihrer Firmentreuen Phase, die Krankheit benötigt Zeit um sie überwinden zu können, die schaffen das schon. Das sie sich bis dahin selbst ins Knie schießen ist ihnen gar nicht bewusst.
 
Recht haben Sie aber. Das ist Müll und bleibt Müll (halt optimierter Müll).

RT ist ein Witz. 2 Gen. zu warten ist optimistisch. Ich denke, es geht noch länger.
RTX sind überteuert ohne "richtigen" Mehrwert.
 
Recht haben Sie aber. Das ist Müll und bleibt Müll (halt optimierter Müll).

RT ist ein Witz. 2 Gen. zu warten ist optimistisch. Ich denke, es geht noch länger.
RTX sind überteuert ohne "richtigen" Mehrwert.

Verwechsele mal lieber nicht Fakten mit persöhnlichen bewertungsmaßstäben.

Sie bieten DIR keinen "richtigen" mehrwert, wobei du definieren solltest was "richtig" bedeutet, in diesem kontext.
 
Raytracing ist schon ziemlich geil, vor allem in Metro.
Sobald AMD und evtl.- später Intel auch RT können weint eh keiner mehr dann finden es Plötzlich alle geil :haha:
Jeder fanboy von was auch immer bekommt dann sein Häppchen.

Von DLSS bin ich noch nicht von überzeugt, wurde zwar schon hier und da verbessert aber die Bild Qualität ist immer noch zu schlecht um es mit 4k vergleichen zu können.
 
Zuletzt bearbeitet:
So so man ercheatet sich also heute die Performance :stupid:
 
naja noch ist die 2060 in VT vorhanden ):wut:

Zuspät
MP=SK: 226€ inkl. Versand.
Verkauft an reishasser :shot:
 
Zuletzt bearbeitet:
DLSS ist müll und bleibt müll.

Sehr geistreicher Kommentar. Mir dünkt, du hast keine Ahnung und keine Vorstellungkraft, was "künstliche Intelligenz" alles an Leistungsverbesserungen für die Zukunft erzielen können wird, ohne die Leistungskosten zu stark ansteigen zu lassen.
Bis hin zu Spieleengines die mit KI/AI teile eines Spieles entwerfen, oder die Umgebung automatisiert designen.

aus weniger pixeln mehr hochscallieren weil sonst nur 1000€+ grafikkarten leistungsfähig genug sind

Um diese Qualität darzustellen, wäre vorher ein quad-sli Verbund aus 4x 1080Ti notwendig gewesen.

mit RTX spiele zu berechnen, zeigt deutlich das auch RTX noch lange nicht weit geung ist, das es massentauglich ist.

Seit wann sind neue Techniken zu deren Einführung massentauglich, heißt günstig, breit verfügbar und von den Entwicklern perfekt umgesetzt?

da hilft dann DLSSS auch nichmehr bzw wird das spiel dann, nur für paar spiegelungen usw in noch schlechterer qualität gerendert und dann auf kranpf versucht es wieder 'schön zu rechnen'...

Dann schalte doch DLSS ab. Eine Kombination der Pathtracing Funktionen ist auch auf GPU´s, wie einer 2060 spielbar, muss nicht immer ultra sein.

vor RTX-gedöns war es so das genug leistung der grafikkarten da war,
das man überlegen konte ehr den umgekehrten weg zu gehen, nämlich in höherer auflösung berechnen und dann auf kleinerer auflösung darstellen, zb in 4k berechnen aber nur in 1080p auf dem monitor laufen haben.

Tolle Überlegung, nur was hilft die Auflösung, wenn Raster-Grafik nun mal nicht gut aussieht?

ich warte was RTX angeht noch mindestens 2 generationen ab, bis ich eine karte kaufen würde die das hat, und DLSS können sie gleich ganz behalten!

Labertasche - DLSS ist genauso wie RTX/DXR die Zukunft. Man wird gar nicht mehr ohne auskommen.
DLSS ist mMn sogar auf absehbare Zeit noch das interessantere Feature, weil es wirklich die Grafik trotz niedrigerer nativer Auflösung verbessern kann und auch tut, nur nicht in Battlefield 5 und Tombraider.
Recht haben Sie aber. Das ist Müll und bleibt Müll (halt optimierter Müll).

Schwachfug.
 
Zuletzt bearbeitet von einem Moderator:
Es ist logisch dass das Gesamtpacket aus dedizierter spezialisierter Hardware (tensore cores) und Software (die ganzen Bibliotheken, image reconstructioning, dlss, ray tracing - nun AI-basiert) so früh noch nicht rund läuft, aber die Entscheidung diesen Weg zu gehen und daran zukünftig festzuhalten war die richtige, als sich die Beschäftigten bei nvidia, amd (rdna2 sollte nächstes Jahr wohl einen ähnlichen Weg beschreiten) und bald Intel, vor vielen Jahren darüber Gedanken machten "Mehr Leistung, besserere Grafik, wie?". :confused:
Die neuesten Fertigungsverfahren zu benutzen wird immer teuerer, (Mikro)Architekturen lassen sich nicht ewig deutlich verbessern, die Leistungssprünge geringer und 7nm/+/6nm wird noch bis 2023/2024 verwendet werden.
Die Alternative wäre eine rtx 2080 ti mit 6000 Shadern, die dann die erhofften 40 - 50 % mehr Raster-Leistung bringt dafür aber 350 W säuft und weil der Chip so groß ist, etwa gleich viel kosten würde.
Toll. :rolleyes:

Das einzig blöde was man den Geiern bei nvidia vorwerfen kann ist die Entscheidung keine rtx 2060/2070/2080-ti ohne dedizierte Kerne herauszubringen; bei gtx 1660 ti ist Schluß.
 
Sehr geistreicher Kommentar. Mir dünkt, du hast keine Ahnung und keine Vorstellungkraft, was "künstliche Intelligenz" alles an Leistungsverbesserungen für die Zukunft erzielen können wird, ohne die Leistungskosten zu stark ansteigen zu lassen.
Bis hin zu Spieleengines die mit KI/AI teile eines Spieles entwerfen, oder die Umgebung automatisiert designen.
ob ich davon ahnung habe oder nicht, spielt da keine rolle. aus 'weniger' kann man nicht 'mehr' machen, egal wie, auch mit KI nicht.
eine umgebung designen etc ist auch etwas anderes als das was die KI hier schaffen soll.
wobei, genau die 'leistungskosten' sind es doch warum dieser KI-kram überhaupt gemacht wird.

Um diese Qualität darzustellen, wäre vorher ein quad-sli Verbund aus 4x 1080Ti notwendig gewesen.
ändert nix an der tatsache warum man das gemacht hat, selbst wenn dazu 10 GTX 1080ti nötig gewesen wären.

Seit wann sind neue Techniken zu deren Einführung massentauglich, heißt günstig, breit verfügbar und von den Entwicklern perfekt umgesetzt?
vergleich mit äpfeln und birnen. ich habe gesagt das der kram nochnicht so weit ist und du stellst die frage ob je eine neue techniik sofort voll umfänglich funktioniert hätte
-finde den fehler....

Dann schalte doch DLSS ab. Eine Kombination der Pathtracing Funktionen ist auch auf GPU´s, wie einer 2060 spielbar, muss nicht immer ultra sein.

Tolle Überlegung, nur was hilft die Auflösung, wenn Raster-Grafik nun mal nicht gut aussieht?

Labertasche - DLSS ist genauso wie RTX/DXR die Zukunft. Man wird gar nicht mehr ohne auskommen.
DLSS ist mMn sogar auf absehbare Zeit noch das interessantere Feature, weil es wirklich die Grafik trotz niedrigerer nativer Auflösung verbessern kann und auch tut, nur nicht in Battlefield 5 und Tombraider.

Schwachfug.

keine lust weiter darauf ein zu gehen, lohnt sich nicht, allein schon wegen dem umgangston....
macht was ihr wollt und euch euer 'glaube' eingibt.

ICH werde noch 2-3 generationen abwarten, DANN wird RT soweit sein und DLSS dann wohl wieder in der versenkung verschwunden weil RT leistungsfähig genug ist.
nebenbei: habe da auch keinen zeitdruck, es gibt kein spiel das ich habe welches derartiges unterstützt und alle spiele sehen gut genug ohne RT aus.
und selbst wenn es die spiele mit RT gäbe, ich bin doch nicht bekloppt und zahle derartige kartenpreise nur um dieses RT zu haben!

mehr als 250-300 zahl ich nicht für eine garfikkarte ohne WK, egal von welchem hersteller, daher kaufe ich auch jetzt noch keine neue karte sondern warte bis diese in meinen preisrahmen gefallen sind.
derzeit ist zb eine vega56 interessanter, aber ich warte auf preisverfall bei den 5700ern. so dringend brach ich keine neue grafikkarte, meine alte kann mit meinem monitor zusammen alles noch flüssig genug darstellen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh