Leistung und Leistungsaufnahme von DLSS und RTX-Effekten analysiert

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.960
ray-tracing.jpg
Bisher haben wir nur einige Tech-Demos zur Verfügung, um die GeForce-RTX-exklusiven Funktionen wie DLSS (Deep Learning Super Sampling) und einige RTX-Effekte ausprobieren zu können. Im Rahmen der Tests zur GeForce RTX 2080 und GeForce RTX 2080 Ti sowie dem ersten Modell der GeForce RTX 2070 haben wir uns die Leistung...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Interessant! Wie sich das wohl bei mir mit offenem BIOS unter Wasser verhält? Tjo, kann es leider nicht selber testen :wut:

16-33% mehr 4K Performance durch DLSS ist doch lecker!

Den Fahrstuhl kann man nur mit RT laufen lassen, oder? Ein Mit vs. Ohne wäre wünschenswert.
 
Zuletzt bearbeitet:
Nachdem die Verfügbarkeit unter jeder Sau ist, haben die Entwickler ja noch etwas Luft für die Integration der Features.
 
Ich bin echt gespannt ob da noch mehr kommt als Techdemos.
VEGA hatte ja auch eigentlich geile Features mit rappid packed math, den primitive shadern usw., aber bis
jetzt kam ja nicht ganz so viel rum. Rappid packed math wird bis jetzt nur von Wolfenstein genutzt?
Der HBCC muss auch durch die Engine ordentlich eingesetzt werden damit es etwas bringt und die primitive shader funktionieren nur in der Theorie ...

AMD stellt eigenen Entwicklungspfad für Primitive Shader ein (2. Update) - Hardwareluxx

Ich würde mir zur Zeit keine Karte der 2000er von nvidia holen da ich den aufgerufenen Preis schon krass finde und es im Prinzip eine Wette ist,
ob die neuen Technologien auch breit mit Nutzen für alle genutzt werden, aber ich bin froh über die early adopter, die es nicht sein lassen können :fresse2:,
und mit ihrer Wette ja evtl. die Entwicklung unterstützen.

Vielleicht reicht aber auch die hohe Marktdurchdringung von nvidia-GPU´s aus um die Entwickler zu beschleunigen!
 
Es ist eigentlich schon erstaunlich wie viel FPS man durch DLSS rausholen kann.
 
Toller Test. :hail:
Zusammenfassung wäre also, solange nur dlss verwendet wird, steigt der gpu-Takt, was mehr Leistung zur Folge hat.
Kommen noch die rtx-Eigenschaften hinzu, sinkt der gpu-Takt, was in weniger Leistung resultiert.
Das letztere ist nicht so erfreulich, aber verständlich.

Die Vergleiche sind bis jetzt unvollständig, da Werte in "3840 x 2160", für alle Karten, ohne irgendein Anti-Aliasing oder irgenein Nachbearbeitungs-AA fehlen.
Der verringerte grafische Qualität ist auch zu berücksichtigen.
Vergleiche zu Dlss x2 fehlen komplett.
 
Die Vergleiche sind bis jetzt unvollständig, da Werte in "3840 x 2160", für alle Karten, ohne irgendein Anti-Aliasing oder irgenein Nachbearbeitungs-AA fehlen.
Der verringerte grafische Qualität ist auch zu berücksichtigen.
Vergleiche zu Dlss x2 fehlen komplett.

Die verwendeten Anwendungen verwenden festgelegte Presets mit TAA oder DLSS bzw. mit DLSS und RTX, aber wir können nicht einfach das AA deaktivieren.

2x DLSS ist derzeit noch gar nicht verfügbar.
 
Warum erstaunlich ? Es wird ja nur in 1440p gerendert und durch das Upscaling ein Art Kantenglättung erzeugt. Man darf nicht vergessen, dass DLSS unschärfer ist als UHD/4K ohne TAA.
Wobei ich das nicht als Kantenglättungsersatz sehe, sondern eher so, das man die Renderauflösung reduziert, damit Leistung spart und AA gleich noch inklusive kriegt.

Zudem bringen die gewonnenen FPS nur bedingt etwas denn wenn man bereits 60FPS hat was auf UHD/4K 60Hz ausreicht dann bringen 80FPS keinen Vorteil, erst Recht nicht bei G-Sync.
Ja, wenn du JETZT auch ohne DLSS über die 60fps kommst, stimmt das, dann nutzt man aber halt einfach kein DLSS, sondern machts nativ.
Wenn aber beim neuesten AAA-Titel in 1-2 Jahren deine GPU nativ nur noch 50fps macht und du die verherenden Qualitätseinbußen durch DLSS verschmerzen kannst, dann hieft es dich womöglich wieder über die 60fps.

Der Test zeigt übrigens auch eine Demo in WQHD. Also funktioniert DLSS wohl nicht nur für UHD. Es kann also durchaus auch interessant sein, eine "nur" 2070 WQHD-tauglich zu halten.

Was ich nicht so ganz verstehe: Warum muss das Spiel das überhaupt unterstützen? Warum geht das nicht im Treiber? Man stellt z.B. im Spiel FHD ein und im Treiber dann DLSS auf WQHD? Sollte das Spiel doch nicht interessieren, wenn da noch ein Upscaling stattfindet?
 
Warum erstaunlich ? Es wird ja nur in 1440p gerendert und durch das Upscaling ein Art Kantenglättung erzeugt. Man darf nicht vergessen, dass DLSS unschärfer ist als UHD/4K ohne TAA.
Zudem bringen die gewonnenen FPS nur bedingt etwas denn wenn man bereits 60FPS hat was auf UHD/4K 60Hz ausreicht dann bringen 80FPS keinen Vorteil, erst Recht nicht bei G-Sync.

Wenn man davon ausgeht, dass DLSS das Antialiasing der Zukunft werden könnte, halte ich es für einen guten Kompromiss von tatsächlich sichtbarerer Bildqualität zu gebotener Performance.
Die Frage bleibt aber halt noch, ob es sich durchsetzen wird.

Bei DLSS geht es vielen nicht unbedingt um eine bessere Bildqualität sondern vielmehr um einen FPS-Zuwachs bei gleichbleibender Bildqualität ….
 
Wenn man davon ausgeht, dass DLSS das Antialiasing der Zukunft werden könnte, halte ich es für einen guten Kompromiss von tatsächlich sichtbarerer Bildqualität zu gebotener Performance.
DLSS ist nicht der AA-Ersatz, sondern der Performance-Boost. Auf Konsolen sind ähnliche Verfahren wie Checkerboarding schon längst standard und natives UHD-Gaming selbst am PC hier und da noch schwer umzusetzen, besonders wenn man auch noch über 60fps hinaus will.
Sowas wird also mMn definitiv kommen. Ob es DLSS wird oder dabei bleibt, weiß ich nicht, aber das man in niedrigerer Auflösung rendert und dann hochskaliert, ist mMn in Zukunft eher schon ein Muss. Besonders wenn die Displays gar noch irgendwann mal höher als 4K gehen werden.
 
GeForce Experience unterstützt jetzt außerdem RTX-Technologien wie das Deep-Learning-Super-Sampling (DLSS)

Heißt das übersetzt das man für Raytracing und DLSS den Geforce Experience Dreck samt Zwangskonto braucht?

Oder gehts auch ohne?
 
Oder gehts auch ohne?
Ich gehe mal schwer davon aus, dass dir die Geforce Experience Bloatware eher nur deine ansonsten getätigten Configs zerschießen wird, wie es das halt schon immer tat. :d
 
Heißt das übersetzt das man für Raytracing und DLSS den Geforce Experience Dreck samt Zwangskonto braucht?

Oder gehts auch ohne?

Unklar, so lange wir kein Spiel haben, welches DLSS unterstützt, wissen wir das nicht genau.
 
Noch "mieser" dran ist man ja mit 3440x1440. Da bräuchte man die Leistung eigentlich dringender als die 2560x1440 User, wird aufgrund des geringen Marktanteils aber vielleicht nie kommen, jedenfalls nicht zeitnah.
 
Bei 4K hätte man meiner Meinung auch ohne TAA testen und das gegen DLSS stellen sollen.
Viele reduzieren oder nutzen überhaupt kein AA bei 4K.
Dann sieht man was von DLSS noch übrig bleibt.
Turing richtet sich dennoch klar an 4K-Spieler und wenn überhaupt noch WQHD bzw. UWQHD.
 
OK Sorry, war mir so nicht klar.
 
Es ist eigentlich schon erstaunlich wie viel FPS man durch DLSS rausholen kann.

Jep. Bin auch beeindruckt, obwohl wir das ja vorher schon irgendwie "wussten". Es in Charts zu sehen ist natürlich toll.
Ne 2070 die auf einmal nah an eine 2080ti rankommt... eine 2080 die eine 2080ti überholt.

Das ist schon verdammt viel Performance "oben drauf" auf die normalen Werte die man bei P/L so nutzt.

Hoffe sehr, dass DLSS bald in Games zu finden wird.

- - - Updated - - -

Ich gehe mal schwer davon aus, dass dir die Geforce Experience Bloatware eher nur deine ansonsten getätigten Configs zerschießen wird, wie es das halt schon immer tat. :d

Habe seit 2 Monaten GeForceExperience auf dem Rechner. Hat mir genau 0 zerschossen,... aber auch nicht viel geholfen, bis auf Shadowplay.
 
Eine treiberseitige Funktion wäre in der Tat am besten, quasi umgekehrtes DSR, also in einer niedrigeren Auflösung rendern und dazu das Upscaling mit Kantenglättung
aber scheinbar ist der Algorithmus dafür ziemlich komplex damit am Ende auch wirklich ein brauchbares Bild zu Stande kommt und nicht nur hochskalierter Pixelmatsch.
Glaub ich nicht. DSR ist ja auch wahnsinn, ich kann nicht nachvollziehen, warum man damit seine Hardware foltern sollte. Der Bildvorteil ist minimal.

Trotzdem ist die ganze Situation ziemlich absurd. Erst meint man 4K Gaming ist die Zukunft aber dann merkt man, dass nicht genug GPU Leistung zur Verfügung steht.
Selbst wenn man genug Leistung hätte so bräuchte man noch viel mehr denn auch 4K sieht bei Bewegung ohne eine gute Kantenglättung noch nicht wirklich ruhig aus.
Das Problem ist mehrschichtig:
- Die Hardwareanforderungen der Spiele steigen für Details bei gleicher Auflösung, weil man immer leistungsfähigere Hardware hat
- Jeder meint, man müsste in nativer Monitorauflösung rendern, weil sonst der Monitor das Bild mit seinem Scaling vermatscht
- Steigende Auflösung der Monitore wird gleichzeitig für immer größere Monitore verwendet, wass die höhere Pixeldichte wieder negiert. Bei 4K auf einem 20" braucht man (fast) kein AA mehr.

Der Leistungssprung der nötig wäre, ist also enorm. Für UHD statt "nur" WQHD bräuchte man schon rund die doppelte Rechenleistung. Details will man aber auch nicht zurückregelen, die werden aber immer anspruchsvoller, also braucht man nochmal mehr. Und weil dann auch noch der Monitor größer wurde, braucht man trotzdem wieder AA. Im Endeffekt braucht man um den Status Quo zu halten und keinerlei Rückschritte in Kauf nehmen zu müssen und NUR die Vorteile nutzen zu können für UHD statt WQHD die 3-5 fache Rechenleistung. RTX ist da noch fast gänzlich aussen vor, weil das braucht NOCH MEHR Leistung. Und das auch nur wenn man schon von WQHD ausgeht. Die Masse der Zocker ist aber, auch wenn das einige Nerds nicht wahrhaben wollen, immernoch nur auf FullHD.
Und das ist nur JETZT, nicht in 1-2 Jahren, die Spiele entwickeln sich ja schließlich auch weiter.

Davon wie z.B. hier die Pro-Zocker schwadronieren und auf 144Hz/fps schwören, brauchen wir gar nicht weiterreden, das verdoppelt die nötige Rechenleistung nochmal.

Also das wovon hier so manche träumen, UHD mit AA auf dem 34" Monitor in Ultra mit 144fps... da sind wir dann bei mehr als der 5-fachen Leistung die selbst eine RTX 2080Ti (ohne Raytracing) liefern kann.
 
Warum keine Vega 56/64 mit im Test? :fresse:
 
Das sind Dinge die zuerst auf dem Papier stehen. In der Realität bzw fürs Gaming sieht eine höhere Auflösung + mehr FPS einfach gut aus. Auf die Frage ob man Features mitnehmen kann hängt eben davon ab obs sie wirklich dann was taugen.
 
Zuletzt bearbeitet:
ich brauch kein UHD, weil mein monitor das nicht unterstützt.
ich brauch keine 144Hz, da men monitor nur bis 60Hz geht.
ich brauch kein DLSS, weil alle meine spiele das nicht unterstützen und selbst wenn eines das würde wäre das noch kein argument 500+€ aus dem fenster zu schmeissen, für 1 spiel...

also brauch ich auch keine 20xx-karte und kann bei meiner schnöden lahmen R9-290 bleiben...

also werde ich mich was die neue generation 20xx angeht zurücklehnen, zusehen wann es denn spiele gibt die den ganzen schnickschnack auch nutzen können und beobachte dann erstmal aufmerksam und in ruhe was und ob das für mein nutzungsszenario überhaupt was bringen würde, so in den nächsten 3-5 jahren irgendwann wenn jedes spiel evtl diese technik mit drin hat.

in letzter zeit geht mir der sogenannte fortschritt bei vielen dingen zu schnell.
4K ist nichtmal voll funktionsfähig geschweige denn ausgereizt, da fängt man schon mit dem nächsten an, statt erstmal 4k in 120Hz anständig leistungstechnisch zu schaffen.

oder RAM, da bahnt sich schon DDR5 an, wo nichtmal DDR4 ausgereizt ist...

das alles nicht weil es so toll ist, nein, das redet man uns ein, es ist einfach nur damit man möglichst in schneller folge alles neu kauft egal wie sinnlos es eigentlich noch ist...
 
Warum keine Vega 56/64 mit im Test? :fresse:

Vermutung:
AMD hat die Treiber noch nicht aktuallisiert um die Features zu unterstützen.
Erwarte aber, dass Vega wohl 20% über den 1080 und 1080ti liegen wird in reinen RT Anwendungen.
Reines Compute war ja immer die Stärke von Vega und die Schwäche von Pascal.
 
Du hast lediglich ein Top Standbild. Für ein Top Bewegtbild brauchst du eine Kantenglättung, eine hohe Framerate und eine Bildsynchronisation. ;)

Ja aber da reich halt simples 2x AA. für Bildsynchronisation gibts freesync und Gsync und für die "hohen" frames brauchst du ne ordentliche GPU.
Ich seh halt DLSS auch nur ne zwichenlösung und nicht die große zukunf, bei Raytracing sieht das anders aus - da seh ich große zukunft für aber die kann leider auch ne 2080TI derzeit nicht wirklich liefern unb wird sicher noch 1-2 generation warten lassen.

Ziel sollte es sein 4k bei 60FPS mir Raytracing hinzubekommen.
Wenn die technik das liefert wird es zeit FHD zu verlassen, 1440p is halt auch so ne zwichenlösung.
 
Nein, das ist echtes 4K-High-FPS Gaming. Echtes 4K-Gaming ist für rund 2K machbar, 1080 oder 2080 Ti und ein fetter Monitor. Theoretisch gehts noch billiger wenn man sich mit einem gammeligen TN-Teil begnügt. Besser als 1080p sieht das dann immer noch aus.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh