GeForce-RTX-20-Serie: Neuer AA-Modi DLSS erläutert und erste Leistungsdaten

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.554
nvidia-rtx2080ti.jpg
Im Rahmen der Präsentation der GeForce-RTX-20-Serie hat NVIDIA einige Details zu zwei Techniken bekannt gegeben, die wir zum aktuellen Zeitpunkt bereits veröffentlichen dürfen. Bereits seit Montag ist bekannt, dass es mit der nächsten GeForce-Generation einen neue Anti-Aliasing-Modi geben wird. Dieser heißt DLSS, was für Deep Learning Super Sampling steht.Auf Basis der Unreal Engine 4, bzw. der Infiltrator-Demo zeigte NVIDIA bereits am Montag den nicht vorhandenen visuellen Unterschied zwischen einem (TAA) Temporal Anti-Aliasing und dem DLSS. Die meisten Render-Engines verwenden einen sogenannten Deferred Renderer. Das heißt, für die...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
38 vs. 60FPS von der 1080ti vs. 2080ti ohne den DLSS kram sind immerhin 57% Zuwachs.
 
Bei so wenig, was man bis jetzt weiß ist es aber wenigstens mal ein infohappen :d
Die letzten male hat Nvidia zumindest nicht zu viel cherry picking gemacht bei den eigenen Benchmarks/Gen. vergleichen ....
Bei 40-50% mehr als ner 1080ti, kann ich schon gut was anfangen :)
Aber wie immer muss man dennoch warten, bis man Zahlen sieht
 
Also dürfen wir laut dieser Veröffentlichung von PR Materialien seitens nVidia von einem + von 50% ausgehen.
 
Warten wir mal lieber unabhängige Tests ab. Ich traue dem Braten nicht.

Allerdings sind diese Karten eh völlig außerhalb meiner Preislage. Von daher kanns mir eigentlich egal sein, was NVidia da nun bringt.
Aber man ist ja technikaffin, wa?
 
Man sollte auch bedenken, dass die 2080 15% mehr Shader als die 1080 hat (2560 zu 2944). Vergleicht man die Leistung ohne DLSS, hat sich die Shaderleistung schon deutlich erhöht, sofern die Taktraten in etwa gleich geblieben sind.
 
mich wubdert es dass die spannungsversorgung so aufgebohrt ist und die kühlung so verbessert wurde. die machen das ja nicht aus jux, genauso wie bei der vega damals.

ich denke wenn die karte richtig loslegt, schluckt sie mehr als meine frau.
 
Freu mich schon auf die 2050 mit 96 Bit Speicherinterface für 399 EUR SRP
(510 EUR Straße) :hust:
 
Im Titel des slides steht 2080 vs 2x1080.

Ist das ein Fehler, oder wird diese Information nur ignoriert? Ein 50% Leistungszuwach ist es nämlich laut Slidetitel gegenüber ZWEI 1080s, nicht gegenüber einer einzelnen.
 
Ich verstehe was du meinst, aber ich glaube irgendwie wollen die auf die 2 fache Performance der 1080 mit DLSS aufmerksam machen.
40-50% über nem 1080SLI sehe ich dann für doch etwas zu viel des guten :)
Nicht dass die Karten noch zu günstig erscheinen :d
 
Das heißt, dass im günstigsten Falle, also mit aktiviertem und unterstützen Raytracing, eine 2080 doppelt so schnell sein kann wie eine 1080.
 
Ist das ein Fehler, oder wird diese Information nur ignoriert? Ein 50% Leistungszuwach ist es nämlich laut Slidetitel gegenüber ZWEI 1080s, nicht gegenüber einer einzelnen.

Das möchte wohl eher ausdrücken, dass eine 2080 eben mit diesem neuen AA Mode 2x die Performance der 1080 schafft?
Zumal die Games glaube nichtmal alle SLI Supporten, ARK bspw. kannste im SLI knicken - da skaliert im Schnitt gar nix...

Man sollte auch bedenken, dass die 2080 15% mehr Shader als die 1080 hat (2560 zu 2944). Vergleicht man die Leistung ohne DLSS, hat sich die Shaderleistung schon deutlich erhöht, sofern die Taktraten in etwa gleich geblieben sind.

15% sind doch gar (EDIT: nicht) so "deutlich" viel...
Wenn da wirklich 50% avg. mehr bei rum kommen, wäre die pro Takt Performance nochmals deutlich gestiegen. Zumindest nen ähnlichen Sprung wie von Kepler auf Maxwell. Glaub ich im Moment noch nicht so recht...

Was mir da bspw. auffällt - da steht bei vielen Titeln was von HDR. Vllt hat man auch einfach primär den HDR Einfluss beseitigt? Die Pascals hatten doch da so bisschen ihre Müh und Not mit einknickenden FPS??
 
Zuletzt bearbeitet:
Hätte gerne mal ein 4k/HDR-Benchmark für bspw. Destiny 2 im Vergleich zu den vorherigen Ergebnissen/Einbrüchen (Link). Weiß da eigentlich jemand genaueres wie diese zustande kamen? Zuvor hatte man ja immer nur gehört das kostet gar keine Extra-Leistung ... Unabhängige Benchmarks mit den neuen Karten wären auf jeden Fall mal sehr interessant.
 
Dann hätten sie aber deutlich grössere Schritte gemacht als von den 900ern auf die 10er Grakas. Habs mal nachgerechnet und von GTX980(Ti) zu den 1080(Ti) gabs mit 80 resp. 88% mehr Shaderleistung 60-80% mehr frames. Die neuen RTX haben, verglichen mit den Vorgängern 8-19% resp. 10-25% mehr Shaderleistung. Davon ausgegangen, dass sich am Shaderdesign nicht viel geändert hat und ohne Berücksichtigung der Architekturverbesserungen. Meine Glaskugel meint, dank Speicher und Architektur sollten höchstens 50% drin sein.
 
Interessant ist aber auf jeden Fall hier zu sehen, dass wenn die Hardware nicht mehr her gibt, es offensichtlich noch andere Möglichkeiten gibt mehr rauszuholen. :bigok:
 
Interessant ist aber auf jeden Fall hier zu sehen, dass wenn die Hardware nicht mehr her gibt, es offensichtlich noch andere Möglichkeiten gibt mehr rauszuholen. :bigok:

Seh ich auch so. Idr. war es aber bisher so, dass die Spieleleistung nicht proportional zur Rechenleistung stieg. Ausnahme bestätigt die Regel :angel:
980 TI > 1080 TI
2816 Shader bei 1002 MHz > 3584 Shader bei 1480 MHz entsprechen +88%
6 TFLO/s > 11.3 TFLO/s entsprechen +118%
Die Spieleleistung stieg (gemittelte HWL Messwerte) um ca. 78%

980 > 1080
2048@1126MHz > 2560@1607MHz Shader entsprechen +78%
4.98 TFLO/s > 8.88 TFLO/s entsprechen +78% (oh!)
In Spielen blieb davon noch ein Plus von 61%

Wenn jetzt die Shaderleistung um ca. 20% steigt ist der, von mir laienhaft erwartete, Gewinn in Games bei 10-15% solange die neuen Techniken nicht zum Einsatz kommen (RTX z.b.)

Edit: bei der Titan V waren es (zur GTX1080 TI) übrigens 15-30% mehr Shaderleistung, 122% höhere Computeleistung in Anwendungen und nur 20% mehr Spieleleistung. Schlechtes Beispiel, weil die Volta GPU auf GPGPU ausgelegt ist aber trotzem.
 
Zuletzt bearbeitet:
15% sind doch gar (EDIT: nicht) so "deutlich" viel...
Wenn da wirklich 50% avg. mehr bei rum kommen, wäre die pro Takt Performance nochmals deutlich gestiegen. Zumindest nen ähnlichen Sprung wie von Kepler auf Maxwell. Glaub ich im Moment noch nicht so recht...

Eben. So war es auch gemeint. Hab mich da vielleicht etwas unpräzise ausgedrückt. Ich finde jedenfalls auch, dass das sehr beachtlich wäre. Bisher (in den letzten Jahren) waren die Slides eigl. immer relativ zuverlässig. Mal schauen...
 
60 FPS in MEA Andromeda, das will ich sehen. Da droppen selbst 2 Titan Xp noch auf 20 FPS.

Ansonsten, worüber soll ich jubeln? Die FPS in Destiny 2 und BF1 habe ich 1:1 auch auf meiner 1080 Ti. Oder handelt sich sich dabei um die 2080 (Non-Ti)?

Dieser Deep-Learning-Müll interessiert mich schon am dem Punkt nicht mehr wo ich "Geforce Experience" höre. Ich benutze GFE 2.0, die letzte brauchbare Version davon, das auch nur weil Shadowplay bislang das absolut beste Programm zum Video aufzeichnen ist.
 
DLSS t also expirience pflicht
es sol per Server vorgerndert algo bekommen vom bsp spielabläufen
Dann sind wieder einmal gamer die beta tester
Woher sollten den die daten herkomen bis man ein level an game inhalt komplett in allen winkeln das raytracibng berechnet werden muss um daruas einen algo zu machen
Klingt uinrealistisch

performance
Was nee farce, man vergleicht ernsthaft ue4 inflitrator demo die nebenbei nicht funktioniert(es handelt sich um einen assets pack die dann in einer spielbaren demo gerendert wird man muss diese aber erst compilieren.)
nun gut in dieser mehr beta als fertiger benchmark demo gibt es also von 40fps avg auf 60fps für die rtx und mit nicht vorhandenen Daten des algo für rt dann 80
klingt eher danach das man die Effekte ausgeschaltete hat. wo kein TAA und ambient occlusiobn verwendet wurde..
Kurz Beschiss
Klar ohne AA filter und essentiellen Schatten ist die cpu weniger beschäftigt.
generell wird immer verschwiegen warum keine gpu Auslastung angegeben wird und das noch in 1080p
Eine titan v und selbst die gtx1080ti hängt massiv im cpu limit
Erst 4k kann diese gpu auslasten
Und da zählt nur die 4k benchmarks bzw downsampling

Wieso gibt es keine tflops angaben
man kann diese berechnen das geht ohne Probleme ist etwa 15% je rtx zur gtx Vorgänger
Im übrigen es muss schon ein wunder sein wenn nvidia es geschafft hat die shader Effizienz zu steigern da geht seit 2006 nichts mehr.
lediglich die Anforderungen sind gestiegen.
Und das auch nur weil man von starren vertex und pixel shader design zu compute Technik gewechselt ist deutlich mehr pixelshader und weniger vertex Verwendung
Das Raster(Bildauflösung) macht eh und je rop die dazugekommenen texel Einheiten übernehmen den vertex shader Arbeit (tmu sind im prinzip vertex shader)
so funktionieren heutige games
Dabei muss gesagt werden das die shader egal ob in pixel oder vertex Anwendung kein unterschied machen. Mir wäre eine genaueres Geometriemodelle wichtiger weil es den Bildinhalt dichter und schärfer macht
Es wäre ein wirklicher fortschritt wenn man endlich Realfarben verwenden würde. Das geht mit heutiger gpu`es scheitert aber an den cpu drawcalls. Und bis es endlich einen multirender api gibt wird sich erst dann die gpu grafik deutlich verbessern
Raytracing wird vermutlich gut sein um die Arbeit beim erstellen des games zu senken aber es kostet extrem viel Leistung dazu die Nvidia account Pflicht stößt sauer auf.
Online Pflicht existiert schon teilweise aber account Pflicht mit ohne Vergütung Datenerhebung also traffic verursacht geht es zu weit.
 
60 FPS in MEA Andromeda, das will ich sehen. Da droppen selbst 2 Titan Xp noch auf 20 FPS.

Ansonsten, worüber soll ich jubeln? Die FPS in Destiny 2 und BF1 habe ich 1:1 auch auf meiner 1080 Ti. Oder handelt sich sich dabei um die 2080 (Non-Ti)?

Ja, es handelt sich um eine non TI Variante in den Slides.
Außerdem um Stock Varianten. Ich vermute Du hast eher eine OCed Version verbaut, richtig?
 
Ja. Was Turing OC'd kann wird letztlich entscheiden ob ich eine kaufe. Mit 2,5 GHz würden die Shader sicher gut abgehen. Meine läuft auf 2000 / 6175.
 
So ist es.

Allerdings bezweifle ich etwas, das du die 2.5 GHz ohne extreme Kühlung sowie Power/Voltage Unlock sehen wirst.


Gruß

Heinrich
 
Im Titel des slides steht 2080 vs 2x1080.

Ist das ein Fehler, oder wird diese Information nur ignoriert? Ein 50% Leistungszuwach ist es nämlich laut Slidetitel gegenüber ZWEI 1080s, nicht gegenüber einer einzelnen.

Kann ich mir nur als Fehler vorstellen. Wenn das tatsächlich so wäre, dann hätte Jensen an der Keynote nicht nur zu 75 % über Lichteffekte schwadroniert.
 
Kann ich mir nur als Fehler vorstellen. Wenn das tatsächlich so wäre, dann hätte Jensen an der Keynote nicht nur zu 75 % über Lichteffekte schwadroniert.

Ich denke ich habe das falsch interpretiert. Der Titel ist etwas ungeschickt gewählt und ich habe den Doppelpunkt als "vs" übersetzt. Was natürlich doof war von mir.
Gehe von einem 1:1 Vergleich zwischen 1080 und 2080 aus.
 
Kann ich mir nur als Fehler vorstellen. Wenn das tatsächlich so wäre, dann hätte Jensen an der Keynote nicht nur zu 75 % über Lichteffekte schwadroniert.

Lest ihr auch was da steht?

Da steht: RTX 2080: 2x 1080

Eine 2080 kann bei Verwendung von DLSS doppelt so schnell sein wie eine 1080.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh