Leak: Vermeintliche Spezifikationen der GeForce RTX 5080 und 5090

In jedem Spiel? Oder worauf zielt die Aussage? ^^
In "Jedem Spiel" dafür würde ich Jen 1 meiner Nieren geben :ROFLMAO: aber das wird wohl nicht passieren xD
Ich meinte die Aussage eher so das mit der 5090 vermutlich eher die Chance besteht in 4k mit 240 fps zu spielen mit DLSS Q anstatt Performance

Nur ob sich der Sprung von einer 4090 auf eine 5090 wirklich lohnt? VR kann ich nicht mitreden, aber beim Rest der Spiele sieht es doch eher so aus als wenn die 4090 komplett ausreicht, zur Not muss man eine Stufe in der Grafik runter schrauben.
Das muss jeder für sich entscheiden aber ich kaufe keine XX90 Karte um eine Stufe runter zu schrauben sondern ich Kaufe bewusst eine XX90 Karte damit ich mit Max Einstellungen spielen kann
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und wenn es es dann eine Grafikkarte gibt, die schnell genug für 4K/120 mit RT... und max Details ist, werden 8K Monitore salonfähig und wir starten von neuem. Das Spiel wiederholt sich leider immer wieder. :)
 
Dank DLSS/FSR sind wir doch gar nicht so weit entfernt von 8K. 😎
 
fake 8k ja

4k + DLSS ist kein 4k
 
Sieht man überhaupt einen Unterschied zwischen 4K non DLSS und 4K DLSS? Vermutlich sind meine Augen zu schlecht...

Wäre mal schön, wenn es News bzgl. der Slots und den Abmessungen geben würde.
 
DLSS glättet halt auch. Ist quasi AA mit mehr FPS. Und selbst wenn Du MSAA Qualität willst, dann liefert DLSS (DLAA) mehr FPS.
 
fake 8k ja

4k + DLSS ist kein 4k

An DLSS oder den Alternativen kommt in Zukunft nichts mehr vorbei. Aber auch jetzt sehen wir schon wie krass es ist. Die 4090 hat ja viel Rohleistung, aber teils wird nur 1 von 8 Pixeln klassisch berechnet. Der Rest kommt aus der KI. Finde ich wild.

nvidia-dlss3-update-briefing-00006_680px.jpeg


 
An DLSS oder den Alternativen kommt in Zukunft nichts mehr vorbei. Aber auch jetzt sehen wir schon wie krass es ist. Die 4090 hat ja viel Rohleistung, aber teils wird nur 1 von 8 Pixeln klassisch berechnet. Der Rest kommt aus der KI. Finde ich wild.



nur weil du wieder die aktuellen triple A titel auspackst.

und seit wann ist DLSS und FG automatisch an?

ältere spiele kann man wunderbar in nativem 4k zocken

einmal über den tellerrand blicken scheint für euch nicht möglich zu sein

kein comptetive zocker nutzt framegen und die meisten competetive games werden auch ohne DLSS gezockt.

der luxx artikel ist voll mit nvidia slides. völlig logisch dass da "AI" gepushed wird wie noch was.
 
Ja, wenn einem Wettbewerb wichtig ist. Mir als Solo Spieler ist das ziemlich egal und ich bevorzuge Grafik und dafür brauch ich Leistung. Aber ja, ich spiele auch immer wieder ältere Titel, die gar kein DLSS unterstützen, braucht es auch nicht, die laufen auch ohne in 4K gut.

Hab mit dem AI Kram absolut null Probleme, aber was ich wieder sehe ist, dass es dazu führen könnte, dass Entwickler faul werden ihre Spiele richtig zu optimieren. Wenn sie DLSS/FG für noch höhere Grafik Qualität nutzen, kein Problem, ansonsten schon.
 
Habe sowohl mit DLSS als auch FG auch keine Probleme. FG schalte ich aber wirklich nur ein, wenn es nötig ist um auf spielbare FPS zu kommen wie in den Pathtracing Games. DLSS hingegen schalte ich eigentlich immer dazu sofern es unterstützt wird und wenn es die GPU hergibt, am liebsten mit DLAA Preset. Sieht einfach meistens besser aus als TAA, gibt aber auch Ausnahmen.

Im Grunde ist aber bei 4K Zielauflösung selbst DLSS Performance noch extrem gut. Das ist für mich der größte Unterschied zu FSR. Letzteres kann man in die Tonne treten sobald man unter das Quality Preset geht. DLSS sieht noch gut aus. Daher werde ich die 5090 wahrscheinlich auslassen dieses Mal. Denn DLSS Performance zu DLSS Quality ist vermutlich der gesamte Leistungsunterschied 4090 --> 5090. Lohnt sich glaube ich nicht wirklich.
 
kein comptetive zocker nutzt framegen und die meisten competetive games werden auch ohne DLSS gezockt.
FrameGen, verstehe ich.
DLSS, verstehe ich hingegen nicht, wenn man in WQHD/4K spielen will. Gibt doch mehr Frames. Und Frames sind King. Kann natürlich nicht jedes Spiel DLSS liefern. :)

PS: Wenn man die Shooter in FHD spielt, verstehe ich das hingegen gut. Da wird mit DLSS die Bildqualität zu stark leiden.
 
Mal schauen, wieviel buy high, sell low club-Mitglieder diesmal wieder mit am Start sind :d
 
Breaking news:
UVP 5090 = UVP Lederjacke (RGB(165,42,42)) + Year(today)
 
nur weil du wieder die aktuellen triple A titel auspackst.

und seit wann ist DLSS und FG automatisch an?
Ich bin mir ziemlich sicher das sich DLSS inkl FG immer weiter durchsetzt. In den großen 3D Engines ist es ja bereits integriert. Vielleicht schafft man es mit Blackwell ja unabhängig vom Spiel zu aktivieren. Das wäre dann doch mal ein Kaufgrund.
 
Was meinst du? ich kann mit der 4090 locker DLSS losgelöst von FG aktivieren. Je nach Game und settings halt aber ich glaube es gab von den Games die ich gespielt habe maximal Cyberpunk und Alan Wake 2 (mit Pathtracing) wo ich FG als Pflicht angesehen habe.
 
FrameGen, verstehe ich.
DLSS, verstehe ich hingegen nicht, wenn man in WQHD/4K spielen will. Gibt doch mehr Frames. Und Frames sind King. Kann natürlich nicht jedes Spiel DLSS liefern. :)

PS: Wenn man die Shooter in FHD spielt, verstehe ich das hingegen gut. Da wird mit DLSS die Bildqualität zu stark leiden.
mehr frames aber ein schlechteres bild

nativ + AA ist immer noch besser als DLSS

beziehe mich aber auf reine competetive spiele/shooter, in denen man sowieso genug fps hat und kein DLSS benötigt.
Beitrag automatisch zusammengeführt:

Ich bin mir ziemlich sicher das sich DLSS inkl FG immer weiter durchsetzt. In den großen 3D Engines ist es ja bereits integriert. Vielleicht schafft man es mit Blackwell ja unabhängig vom Spiel zu aktivieren. Das wäre dann doch mal ein Kaufgrund.
FG erzeugt inputlag. für competetive spiele ein Nogo
 
Also wenn DLSS richtig verwendet wird sieht DLSS Quality besser aus als nativ+TAA ab 1440p Zielauflösung. Von DLAA ganz zu schweigen.
 
FG erzeugt inputlag. für competetive spiele ein Nogo
Kommt auf das Spiel an in Warzone kommst du nicht drumherum wenn du einen 360hz oder 480hz Monitor hast

Und wenn du 4k 240hz hast brauchst du genauso FG und der Inputlag ist bei weiten nicht mehr so wie zu Release NV hat da massive Fortschritte gemacht und ist Quasi nicht mehr vorhanden aber Warzone ist auch ein Vorzeige spiel von NV keine ahnung wie es in anderen Games aussieht
 
+50-70% zur 4090. Wie alle zwei Jahre. Alles andere wäre enttäuschend.
Utopisch, 40 % wären schon eine Leistung. Dass die 4090 so gut war lag daran dass sie bei Ampere hinterher waren. 40 - 50 % sind an der geleakten Shaderzahl realistisch.

Das Einzige was es mir wirklich bringen würde wäre Darktide mit RT und stabilen 100+ FPS. Da komme ich mit der XTX nicht ohne Abstriche hin, also FSR+FG und low-mittel RT. Man muss hier aber auch realisieren dass dies ein absoluter Luxus ist. 1200+ würde ich jetzt nicht mehr für eine 4090 ausgeben. Die 5080 wird aber auch keine gute Option, die Shader sind ja echt lächerlich und dann wird die locker über 1 K kosten und nur 16 GB haben. Ich würde mich nicht wundern wenn die 5080 keine 20 % schneller als die 4080 ist und nur bei RT etwas besser ist. DLSS4 was dann wieder nur für die neuste Gen verfügbar sein wird es dann richten. Hauptsache die Zahlsklaven kaufen!

240/360 Hz sind auch absoluter Luxus, vor allem wenn es dann noch um 4K geht. Anfang der 20er Jahre gab es nichtmal 4K mit mehr als 60 Hz. Das hat sich rasant entwickelt aber man darf dabei nicht erwarten dass man diese FPS mit maximalen Einstellungen und am Besten noch RT erreicht. SP-RT-Spiele müssen auch nicht auf der FPS laufen. Ich finde 90-100 schon sehr angenehm. Cyberpunk war mit 60 FPS noch gut spielbar, mehr wären ein Genuss aber all das Eye-Candy muss schon sein. Auch ein Spiel, für das ich gerne eine 4090 hätte. Aber es muss nicht alles sofort sein, man kann auch mal 1-2 Jahre warten und es dann mit Addons nochmal frisch durchspielen. Bei neuen Spielen mache ich das generell nur so, weil ich weder einsehe ein Vermögen für unfertige Spiele (und dann noch 1000 DLCs extra) auszugeben noch deren Betatester bin der dafür bezahlt. Damals zu meiner Zeit gab es Demoversionen und kostenlose Betas vor dem Launch.
 
Utopisch, 40 % wären schon eine Leistung. Dass die 4090 so gut war lag daran dass sie bei Ampere hinterher waren. 40 - 50 % sind an der geleakten Shaderzahl realistisch.

Hatte ich glaube schon mal verlinkt: Das ist aktuell der Stand, wenn Blackwell kommt wird sich auch schnell feststehen wo man sich einsortiert. https://www.pcgameshardware.de/3DMa...Solutions-GPU-Test-Review-Hands-on-1447596/2/

Die Leistungssprünge zwischen den Topmodellen der letzten 10 Jahre stellen sich dann so dar.
  • 980ti +75% = 1080ti
  • 1080ti +51% = 2080ti (galt als mieser Sprung, hab ich auch ausgelassen)
  • 2080ti +74% = 3090ti
  • 3090ti +78% = 4090

Es ist davon auszugehen das eine 5080 etwa auf den Niveau der 4090 liegen wird. Nach aktuellen Leaks wird die 5090 wohl fast eine doppelte 5080.

PCYmBGc.jpg


 
600W und eine doppelte 5080 wird bestimmt wieder bei so 60-70% raus kommen. Ist dann aber halt auch die Brechstange und weit weg von 3090 --> 4090 wo die Karten neben der immensen Leistung auch deutlich leiser und effizienter waren. Das sehe ich bei der 5090 jetzt dann nicht irgendwie. Ist ja aber auch logisch, da der Wechsel von 8nm Samsung auf 4nm TSMC halt krass war damals. Jetzt muss man halt alles raus quetsche
 
Hatte ich glaube schon mal verlinkt: Das ist aktuell der Stand, wenn Blackwell kommt wird sich auch schnell feststehen wo man sich einsortiert. https://www.pcgameshardware.de/3DMa...Solutions-GPU-Test-Review-Hands-on-1447596/2/



Es ist davon auszugehen das eine 5080 etwa auf den Niveau der 4090 liegen wird. Nach aktuellen Leaks wird die 5090 wohl fast eine doppelte 5080.

Anhang anzeigen 1032018

Die Speicherbandbreite ist mit +77% massiv viel höher, als bei der 4090 (3090 hatte fast das Gleiche)
Mal schauen, was dabei rum kommt, denn bei SMs und CUDAs sind es "nur" +33% zur 4090 (zwischen 3090 und 4090 lagen +56% - dafür halt "nix bei Speicherbandbreite)
 
Was wäre denn das Limit was ein PC an Speicherbandbreite einer Grafikkarte aktuell befeuern könnte? Wenn ich das jetzt nicht verwechsle ist das doch die Bandbreite die gilt wenn man Daten aus dem Rechner in den VRAM lädt, oder?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh