Tausche RTX 4080 gegen RTX 5080 Ti mit Zuzahlung ✌️

Hero73Hero73

Profi
Thread Starter
Mitglied seit
03.12.2021
Beiträge
16
Hi Leute. Ich wollte evt. meine RTX 4080 ZOTAC AMP Extreme Airo bei ebay einstellen.

5 Y Warranty wg. rechtzeitiger Registrierung bei ZOTAC, kaum genutzt (und nur alte Games, Fallout 4, Dying Light 1), keinerlei Spulenfiepen (8 Karten Ende 2023 gekauft, wie auch das ganze System mit 7800X3D, und getestet, bis es endlich so war), wie neu, mehr entstaubt und gepflegt als bespielt. Super Karte soweit.

Wollte meine neue, rum liegende RTX 4060 ZOTAC Solo einbauen, da ich aktuell sowieso nur Games 2013 - 2023 (eher 2022) nachhole. Wenn ich mal Zeit habe. Am WE meist nur. Habe neun Jahre Pause vom Gaming gemacht. 60 FPS reichen mir.

Und dann in etlichen Monaten eine RTX 5080 kaufen.

Habe dann gedacht, ne, müsste mehr als 16 GB VRAM haben. Also wenn eine RTX 5080 Ti / Super / Plus /... 2026.

Halt um die Technik aufzurüsten. So lange ich noch was für die RTX 4080 kriege. Aufrüsten mit Kostendifferenz 400 EUR?

Und irgendwie denke ich mir jetzt: was machst du da eigentlich.

Habe mir vor kurzem einen tollen 1080p 27 Zoll Gaming Monitor bei eBay gekauft, eigentlich für was anderes, für 120 EUR.

Wollte von 1440p 32 Zoll auf den wechseln. Ja, 27 Zoll 1080p 60 FPS in hübsch finde ich super. Reicht mir. So mein Usecase.

Ich werde mich sowieso nicht direkt auf die neuesten Games stürzen.

👆 Was denkt ihr: kann man mit einer RTX 4080 die Games aus 2025, evtl. 2026 mit Pathtracing in High und 60 FPS in 1080p noch zocken? 👆

Weil dann nutze ich die 4080 weiter denke ich. Macht dann keinen Sinn, die Karte laufend gegen eine bessere zu tauschen (?).

Oder werden die Games 2025 / 2026 (evt. absichtlich) so designt, dass die 4080/4090 zu Weltraumschrott degradiert werden? Metal Gear Solid Delta Snake Eater, The Outer Worlds 2,...

Lieber dann eine RTX 6080 Ti oder 7080 Ti in vielen Jahren?

Schreibt doch bitte mal eure Gedanken dazu.

Schönen Sonntag!
Beitrag automatisch zusammengeführt:

Hab mir schon gedacht, dass ich von den Enthusiasten keine Antwort kriege.

1080p 27 Zoll 60 FPS Uscase WAAAAS? Ekelhaft.
Schleudert den Purschen zu Poden.

Ne im Ernst, nur Spaß. Ich schreib auch immer zu viel. Ist optisch auch ne komische Frage. Aber evt. haben die Pros zur Zukunftsfähigkeit ja ne Meinung Basis RTX 3000 - > RTX 4000. Ich finde erschreckend wie die FPS da bei neuen Games bei den RTX 3000 eingebrochen sind.

Was denkt ihr: kann man mit einer RTX 4080 die Games aus 2025, evtl. 2026 mit Pathtracing in High und 60 FPS in 1080p noch zocken?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Halt um die Technik aufzurüsten. So lange ich noch was für die RTX 4080 kriege. Aufrüsten mit Kostendifferenz 400 EUR?
Wozu 400 € ausgeben, wenn die 5080 nach Hochrechnung nur etwa 15% mehr Leistung bringen wird? Macht allgemein keinen Sinn, für einen so kleinen Sprung Geld zu investieren.
Und ja, ich verstehe schon, worauf Du hinaus willst, dass Du übergangsweise mit der 4060 spielst und später dann die 5080 kaufst. Aber später wird sie auch nicht günstiger als MSRP sein, von daher sparst Du letztlich nichts. Du kannst mit der 4080 alles ausgemaxt (erst recht bei 1080p/60fps) die nächsten 2 Jahre spielen und genießen. Aus Sicht Deines Geldbeutels überspringe besser die RTX5000, schlage erst bei der RTX6000 zu und verkaufe Deine 4060, wenn Du die eh nicht mehr brauchst. Das Geld legst Du für 2 Jahre in ETFs an und hast dann die Hälfte der 6080 angespart :)
Habe mir vor kurzem einen tollen 1080p 27 Zoll Gaming Monitor bei eBay gekauft, eigentlich für was anderes, für 120 EUR.

Wollte von 1440p 32 Zoll auf den wechseln. Ja, 27 Zoll 1080p 60 FPS in hübsch finde ich super. Reicht mir. So mein Usecase.
Also erstens mag ein 60Hz Monitor alles sein aber definitiv kein "Gaming" Monitor :fresse: und zweitens verpufft ein Teil der Leistung Deiner 4080 bei 1080p/60fps. Den Rückschritt von einem 1440p auf einen 1080p Monitor ist bei bestem Willen nicht nachvollziehbar, wieso tust Du Dir das an? Da spielst man doch lieber auf dem besseren Monitor und nutzt DLSS zum Hochskalieren, das Bild ist so viel besser als bei nativ 1080p Pixel zu zählen bei gleicher Leistung. Besitzt einer der beiden Monitore wenigstens G-Sync oder ist kompatibel dazu?
Ne im Ernst, nur Spaß. Ich schreib auch immer zu viel. Ist optisch auch ne komische Frage. Aber evt. haben die Pros zur Zukunftsfähigkeit ja ne Meinung Basis RTX 3000 - > RTX 4000. Ich finde erschreckend wie die FPS da bei neuen Games bei den RTX 3000 eingebrochen sind.
Welche Titel meinst Du da genau? Bei der überwiegenden Mehrheit ändert sich an der Leistungsfähigkeit nichts. So ist z. B. eine 3080 selbst in Stalker 2 weiterhin auf Niveau einer 4070 ähnlich zu älteren Spielen. Nur da wo viel Raytracing eingesetzt wird oder in Szenarien, bei denen 10GB nicht mehr ausreichen, aber 12GB schon, kommt es zu einem deutlichen Abstand. Bislang kann ich mit meiner 3080 jedes Spiel in 3440*1440 mit DLSS Quality ohne RT mit max. Details spielen. Nur bei neueren Spielen, denen der Speicher nicht ausreicht, muss die Texture Pool Size reduziert werden.
 
Ich könnte mir gut vorstellen, dass die 4080 selbst bei 1080p keine 60FPS mehr hinbekommt im Jahre 2026.
Mit dem Monitor kann ich dich verstehen, hätte auch jahrelang einen 27"er 1080P, danach einen 32"er 1440p und jetzt halt den 32er 4k oled. Also gelegenheitsspieler wo auch die Augen nicht mehr sogut sind, ist es mir auch recht egal was da als Monitor stet, zumindest was dir Pixelanzahl angeht. Den 4K OLED hab ich auch nur gekauft, weil mich das graue schwarz vorallem nachts sehr gestört hat bei den nicht OLED Bildschirmen... Die ganzen anderen Dinger bekommen einfach kein echtes dunkles schwarz hin. Ich spiele manche Spiele sogar mit der 1080p Auflösung an meinem OLED (mit dem rog Ally), dank der alten Augen sieht man doch eh nicht mehr so superscharf :fresse:

Die 4080 ist eine gute Karte finde ich, auch mit ihren 16GB vram wird man noch eine Weile hinkommen, aber wenn man sieht wie schlecht heutige Spiele optimiert sind, befürchte ich, dass es in Zukunft nicht besser wird und immer mehr rohleistung gebraucht wird um ruckelfrei spielen zu können :-/
 
"MFG, mit freundlichen Grüßen, die Fake Frames kommen und wir stehen drauf..." ;)
 
Ich könnte mir gut vorstellen, dass die 4080 selbst bei 1080p keine 60FPS mehr hinbekommt im Jahre 2026.

Die 4080 ist eine gute Karte finde ich, auch mit ihren 16GB vram wird man noch eine Weile hinkommen, aber wenn man sieht wie schlecht heutige Spiele optimiert sind, befürchte ich, dass es in Zukunft nicht besser wird und immer mehr rohleistung gebraucht wird um ruckelfrei spielen zu können :-/
Ok, also dahingehend brauchst Du Dir keine Sorgen machen, dass die Leistung in den nächsten zwei Jahren noch weiter in die Knie gehen wird. Wir sind schon am Tiefpunkt der schlecht optimierten Spiele angelangt.
Die meisten Spiele werden auf allen Plattformen, also auch Konsolen, vertrieben. Da die PS6 noch min. bis 2027 auf sich warten lässt, wird auch nicht mehr als die jetzige Hardware ausgereizt. Auch auf Entwicklungsseite wird es keine Neuerungen (außer DLSS4 und MFG) geben, die Unreal Engine 6 wird voraussichtlich erst 2030 kommen, solange wird die UE5 von den meisten Spieleherstellern ausgereizt, und die Performance sehen wir jetzt schon in den AAA-Titeln. GTA6 sehe ich als nächstes Spiel, welches die Messlatte anheben wird, aber das wird auch noch etwas dauern.

Mit dem Monitor kann ich dich verstehen, hätte auch jahrelang einen 27"er 1080P, danach einen 32"er 1440p und jetzt halt den 32er 4k oled. Also gelegenheitsspieler wo auch die Augen nicht mehr sogut sind, ist es mir auch recht egal was da als Monitor stet, zumindest was dir Pixelanzahl angeht. Den 4K OLED hab ich auch nur gekauft, weil mich das graue schwarz vorallem nachts sehr gestört hat bei den nicht OLED Bildschirmen... Die ganzen anderen Dinger bekommen einfach kein echtes dunkles schwarz hin. Ich spiele manche Spiele sogar mit der 1080p Auflösung an meinem OLED (mit dem rog Ally), dank der alten Augen sieht man doch eh nicht mehr so superscharf :fresse:
Du hast einen 4k OLED und wir unterhalten uns über die beiden anderen Krücken? 😂
Also im Ernst: beim Bildschirm sollte man immer den besten als Hauptmonitor verwenden. Und OLED schlägt nunmal alle anderen Panels, also das sollte Dein Monitor der Wahl zum Arbeiten UND Spielen sein. Auch wenn der wahrscheinlich ebenfalls nur 60Hz kann (oder?), so ist die kürzere Latenz neben dem deutlich besseren Bild den anderen Monitoren überlegen (ohne die genauen Modelle zu kennen).

Die 4080 schafft die meisten Titel in 4k mit DLSS, aber selbst wenn es nicht reichen sollte, kannst Du das Spiel problemlos auf 1440p einstellen und es wird trotzdem besser als auf dem nativen 32" aussehen. Wieso spielst Du da in 1080p, wieso nicht in höherer Aulösung?
Wie empfindlich bist Du gegenüber Frame Generation? Weil das könntest Du zusätzlich aktivieren, falls Dir Artefakte nicht auffallen und vom Spiel unterstützt wird.

Welcher der Monitore unterstützt nun eigentlich G-Sync (oder Freesync)? Weil das wäre auch noch ein wichtiges Kriterium, das das Spielerlebnis positiv beeinflusst :)
 
Also erstens mag ein 60Hz Monitor alles sein aber definitiv kein "Gaming" Monitor :fresse: und zweitens verpufft ein Teil der Leistung Deiner 4080 bei 1080p/60fps. Den Rückschritt von einem 1440p auf einen 1080p Monitor ist bei bestem Willen nicht nachvollziehbar, wieso tust Du Dir das an? Da spielst man doch lieber auf dem besseren Monitor und nutzt DLSS zum Hochskalieren, das Bild ist so viel besser als bei nativ 1080p Pixel zu zählen bei gleicher Leistung. Besitzt einer der beiden Monitore wenigstens G-Sync oder ist kompatibel dazu?



Das sind die beiden. Beide G-Sync compatible ab 48 Hz (der 1440p; glaube der 1080p auch schon ab 48 Hz). Und 240 Hz bzw. 144 Hz.

Muss ich eigentlich in den Einstellungen der Games V-Sync ausschalten, damit G-Sync läuft? In der Nvidia Systemsteuerung werden die Monitore als G-Sync fähig erkannt.

Bin mir da sowieso nicht sicher, ob ich alles richtig eingestellt habe (Games / Nvidia Systemsteuerung). Hab Experience nicht installiert.

Oder was G-Sync in den Games bringt.

Dachte neulich, dass die Texturen auf dem 1440p bei Bewegung echt matschig aussehen und er nach Bewegung - Bild unbewegt - nachträglich scharf stellt. Bei Jagged Alliance 3 war das auch so. Bei Dying Light 1 mußte ich nur "Bewegungsunschärfe" ausschalten.

Du kannst mit der 4080 alles ausgemaxt (erst recht bei 1080p/60fps) die nächsten 2 Jahre spielen und genießen.

Danke dir, dann macht es keinen Sinn, die 4080 zu verkaufen. Wenn es stimmt, supi. 👍👍

Den Rückschritt von einem 1440p auf einen 1080p Monitor ist bei bestem Willen nicht nachvollziehbar, wieso tust Du Dir das an?

Noch zocke ich in 1440p 32''.

Habe mich gefragt, ob ich für Games 2025 / 2026, bei denen Pathtracing zwingend dabei ist, durch Reduzierung der Auflösung auf 1080p 27'' (ppi bleibt ja ca. gleich zu 1440p 32'') ggf. bei den FPS viel retten kann. Oder ob die reduzierte Auflösung wegen Pathtracing (mangels AI?) nix retten kann.

60 FPS reichen mir für meine Storygames. Hab sie sowieso auf 90 oder 80 im Treiber limitiert, um die Hardware zu schonen. Spiele damit aktuell Dying Light 1 😂.

Welche Titel meinst Du da genau? Bei der überwiegenden Mehrheit ändert sich an der Leistungsfähigkeit nichts.

Ich meinte, mich erinnern zu können, dass bei neueren Pathtracing / anspruchsvollen Raytracing Games laut Benchmarks die 3080 gegenüber der 4080 drastisch nachlässt in FPS (was ich ggf. total scheiße finde, von einer Gen zur nächsten, aber so was wie die Langlebigkeit der GTX 1080 Ti wird's wohl nicht mehr geben).

Ich könnte mir gut vorstellen, dass die 4080 selbst bei 1080p keine 60FPS mehr hinbekommt im Jahre 2026.

Das wäre schade. Aber gut, die Liste der ungespielten Games 2013 bis 2024 (dann bis 2025 oder 2026) ist seeehr lang.

kannst Du das Spiel problemlos auf 1440p einstellen und es wird trotzdem besser als auf dem nativen 32" aussehen.

Okay, ist das so? Dass 1440p auf einem 4k Monitor besser aussehen als nativ auf einem 1440p Monitor?

Die meisten Spiele werden auf allen Plattformen, also auch Konsolen, vertrieben. Da die PS6 noch min. bis 2027 auf sich warten lässt, wird auch nicht mehr als die jetzige Hardware ausgereizt. Auch auf Entwicklungsseite wird es keine Neuerungen (außer DLSS4 und MFG) geben, die Unreal Engine 6 wird voraussichtlich erst 2030 kommen, solange wird die UE5 von den meisten Spieleherstellern ausgereizt, und die Performance sehen wir jetzt schon in den AAA-Titeln. GTA6 sehe ich als nächstes Spiel, welches die Messlatte anheben wird, aber das wird auch noch etwas dauern.

Nice, dann könnte die RTX 4080 ja wirklich noch lange reichen.
 
Zuletzt bearbeitet:
Das sind die beiden. Beide G-Sync compatible ab 48 Hz (der 1440p_ glaube der 1080p auch schon ab 48 Hz).

Muss ich eigentlich in den Einstellungen der Games V-Sync ausschalten, damit G-Sync läuft? In der Nvidia Systemsteuerung werden die Monitore als G-Sync fähig erkannt.

Bin mir da sowieso nicht sicher, ob ich alles richtig eingestellt habe (Games / Nvidia Systemsteuerung). Hab Experience nicht installiert.

Oder was G-Sync in den Games bringt.

Dachte neulich, dass die Texturen auf dem 1440p echt matschig aussehen und er nach Bewegung unbewegt nachträglich scharf stellt. Bei Jagged Alliance 3 war das auch so. Bei Dying Light 1 mußte ich nur "Bewegungsunschärfe" ausschalten.
Sind ja doch keine 60 Hz Krücken 😅

Also am besten stellst Du folgendes in der Nvidia Systemsteuerung ein:

Anzeige / Auflösung ändern:
- native Auflösung einstellen
- höchste Aktualisierungsrate einstellen

Anzeige / G-SYNC einrichten:
- G-SYNC, G-SYNC-Kompatibilität aktivieren
- Fenster- und Vollbildmodus aktivieren

3D-Einstellungen / 3D-Einstellungen verwalten / Globale Einstellungen:

1737301772138.png
1737301794298.png
1737301814844.png


Bei Antialiasing im Nvidia Control Panel alles ausschalten, das stellst Du im jeweiligen Spiel ein, was für einen Modus Du nutzen willst (FXAA, TAA, MFAA, DLAA, DLSS, etc.). Falls Du ein Spiel hast, welches ingame keine AA-Option bietet, kannst Du das Spiel im Reiter "Programmeinstellung" auswählen und nur für dieses Spiel einen AA-Modus in der Nvidia Systemsteuerung einstellen.
Und V-Sync immer ausschalten, sowohl in der Nvidia Steuerung als auch in jedem Spiel.
Wichtig ist, die Maximale Bildfrequenz zu setzen, und zwar knapp unter der Hertz-Zahl Deines Monitors (bei mir habe ich 98fps eingestellt aufgrund meines 100 Hz Monitors). Dann laufen die Spiele immer Bildsynchron über G-Sync.

In den Spieloptionen sollte möglichst folgendes eingestellt sein:
- Motion Blur / Bewegungsunschärfe: off
- Chromatic Abberation: off
- Depth of field / Tiefenunschärfe: off
- Vertical Sync: off
- FPS Limit: egal, hauptsache der Wert liegt über dem FPS Limit in der Nvidia Systemsteuerung
- Resolution Scaling / Dynamic Resolution: off bzw. 100% (=keine Skalierung)
- DLSS: aktivieren und DLSS Quality verwenden (in den meisten Spielen die beste Option)
- alles was "adaptive" im Namen trägt: ausschalten


Habe mich gefragt, ob ich für Games 2025 / 2026, bei denen Pathtracing zwingend dabei ist, durch Reduzierung der Auflösung auf 1080p 27'' (ppi bleibt ja ca. gleich zu 1440p 32'') ggf. bei den FPS viel retten kann. Oder ob die reduzierte Auflösung wegen Pathtracing (mangels AI?) nix retten kann.

60 FPS reichen mir für meine Storygames. Hab sie sowieso auf 90 oder 80 im Treiber limitiert, um die Hardware zu schonen. Spiele damit aktuell Dying Light 1 😂.
Also die PPI ist schon deutlich schlechter auf dem kleineren Monitor (81,6 zu 91,8), allgemein ist der 32er weitaus besser (bessere Farbtiefe und mehr Hertz).

Wieso limitierst Du die FPS so stark? Wenn Du Strom sparen willst, dann regel besser das Powertarget mittels MSI Afterburner herunter.

Ich meinte, mich erinnern zu können, dass bei neueren Pathtracing / anspruchsvollen Raytracing Games laut Benchmarks die 3080 gegenüber der 4080 drastisch nachlässt in FPS (was ich ggf. total scheiße finde, von einer Gen zur nächsten, aber so was wie die Langlebigkeit der GTX 1080 Ti wird's wohl nicht mehr geben).
Die RT Leistung hat mit jeder Generation deutlich mehr als die Leistungszunahme bei der Rasterisierung zugenommen. Ist auch nicht verwunderlich, da RT erst seit 3 Generationen unterstützt wird. Aber auch wenn die 1080ti seiner Zeit ein riesen Wurf war, so ist sie heute quasi Sondermüll, da die ersten Spiele mit RT Zwang wie Indy nicht mehr unterstützt werden.

Okay, ist das so? Dass 1440p auf einem 4k Monitor besser aussehen als auf nativ auf einem 1440p?
Man hat prinzipiell ein natürliches Antialiasing, da die kleinere Auflösung hochskaliert wird. Allerdings ist das Bild dadurch weicher gezeichnet, also nicht mehr so scharf. Die beste Variante ist es daher, lieber nativ mit DLSS in Quality Einstellung zu spielen und das DLSS die Skalierung übernehmen lassen.

Nice, dann könnte die RTX 4080 ja wirklich noch lange reichen.
Wenn Du bereit bist, Dich mit 1080p/60fps zu begnügen, dann tut sie das bestimmt länger als 3 Jahre noch. Also mach Dich nicht verrückt 😉
 

Anhänge

  • 1737301538633.gif
    1737301538633.gif
    43 Bytes · Aufrufe: 2
  • 1737301538626.gif
    1737301538626.gif
    43 Bytes · Aufrufe: 3
  • 1737301538641.gif
    1737301538641.gif
    43 Bytes · Aufrufe: 3
60 FPS reichen mir für meine Storygames. Hab sie sowieso auf 90 oder 80 im Treiber limitiert, um die Hardware zu schonen.
Ist doch super. Mach Dir keinen Stress. Wenn 60 oder 90Fps reichen, ist's völlig ok. 8-)

Finde es auch super, dass Du Deine Hardware schonst.

Ich nutze DLSS Quality FG um die Leistungsaufnahme meiner GPU bei meinen auf 100Fps gekappten Spielen, um 50% zu reduzieren.


Wie oben angesprochen FPS Limit maximal auf Monitor-Hz abzüglich 3-5Hz.

Ein anderes Szenario
Wenn Dein Monitor 240Hz kann, Deine GPU in Deinen favorisierten Einstellungen jedoch "nur" 160 FPS liefert, dann würde ich sogar bei 140 FPS-Limit setzen. Dann rennt sie GPU nicht bis zum Erbrechen und die Lüfteraktivität nimmt ab. Starke FPS Drops werden damit sich unwahrscheinlicher.
 
entweder holt man sich heute einen 27" 1440p 165hz IPS für 250-350 euro oder lässt es.

da kannst du dann eine 4080S drauf werfen und mit DLSS Q ein sauberes bild bekommen mit guter performance

pathtracing ist dann nochmal eine ganz ganz andere welt. kommt aufs game an. kommt drauf an ob das game FG unterstützt.

den rest hat just m3 schon gesagt.

gsync bzw adaptive sync solltest du immer nutzen. ist deutlich flüssiger als ohne.
 
ist die 50x0 überhaupt schon im Verkauf .

Für den Drängler
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh