Multi Frame Generation ist beeindruckend: Die GeForce RTX 5090 Founders Edition im Test


Laut Igors Messungen ist die 5090 ab 1440p und vor Allem bei 2160p effizienter als 4090!
Bei reinem Raster wohlbemerkt!

4,81Watt/FPS VS. 4,94Watt/FPS
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Don
Klasse Test. Habe alles gefunden, was ich wissen wollte. (y)
Bin gespannt, wie die Custom-Designs bei euch abschneiden! Auch wenn ich aktuell etwas desillusioniert bin. ;)
 
Ich hab meine Astral schon vorbestellt
Das ist super für dich. Ändert aber nix daran das nicht alle die eine wollen bekommen werden. Und in deinem Beitrag hast du ja von allen geschrieben, auch wenn klar ist es das um dich ging.
 
Laut Igors Messungen ist die 5090 ab 1440p und vor Allem bei 2160p effizienter als 4090!
Bei reinem Raster wohlbemerkt!

4,81Watt/FPS VS. 4,94Watt/FPS
sind doch kaum nennenwerte Unterschiede. Die tun sich so gut wie gar nichts. Nur dass 500W echt unangenehm werden im Sommer. Da helfen auch 0,1W weniger pro fps nicht wirklich
 
Idle-Verbrauch ist katastrophal gestiegen zur letzten Gen.
Hoffentlich betrifft es nicht die 70er Kärtchen....

Zumal ich die eigentlich nur für DP 2.1 brauche..
 
Nachtrag:
Seh auch das mit RT etwas skeptisch, hab bisher keine Anwendung gesehen, wo RT gut/besser ausgesehen hat, bisher immer sehr künstlich und eigentlich meh.
Nicht, dass ich was gegen neue Technik hab, aber imho ist das rumreiten auf dem aktuell unausgereift verwendeten RT eine gewisse "Verzerrung"...
pathtracing musst du halt nehmen. erst dann wird es richtig deutlich.

gerade bei cyberpunk ist normales RT (ohne PT) nur semi. erst Pathtracing also volles RT ändert alles
Beitrag automatisch zusammengeführt:

Laut Igors Messungen ist die 5090 ab 1440p und vor Allem bei 2160p effizienter als 4090!
Bei reinem Raster wohlbemerkt!

4,81Watt/FPS VS. 4,94Watt/FPS
alles andere wäre auch ein scherz
 
Klar, wird genug Leute geben die eine kaufen. Ist doch auch ok.
jo wieso sollte es auch nicht okay sein. Mir doch egal was andere machen :d Ich habe sowieso kein einziges Game das von den Fake Frames profitiert und wäre eh erstmal nicht umgestiegen. Was später passiert muss man schauen.

Habe jetzt erstmal eine Eiswolf II bestellt für meine Karte und optimiere damit auf mehreren Wegen direkt meinen PC. Damit habe ich die nächsten Jahre auch Ruhe.
 
Idle-Verbrauch ist katastrophal gestiegen zur letzten Gen.
Hoffentlich betrifft es nicht die 70er Kärtchen....

Zumal ich die eigentlich nur für DP 2.1 brauche..
Die kleinen Chips sollten eigentlich etwa auf dem gleichen Level bleiben.

Dass die 5090 Strom schluckt war bei einem so breiten Design abzusehen. Deswegen habe ich an diese ganzen 512-Bit Gerüchte anfangs nie geglaubt...
 
Da ich nicht zur Zielgruppe dieser Grafikkarte gehöre, möchte ich mich inhaltlich nicht äußern.

Allerdings möchte ich meinen Dank und meinen Respekt für diesen Test äußern, nicht nur wurde hier offenkundig sehr viel Mühe und Aufwand jenseits der neuen Techniken und deren Einfluss auf die FPS investiert, sondern insbesondere die Erläuterungen fand ich, der ich mich nicht superheftig mit der Materie beschäftigt habe und beschäftigen will, sehr aufschlussreich und hilfreich.

Dicker Daumen Hoch! (y)

Mit freundlichen Grüßen
 
Zuletzt bearbeitet:
Anscheinend nutzen erste Händler diese Testergebnisse um nochmal mächtig Kohle zu machen:

Anhang anzeigen 1067481
da geht noch was


Capture.PNG
 
les ich das richtig, teilweise 2.5x - über 3x die Leistung einer 3090 in 4k?
Das wäre ja tatsächlich eine Überlegung wert.
 
Ich kann den Hate über FG nicht nachvollziehen. Wahrscheinlich habt ihr dann einfach den falschen Monitor. Ich bin von 120Hz OLED auf Dual-Mode 240/480Hz umgestiegen. Mit dem alten Bildschirm hielt ich das auch für ein Gimmick. Das hat sich mit dem neuen Monitor geändert. Schnelle Shooter wie Marvel Rivals oder CoD BO6 spiele ich im Multiplayer(!) mit (aktuell FSR3) Framegeneration on. Die Latenz steigt dabei mit Reflex oder Antilag laut NVIDIA-Frameview um 4-5ms (das merke ich nicht), die FPS gehen aber auf 300-400fps hoch - und das ist ein deutlicher Gewinn an Bewegtbildschärfe, der ein ganz anderes Spielgefühl ermöglicht.

Wenn man jetzt Singleplayer-Spiele auf 4K 240 hochballern kann, ist das für gerade einmal 5ms Latenz imho ein echter Gewinn. Die Frage ist a) wie viele Titel werden MFG überhaupt unterstützen und b) kann man dort wenigstens 60, besser 90fps Base-Framerate halten, damit die Latenz entsprechend unten bleibt. Ein Cyberpunk hat laut PCGH soweiso schon knapp 120ms Latenz. Ob das dann 125ms oder 120ms sind, merkt man nicht, ob man 70 oder 240fps hat, schon.

Wirklich schlauer bei meiner Kaufentscheidung bin ich nicht. Ich habe eine 7900XTX für 850 EUR, die kann ich bis 31. Januar an Amazon zurückgeben. Die 5080 sollte rausfallen, die hat einfach zu wenig Grundleistung und dürfe kaum über die 4080 Super hinauskommen. Die 5090 ist spannend, aber säuft wie ein Loch und es wäre ein riesiger Zufall, falls ich eine abbekommen sollte. Eine 4090 liegt gebraucht aktuell bei ~1.500 EUR. Vielleicht ist die der beste Kompromiss.

Froh bin ich auf jeden Fall, dass ich mir ein PCI-E 5.0 Brett geholt habe. Alle rieten mir dazu, die 50 EUR zu sparen und B650 würde reichen. Und jetzt stehen da direkt mal 5% Mehrleistung in Cyberpunk im Raum.
 
Zuletzt bearbeitet:
sind doch kaum nennenwerte Unterschiede. Die tun sich so gut wie gar nichts. Nur dass 500W echt unangenehm werden im Sommer. Da helfen auch 0,1W weniger pro fps nicht wirklich
4K Metro Exodus 578 WATT ist schon ne Hausnummer.
Das sind fast 140 WATT mehr als eine 4090.
Beitrag automatisch zusammengeführt:

Anscheinend nutzen erste Händler diese Testergebnisse um nochmal mächtig Kohle zu machen:

Anhang anzeigen 1067481
Perfekt.
Verkaufe meine KFA2 4080S dann wieder für Neupreis :LOL:8-)
 

Nochmal zum Thema PCIE Scaling!
 
5090 - 4090Ti :d, gut das ich meine 4090 Matrix behalten habe :)
 
Ich kann den Hate über FG nicht nachvollziehen. Wahrscheinlich habt ihr dann einfach den falschen Monitor. Ich bin von 120Hz OLED auf Dual-Mode 240/480Hz umgestiegen. Mit dem alten Bildschirm hielt ich das auch für ein Gimmick. Das hat sich mit dem neuen Monitor geändert. Schnelle Shooter wie Marvel Rivals oder CoD BO6 spiele ich im Multiplayer(!) mit (aktuell FSR3) Framegeneration on. Die Latenz steigt dabei mit Reflex oder Antilag laut NVIDIA-Frameview um 4-5ms (das merke ich nicht), die FPS gehen aber auf 300-400fps hoch - und das ist ein deutlicher Gewinn an Bewegtbildschärfe, der ein ganz anderes Spielgefühl ermöglicht.

Wenn man jetzt Singleplayer-Spiele auf 4K 240 hochballern kann, ist das für gerade einmal 5ms Latenz imho ein echter Gewinn. Die Frage ist a) wie viele Titel werden MFG überhaupt unterstützen und b) kann man dort wenigstens 60, besser 90fps Base-Framerate halten, damit die Latenz entsprechend unten bleibt.
im Raum.
Sehe ich wirklich komplett anders. Selbst in Titeln wo es theoretisch keinen Unterschied beim erreichen des Ziels macht (Indy bspw) spielt es sich so unangenehm mit FG, dass es einfach sinnlos ist. Genau sinnlos ist es aber, wenn man bereits 120+ FPS hat.

Also mir war das nix. Und MFG scheint an denselben Symptomen zu leiden. Also wird es für die, die FG nicht mochten keinen Unterschied machen. Leute wie Du, die mit FG keine Probleme hatten, freuen sich über die mehr FPS.
 
nö.

native 172fps sind eben native 172fps und 172fps FG aus vormals 120fps native sind eben nicht das gleiche. ja reflex hilft aber nativ FPS + reflex ist einfach deutlich direkter

Der richtige Vergleich wäre in dem Fall aber 172fps nativ vs 172 fps + FG, also 270fps oder so. Die generierten Frames kommen ja oben drauf.

Sehe ich wirklich komplett anders. Selbst in Titeln wo es theoretisch keinen Unterschied beim erreichen des Ziels macht (Indy bspw) spielt es sich so unangenehm mit FG, dass es einfach sinnlos ist. Genau sinnlos ist es aber, wenn man bereits 120+ FPS hat.

Also mir war das nix. Und MFG scheint an denselben Symptomen zu leiden. Also wird es für die, die FG nicht mochten keinen Unterschied machen. Leute wie Du, die mit FG keine Probleme hatten, freuen sich über die mehr FPS.
Du hast halt ebenso nur einen 144Hz Monitor. Wie gesagt, mit dem 120Hz OLED war das immer aus, weil es sich schwammig anfühlte. Das ist komplett anders, seit ich den neuen Bildschirm habe.
 
Einfach mal die Karte mit PL 450 testen und schauen was davon übrig bleibt dann wird es fair zur 4090 und 7900 xtx danach bitte Preis bereinigt fps berechnen :)

Für 4K ist die 600watt Heizung sicher ganz net im Winter im Altbau unterm Schreibtisch.

Ich komme mit einer 750 EUR 7900 XTX auf 114 FPS mit 430 Watt und die 5090 bei wohl 600 auf 166 = das sind bereinigt wohl genau die werte der 4090 :)
Was ein BS von Nivdia.

overclocked-performance.png
 
Zuletzt bearbeitet:
es ist völlig egal wie hoch die fps sind solange das mausgefühl bei FG durchweg schlechter ist und das bestätigt CB
So ist es. Der Monitor ist da völlig irrelevant. Je mehr "Raster FPS" desto geringer der Eingabe Lag, aber da ist mir der Mehrwert von FG dann zu gering. Ich will Spiele von 50 auf 80FPS bringen, nicht von 220 auf 340.
 
Da haben wir wohl unterschiedliche Tests gelesen? :fresse:
Ich denke, er meinte die Optik, denn da hätte ich zugestimmt.
Beitrag automatisch zusammengeführt:

Wie seht ihr die Entwicklung grundsätzlich?
Ich hatte eure Gedanken über das reine Testen schon lobend erwähnt und empfinde diese Grafikkartengeneration, hier NVidia vorgestellt, aber auch nach allem, was über AMD zu lesen ist, dass diese Industriesparte neue Wege sucht, um an technisch anspruchsvolle Spiele darstellen zu können. Für mich persönlich sieht diese Generation insgesamt eher aus wie eine Technikstudie.

Aber, braucht es da eines 2,k€-Kloppers...?

Mit freundlichen Grüßen
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh