CPU-Limit untersucht: Die GeForce RTX 5090 im Zusammenspiel mit älteren CPUs

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Danke für den Artikel, diese Frage taucht immer und immer wieder bei Freunden auf. Denen erklärt man das dann und ne Woche später wieder der gleiche Kram.

Zum Glück habe ich nur ein 100Hz Panel :d, aber irgendwann wird der alte 5900x hier auch gehen müssen.
 
Toller Test und super Idee. I like. Den Test darf es in Zukunft gerne häufiger bei neuen Grafikkarten geben.

wäre noch ein 285k sowie ein 5800x3d (oder 5700x3d) Teil des Tests gewesen...

Stimme zu, AM4 x3D mit DDR4 sollte da auf jeden Fall noch mit rein. Allein schon da noch so viel davon hier im Umlauf ist. Als Kirsche auf der Torte gern auch noch Arrow Lake ;)
 
Stimme zu, AM4 x3D mit DDR4 sollte da auf jeden Fall noch mit rein. Allein schon da noch so viel davon hier im Umlauf ist. Als Kirsche auf der Torte gern auch noch Arrow Lake ;)
Das ist die beste Plattform gewesen und leider habe ich für einen 13700k meinen 5800x3d verkauft der ohne murren mit 3600 ddr4 und 64gb lief was ich von 13700 nicht behaupten kann.
Zumal beim x3d auf am4 egal war ob 3200 oder 3800mhz.
AMD wusste schon warum der 5800x3d sterben musste der war einfach zu gut !
 
Schöner Test und bestätigt mich weiterhin bei meiner 5900X CPU zu bleiben, in 4K reicht die CPU dicke als Partner der 5090.

Aber auch irgendwie „erschreckend“ wie wenig sich ein CPU Upgrade eigentlich lohnt wenn man nur in 4K unterwegs ist…
 
Schöner Test und bestätigt mich weiterhin bei meiner 5900X CPU zu bleiben, in 4K reicht die CPU dicke als Partner der 5090.

Aber auch irgendwie „erschreckend“ wie wenig sich ein CPU Upgrade eigentlich lohnt wenn man nur in 4K unterwegs ist…
Naja eigentlich nicht.
Zeigt halt wie am Limit selbst die 5090 in 4K ist und wie unsinnig jede andere gpu außerhalb von MFG da ist. Wie wenig sinnvoll die Auflösung ohne Technik wie FSR und DLSS überhaupt ist.
 
Und auch dieser Test zeigt wieder (wenn auch nicht so super deutlich), dass selbt unter 4K Auflösung die CPU eben nicht egal ist. Auch wenn das Viele immer wieder behaupten.
Ja, die max. FPS mögen im GPU Limit mit besserer CPU nicht weiter ansteigen. Aber die min. FPS tun dies sehr wohl (je nach Spiel sogar sehr deutlich) und somit hat man schlicht eine stabilere Framerate.

Wenn man sich also eine teure High End Karte kauft, ist eben doch anzuraten, dass die CPU Leistung daneben zumindest halbwegs dazu passt.
Dieses Geschwätz von wegen "in 4K ist die CPU total egal, weil die GPU eh limitiert" ist Blödsinn.
Wo siehst du denn große Abweichungen bei MinFPS bei 4K?

Habe mal alle Benchmarks angeguckt und nur bei F1 ist das signifikant.
 
Mit 4K fährst halt quasi jede Grafikkarte an die Kotzgrenze. Speziell wenn's dann auch noch hohe Hz am Monitor fährst.
Da bringt die CPU tatsächlich sehr wenig weil die Last eben nicht dort anliegt.
Wie @ra773 schon sagt in diesem Segment ist DLSS, FSR und MFG unersetzbar um auf hohe Leistung zu kommen.
Die Frage ist nur ob's dann auch ein wirklich gutes Spielerlebnis bringt für den Nutzer, ja die Frame Generation interpoliert "intelligent" zusätzliche Bilder mit rein aber wie es am Auge ankommt und wie das Spiel dann wirkt kannst erst sagen wenn davor sitzt.
Cool ist die Technik auf jeden Fall.
 
Jup, wenn jemand fragen würde ob ein upgrade von 7800X3D/12900k notwendig ist, dann würden wir direkt - nein - sagen.
Ich bin (4090@3,1 GHz WaKü) von nem 5900X@5 GHz WaKü auf einen 9800X3D @ 5,45GHz WaKü und ja, ich weiß das die CPU schneller ist - v.a. in Benchmarks. Merken tue ich jetzt im Game 3440 nicht soooo viel. Ich würde mir gerne den Kauf schönreden, wage aber zu bezweifeln, dass es sich so sehr gelohnt hat. Ebenfalls hat 2019 gerade angerufen und möchte seine Kernanzahl zurück...
 
und genau das ist das problem

ein cpu hat nicht die aufgabe eine gpu auszulasten. seit wann muss eine gpu auf 99% laufen? das ist sogar eher schlecht weil du dann niemals deine wunsch fps halten würdest.
Falsch, die Aufgabe der CPU ist es die Grafikkarte zu 100% auszulasten. Wenn das zu viel FPS gibt, bei alten Spielen, kann man die FPS limitieren.
 
Falsch, die Aufgabe der CPU ist es die Grafikkarte zu 100% auszulasten. Wenn das zu viel FPS gibt, bei alten Spielen, kann man die FPS limitieren.
nein hat sie nicht. zumindest nicht pauschal ohne irgendeinen kontext.

eine 5090 auf 100% zu bringen geht auch mit einem ryzen 1600 > stell bei ausgehend 1440p oder höher einfach den auflösungsregler auf 200% und schalte DLAA dazu.

sollte bei den meisten triple A games dafür sorgen, dass die 5090 weniger fps schafft als der 1600.

was ist das ergebnis? 100% auslastung.

bei wie viel fps? naja... das scheint dir nicht wichtig zu sein denn dein hauptziel war ja 100% auf der gpu

verstehst du worauf ich hinaus will? 100% auslastung zu erreichen sagt überhaupt nichts aus

Daher gilt > solange die fps, die deine cpu erreicht dir selbst reichen, reicht die cpu. Es ist dabei völlig egal ob die graka das 10fachte an fps pumpen könnte

Beitrag automatisch zusammengeführt:

hee?

Wenn deine gpu nicht auf 99% lauft dann fehlen dir fps, wenn deine gpu nicht auf 99% kommt dann ist sehr wahrscheinlich die cpu zu schwach.,
ändert nichts an meiner aussage.

dazu ist genau das was du sagst falsch

wenn meine graka auf 99% laufen würde, wären meine FPS nicht stabil sondern schwanken

Beispiel GOT
Hier wird bei 142 gecapped damit die stabil gehalten werden > adaptive sync

Beitrag automatisch zusammengeführt:

Aber auch irgendwie „erschreckend“ wie wenig sich ein CPU Upgrade eigentlich lohnt wenn man nur in 4K unterwegs ist…
was nicht an den cpus liegt sondern ein deinen games und settings. kannst ja mit den einstellungen runter wenn du mehr fps haben willst. wer natürlich alle regler hochknallt sodass die 5090 dann unter dem cpu limit arbeitet, ist ja selbst schuld^^
 
Zuletzt bearbeitet:
Für 4k Gaming ist es noch viel zu früh. Mir persönlich wäre es lieber, wenn mein System jedes Spiel, welches rauskommt, mit voller Grafikpracht darstellen könnte, als ich aussuchen müsste, welche Grafikoption ich nun abstelle, um spielbare FPs zu erreichen. Von daher, lieber im CPU-Limit bei "nur" 2k Auflösung, dafür aber mit ordentlichen FPs und voller Grafikqualität, spielen, als in 4k bei FPs in einstelligem Bereich rumzugurken. Aber einen Grafik-Boliden der letzten Generation mit einer CPU von vor 10 Jahren zu paaren, würde ich als Perversion im Computerbau empfinden. Man sollte alles in einem gesunden Rahmen betreiben.

PS: Fake-FPs kommen für mich nicht in Frage, weil selbst das menschliche Auge optisch sehr oft getäuscht wird, von irgendwelchen KI-Skalierung ganz zu schweigen.
 
Ob "zu früh" der richtige Ausdruck ist bin ich mir gerade nicht sicher.
Ich glaub das die Erwartungen die durch 4K so geweckt werden einfach nicht zur Realität passen. Der Hardcore Shooter CS Zocker der auf 1080p mit 420Hz spielt wird mit 4K 60Hz nicht glücklich. Selbst wenn's 144Hz sind wird der nicht glücklich.
Und das Bild ist bei solchen Spielen in der Auflösung so uninteressant (vom Detailgrad her meine ich) das es schlicht sinnlos ist.
Mein Optimum ist 1440p 144Hz damit bin ich sehr zufrieden.
 
Wenn deine gpu nicht auf 99% lauft dann fehlen dir fps, wenn deine gpu nicht auf 99% kommt dann ist sehr wahrscheinlich die cpu zu schwach.,
Also ich begrenze meine FPS idR sogar via Framelimiter und mir fehlt gar nichts. Meine Grafikkarte ist somit quasi fast NIE auf 100%, braucht weniger Strom und ist leise.

Und nein, das heisst nicht, das für mich auch eine langsamere Grafikkarte ausreichend gewesen wäre, denn ich stelle das halt (bei grafisch anspruchsvolleren Spielen) so ein, das die Grafikkarte idR so bei 70-80% läuft. Somit hat sie 20-30% Reserveleistung und kann damit die FPS STABIL halten, auch wenn die Grafik in einer Szene mal etwas anspruchsvoller wird.

Je nach Spiel brauche ich auch schlicht und einfach nichtmal 140, 200, 300, 800fps. Warum sollte meine Grafikkarte in Civilization 300W verblasen um 500fps zu rendern? Da tuns auch 60fps...

Das ist wie mit dem Auto in der Ortschaft 50km/h im ersten Gang zu fahren, weil wenn der Drehzahlmesser nicht am roten Bereich hängt, fehlt einem ja Leistung. :ROFLMAO:
 
Solitaire mit 13.000fps ist schon etwas unvergleichbar geiles ... :zwinkersmiley:
 
In 60 Hz möchte ich aber auch nicht mehr spielen. 120Hz für Qualität und 240Hz Kompetitiv WQHD oder UWQHD 1440p ist mein Sweetspot. Packt die 4080 noch nicht ganz bei 0.925 UV. Mein PC bekommt 500 Watt, damit muss er zeigen was er kann. Läuft so absolut in Ordnung. Brauche kein 4K, bissi Leistung fehlt dahin halt noch. Mal gucken was mit 60x0 so passiert.
Aber Nvidia vermiest mir dieses gute Gefühl ne Graka zu kaufen. Früher hat man geschaut welche einem liegt, ob Wasserkühler schon draußen sind und ob die Leistung passt und dann hat man die EVGA bestellt. Und nun? Purer Stress zu exorbitanten Preisen. Die Wasserkühler jenseits der 300€ Marke, die Customs schlagen 600€ gegenüber der UVP drauf, wegen ihren tollen Kühlern.
bots schabulieren alles weg für die Bucht und Shops verdreifachen selbst schon die Preise.
Macht überhaupt keinen Spaß mehr Grafikkarten zu laufen.
Danke Nvidia.
EVGA hat da nen ganz guten Riecher für die Zukunft gehabt. Die nutzen Hoffentlich Scheisshauspapier mit Huangson Antliz drauf.
 
Nächste Woche auf CB:
„So wird ComputerBase-Autor Volker Rißka RTX 5090 und RTX 4090 auf einem Ryzen 7 5800X3D im GPU-Limit gegeneinander antreten lassen und die Frage beantworten: Wie viel bleibt vom durchschnittlichen Leistungszuwachs von 24 Prozent in UHD, der auf einem Ryzen 7 9800X3D im GPU-Testparcours erzielt worden ist?“
 
Die ganzen Tests, die bisher gemacht wurden, sind doch alle für die Katz, wenn man erst in 2-3 Monaten an eine Karte kommt.
 
Mein 7600X3D kommt schon mit meiner 5080 in 4k ans Limit. Die Zeiten in denen die CPU zweitrangig war sind definitiv vorbei.
 
Nächste Woche auf CB:
„So wird ComputerBase-Autor Volker Rißka RTX 5090 und RTX 4090 auf einem Ryzen 7 5800X3D im GPU-Limit gegeneinander antreten lassen und die Frage beantworten: Wie viel bleibt vom durchschnittlichen Leistungszuwachs von 24 Prozent in UHD, der auf einem Ryzen 7 9800X3D im GPU-Testparcours erzielt worden ist?“
ergebnis ist bereits bekannt. ergebnis ist 0

wenn ich die graka ins gpu limit drücke, dann ist sie langsamer als die cpu und wenn volker das gpu limit unterhalb des 5800x3d drückt ist dann ist es logischerweise auch unterhalb eines 9800x3d

somit ist das ergebnis bereits jetzt ersichtlich.

volker hat keine ahnung
Beitrag automatisch zusammengeführt:

Wie meinst du das?
cpu und gpu sind nicht voneinander abhängig
 
es ist technisch fakt

wenn ein 5800x3d 150fps macht, die graka (5090) aber 120fps (er will ja gpu ja ins gpu limit drücken) dann sieht er das GPU limit

wenn er dasselbe mit nem 9800x3d macht, ändert sich am ergebnis genau gar nichts. die 5090 macht weiterhin 120fps und der anwender hat weiterhin nur die 120fps

das was er da testen will ist komplett fürn eimer

auch volker möchte einen kausalen zusammenhang zwischen der gpu und cpu herstellen, den es einfach nicht gibt
 
hab ich nicht verneint
Beitrag automatisch zusammengeführt:

4090 122fps gpu limit.

sollte der 5800x3d mehr als 122fps schaffen sind beide cpus schneller. graka im limit

wie gesagt. das was der Volker da testen will hat nichtmal irgendeinen sinn. es gibt CPU tests und GPU tests. die ergebnisse gibt es bereits.

das was er da testen will ist zeitverschwendung.

es ist am ende ein gpu test den es bereits gibt : https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5090-test.91081/


GhostOfTsushima_2025_02_02_20_34_41_392.jpg
 
Zuletzt bearbeitet:
Verstehe nicht warum die Redaktion keinen 5800X3D mit auflistet - das ist mit Abstand die am meist verbreiteste 3D-CPU.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh