RTX 4090 & I9 10900K FPS Problem

AkokKiller

Enthusiast
Thread Starter
Mitglied seit
14.11.2009
Beiträge
17
Moin Zusammen,

ich habe gestern meine RTX 4090 erhalten und muss feststellen, dass die Performance zu meiner RTX 3080 schlechter ist.

Mein System:
Win 11
MSI Z590 Gamin Force
32GB DDR 4 4000
be quiet straight power 11 850w platinum
I9 10900K
RTX 4090 MSI Ventus OC mit 3 Stromanschlüssen
Monitor 3440x1440p

Nvidia Treiber 526.98

Furemark läuft mit fast 100% GPU Last und 425 Watt, da sehe ich kein Problem
Destiny 2 läuft mit der RTX 4090 schlecher als mit der RTX 3080 bei gleicher Grafikeinstellung.
GPU Last ist bei ca. 40%, wenn ich die Auflösungsskala von 100 auf 200% erhöhe, dann steigt die GPU Last und die Watt, die FPS bleiben aber gleich wie bei 100% (Vsync off)
Das gleiche Problem ist auch bei TT Wonderland, bei mittlerer Grafikeinstellung fast 144fps, GPU Last 40%, bei der BADass Grafikeinstellung steigt die GPU Last und die FPS bleiben gleich wie bei der mittleren Grafikeinstellung (Vsync off)
Far Cry 6 läuft schlechter mit der RTX 4090 als mit der RTX 3080 (Vsync off)
Ganz anders ist es bei Uncharted. Bie der RTX 3080 konnte ich max 120FPS bei Mittlerer bis Hoher Grafikeinstellung erreichen. Die RTX 4090 erreicht bei Ultra Grafikeinstellung über 200FPS durchgehend bei voller GPU Last

Kann mir bitte jemand sagen, welches Problem die RTX 4090 hat?

Danke schon mal im Voraus

Grüße

Sebastian
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Karte hat kein Problem. Du hängst im CPU Limit.
Die Grafikkarte kann nur bei Grafiklast eine Verbesserung bringen. Und das ist das was du siehst: alles schöner machen ohne Speedverlust.

Wenn du von 144 auf 360 fps willst, dann muss dein Unterbau mithalten können und da vermute ich dass da bei dir Ende im Gelände ist. Ich hab ja auch so ein Thema. Bei mir isses genauso.
 
danke für die schnelle Antwort.

Würde ein Umstieg auf den I9 11900k was bringen? der würde dann bei mir mit PCI-E 4.0 laufen
 
Deine Karte hat kein Problem, ich hab auch nen 10900er und kenne das Verhalten.
Ist halt CPU Limit, mich juggt das nicht weil mein Ultra-Wide nur 100 HZ kann, also hab ich auf 100 FPS gelockt, dass schaftt der 10900er in den meisten Fällen auch noch ohne Probleme.

Dafür begnügt sich dann die 4090 bei Ultra Details mit einem sehr geringen Stromverbrauch. Ich würde eh immer die FPS wenn es geht locken.
Du hast bei der 4090 einen Immensen Spielraum.

Ich bin mittlerweile so drauf, dass ich Spiele mit 5K via DLSDR zocke, zusätzlich habe ich meine Karte noch UV.
Meine Suprim schafft bei 0,89 mv die 2610 Mhz, bei 100% GPU-Last sind das max so ca ~270 Watt.

Zudem ist der 10900er auch nicht soo schlecht, wenn es um Stromsparen geht, zumindest wenn man sich mit 100 FPS zufrieden gibt.
Mein 10900er schluckt in Cyberpunk z.b bis zu 150 Watt.

Ein 13900K hämmert im Idealfall so um die 20-30 % mehr FPS raus schluckt dafür auch gerne mal 300 Watt.
 
Danke schon mal für deine Antwort. Da der i9 10900k nur mit pci e 3.0 läuft, würde es was bringen auf den i9 11900k (pci e 4.0) zu wechseln um mehr fps rauszuholen?
 
danke für die schnelle Antwort.

Würde ein Umstieg auf den I9 11900k was bringen? der würde dann bei mir mit PCI-E 4.0 laufen

Das bringt imo gar nix, PCIE 4.0 sind 1-2 Prozent, mehr Leistung.
der 11900K ist auch nicht wirklich schneller, wäre halt kompatibel zu deinem Board ich weiß.
Wenn es eine neue CPU sein soll, entweder der 5800X3D, den I5 13600k oder den 13900K.

Bei der neuen Intel Plattform würde ich aber gleich auf DDR5 gehen.

guter Artikel zum Thema:

Je höher die Auflösung desto unwichtiger ist eine schnelle CPU, wenn dich der Stromverbrauch der CPU nicht interessiert, dann der 13900k

Bzw. hier noch ein Test des 13900K im allgemeinen, allerdings nur mit der 3080

 
Zuletzt bearbeitet:
Das bringt imo gar nix, PCIE 4.0 sind 1-2 Prozent, mehr Leistung.
der 11900K ist auch nicht wirklich schneller, wäre halt kompatibel zu deinem Board ich weiß.
Wenn es eine neue CPU sein soll, entweder der 5800X3D, den I5 13600k oder den 13900K.

Bei der neuen Intel Plattform würde ich aber gleich auf DDR5 gehen.

guter Artikel zum Thema:
Danke für deine Antwort. Bei 2300€ werde ich wahrscheinlich die rtx 4090 zurückschicken und meine 3080 suprim behalten. Ein Umstieg auf die neue Generation würde zuviel kosten.
Beitrag automatisch zusammengeführt:

Danke euch für eure Antworten
 
Zuletzt bearbeitet:
Deine Karte hat kein Problem, ich hab auch nen 10900er und kenne das Verhalten.
Ist halt CPU Limit, mich juggt das nicht weil mein Ultra-Wide nur 100 HZ kann, also hab ich auf 100 FPS gelockt, dass schaftt der 10900er in den meisten Fällen auch noch ohne Probleme.

Dafür begnügt sich dann die 4090 bei Ultra Details mit einem sehr geringen Stromverbrauch. Ich würde eh immer die FPS wenn es geht locken.
Du hast bei der 4090 einen Immensen Spielraum.

Ich bin mittlerweile so drauf, dass ich Spiele mit 5K via DLSDR zocke, zusätzlich habe ich meine Karte noch UV.
Meine Suprim schafft bei 0,89 mv die 2610 Mhz, bei 100% GPU-Last sind das max so ca ~270 Watt.

Zudem ist der 10900er auch nicht soo schlecht, wenn es um Stromsparen geht, zumindest wenn man sich mit 100 FPS zufrieden gibt.
Mein 10900er schluckt in Cyberpunk z.b bis zu 150 Watt.

Ein 13900K hämmert im Idealfall so um die 20-30 % mehr FPS raus schluckt dafür auch gerne mal 300 Watt.
du brauchst ein neuen Monitor: 1440p 360hz oder 4k 144hz
1440p + 4090 = du bist CPU limitiert außer vielleicht 13900K oder ryzen 7900/7950x
alle sollten hier lesen:


 
Danke für deine Antwort. Bei 2300€ werde ich wahrscheinlich die rtx 4090 zurückschicken und meine 3080 suprim behalten. Ein Umstieg auf die neue Generation würde zuviel kosten.
Beitrag automatisch zusammengeführt:

Danke euch für eure Antworten

Joa wäre auch eine Möglichkeit, es ist ebenso das die jetzigen Games in unserer nativen Auflösung eben CPU-Limitiert sein können, sowas gab es vorher nicht.
Zukünftig wird es sicherlich wieder Spiele geben, welche grafisch in Ultra mit RT auch bei 3440p fordernd sein könnten. Und dort wirst du mit der 3080 dann Kompromisse eingehen müssen. Wenn du Features wie RTX, oder DLDRS, DLSS2,3 nicht nutzt. Oder die 4090 nicht undervolten oder das Power-Target bei 3440p nicht drosseln magst und du auch sonst wegen Shootern die Grafik eh immer herunterdrehst, dann lohnt sich die 4090 für dich nicht.
 
Zudem ist der 10900er auch nicht soo schlecht, wenn es um Stromsparen geht, zumindest wenn man sich mit 100 FPS zufrieden gibt.
Mein 10900er schluckt in Cyberpunk z.b bis zu 150 Watt.

Ein 13900K hämmert im Idealfall so um die 20-30 % mehr FPS raus schluckt dafür auch gerne mal 300 Watt.
Hast du irgentein Beispiel wo ein 13900K beim Cyperpunk spielen auch nur näherungsweise an 300 Watt rankommt ?

Das wirst du ganz sicher nicht finden außer man läßt zusätzlich noch einen CPU Benchmark laufen, ansonsten sind schon 150 Watt im Gaming schon sehr schwer zu erreichen aber über 200 Watt habe ich bislang den 13900K noch in keinen Game gesehen.
 
du brauchst ein neuen Monitor: 1440p 360hz oder 4k 144hz
1440p + 4090 = du bist CPU limitiert außer vielleicht 13900K oder ryzen 7900/7950x
alle sollten hier lesen:



Wozu, ich bin mit meinem 100 FPS zufrieden, bin eh schon etwas älter und ob Spiele jetzt mit 100FPS oder 144 FPS laufen ist mir bums xD.
Ich finde es aber schön die Grafik auf 5K (DLSDR) zu haben, bzw. tolle knackige Texturen zu sehen, alle RTX Features zu nutzen, oder ein Kühles System zu haben.
Zudem die 4090 wirklich sehr sparsam sein kann. Ich brauche dank DLSDR und der Schärfen Funktion über Nvidia-Spielfilter jetzt auch nicht unbedingt einen 4K Monitor.

Mir reichen bei manchen Games aber auch die 3440p ganz gut.
 
ich habe vergessen hinzuzufügen....
MINDESTANFORDERUNGEN:
1440p: Intel 13th, Intel 12th, ryzen 7000
4k: Intel 13th, Intel 12th, Intel 11th, Ryzen 5000, Ryzen 7000


morgen bekomme ich den i9-12900ks.
 
Zuletzt bearbeitet:
wie kann es denn mit der 4090 schlechter laufen als mit der 3080 ? Zitat: "Destiny 2 läuft mit der RTX 4090 schlecher als mit der RTX 3080 bei gleicher Grafikeinstellung."
Wenn es nicht besser wird, je nach Game, ok. CPU Limit halt. Aber so wie der TE ja schreibt, wird es schlechter mit der 4090. Das kann dann doch kein CPU Limit sein ?!?
 
Deine Karte hat kein Problem, ich hab auch nen 10900er und kenne das Verhalten.
Ist halt CPU Limit, mich juggt das nicht weil mein Ultra-Wide nur 100 HZ kann, also hab ich auf 100 FPS gelockt, dass schaftt der 10900er in den meisten Fällen auch noch ohne Probleme.

Dafür begnügt sich dann die 4090 bei Ultra Details mit einem sehr geringen Stromverbrauch. Ich würde eh immer die FPS wenn es geht locken.
Du hast bei der 4090 einen Immensen Spielraum.

Ich bin mittlerweile so drauf, dass ich Spiele mit 5K via DLSDR zocke, zusätzlich habe ich meine Karte noch UV.
Meine Suprim schafft bei 0,89 mv die 2610 Mhz, bei 100% GPU-Last sind das max so ca ~270 Watt.

Zudem ist der 10900er auch nicht soo schlecht, wenn es um Stromsparen geht, zumindest wenn man sich mit 100 FPS zufrieden gibt.
Mein 10900er schluckt in Cyberpunk z.b bis zu 150 Watt.

Ein 13900K hämmert im Idealfall so um die 20-30 % mehr FPS raus schluckt dafür auch gerne mal 300 Watt.
Es sind schon mehr als 20-30%. Ich selber habe auch eine RTX 4090 und habe die CPU von 10900k auf 13900k getauscht. In CPU limitierten Spielen wie Far Cry 6 oder Cyberpunk mit ray tracing hatte man schon über 60% mehr fps mit der 13900k im vergleich zur 10900k.
 
ich fordere alle auf meinem Thread im Auge zu behalten, wo ich die Ergebnisse in 4k mit 12900ks veröffentlichen werde:-)
Screenshot 2022-11-17 105243.png

13900k darf nur 2% schneller als den 12900k sein, 12900ks kann bis zu 5.4ghz all-P-core übertakt werden. Abschluss: 12900ks = 13900k im Spielen
 
Hast du irgentein Beispiel wo ein 13900K beim Cyperpunk spielen auch nur näherungsweise an 300 Watt rankommt ?

Das wirst du ganz sicher nicht finden außer man läßt zusätzlich noch einen CPU Benchmark laufen, ansonsten sind schon 150 Watt im Gaming schon sehr schwer zu erreichen aber über 200 Watt habe ich bislang den 13900K noch in keinen Game gesehen.

Habs bei meinem Kumpel am System gesehen, der hat ne 4090 und ein 13900k, wenn du aus Vs Wohnung gehst auf den großen Platz vor dem Mega-Gebäude.
Hat sich die CPU dort 268 Watt genommen und die 360 AIO war am Durchdrehen. Kann aber natürlich sein es lief noch was im Hintergrund, bzw er hatte die Cores auf 5,4 Ghz gepinnt.

Ich fand das nur krank. 150 Watt in Cyberpunk sind okay, das nimmt sich der 10900 auch dort ab und zu.
 
wie kann es denn mit der 4090 schlechter laufen als mit der 3080 ? Zitat: "Destiny 2 läuft mit der RTX 4090 schlecher als mit der RTX 3080 bei gleicher Grafikeinstellung."
Wenn es nicht besser wird, je nach Game, ok. CPU Limit halt. Aber so wie der TE ja schreibt, wird es schlechter mit der 4090. Das kann dann doch kein CPU Limit sein ?!?
Ich habe es selber auch nicht geglaubt. Wenn ich die auflösungsskalierung auf 200% hochschraube dann geht der vram hoch und die gpu last steigt. Ansonsten läuft die 4090 nur max. 40% last bei gleichen fps wie 100%. Auf dem Mond map gehen die fps von 109 bis auf 80 fps runter. Im Charakter Menü komm ich auf über 500 fps. Ansonsten läuft die 3080er mit mehr fps auf dem Mond
 
Es sind schon mehr als 20-30%. Ich selber habe auch eine RTX 4090 und habe die CPU von 10900k auf 13900k getauscht. In CPU limitierten Spielen wie Far Cry 6 oder Cyberpunk mit ray tracing hatte man schon über 60% mehr fps mit der 13900k im vergleich zur 10900k.

RT mit DLSS aber?
Bzw. wenn ich MS Flight Simulator Spiele, mit DLSS3 und Frame-Generation dann schaffe ich z.b auch die ~100 FPS in Ultra bei 5K das reicht mir, dafür brauche ich noch keinen neuen Prozzi.
Aber ihr habt schon recht, eigl sollte die CPU gerade bei der 4090 dementsprechend stark sein, außer man spielt sowieso fast immer im GPU-Limit.
 
RT mit DLSS aber?
Bzw. wenn ich MS Flight Simulator Spiele, mit DLSS3 und Frame-Generation dann schaffe ich z.b auch die ~100 FPS in Ultra bei 5K das reicht mir, dafür brauche ich noch keinen neuen Prozzi.
Aber ihr habt schon recht, eigl sollte die CPU gerade bei der 4090 dementsprechend stark sein, außer man spielt sowieso fast immer im GPU-Limit.
5K 60? gibt es wirklich ein 5K 100hz Monitor?
es darf 77% schwerere als 4K sein. gut genug für die Karte aha
1668679297997.png
 
ich fordere alle auf meinem Thread im Auge zu behalten, wo ich die Ergebnisse in 4k mit 12900ks veröffentlichen werde:-)
Anhang anzeigen 817472
13900k darf nur 2% schneller als den 12900k sein, 12900ks kann bis zu 5.4ghz all-P-core übertakt werden. Abschluss: 12900ks = 13900k im Spielen
Ein cpu Vergleich im in einem gpu limit ist käse
Beitrag automatisch zusammengeführt:

Klassisches cpu limit.

13600k und mit ram tuning beschäftigen. Das ist aber nicht so einfach
 
Also SCHLECHTER als mit der 3080 vorher läuft bei mir nichts.
Es kommt öfter vor dass sich die 4090 dermaßen langweilt dass nicht einmal die Lüfter anspringen. Aber ich habe kein Ergebnis das schlechter ist als vorher.
 
Also SCHLECHTER als mit der 3080 vorher läuft bei mir nichts.
Es kommt öfter vor dass sich die 4090 dermaßen langweilt dass nicht einmal die Lüfter anspringen. Aber ich habe kein Ergebnis das schlechter ist als vorher.
ich hatte die Wahl um die 4090 zu stornieren aber am Ende habe ich für einen neuen CPU gewählt, ryzen 3000 ist schon zu alt
Beitrag automatisch zusammengeführt:

(12900ks da konnte es für 250€ weniger als 13900k finden)
 
wie kann es denn mit der 4090 schlechter laufen als mit der 3080 ? Zitat: "Destiny 2 läuft mit der RTX 4090 schlecher als mit der RTX 3080 bei gleicher Grafikeinstellung."
Wenn es nicht besser wird, je nach Game, ok. CPU Limit halt. Aber so wie der TE ja schreibt, wird es schlechter mit der 4090. Das kann dann doch kein CPU Limit sein ?!?
Vermutung:
Driver overhead

ich hatte die Wahl um die 4090 zu stornieren aber am Ende habe ich für einen neuen CPU gewählt, ryzen 3000 ist schon zu alt
Lies dir Mal die Basics an.
Ich denke da ist noch viel Luft nach oben wenn du wirklich gut dimensionierte PCs haben.

Am besten hier anfangen:
 
Was ich mir vorstellen könnte ist, dass DLSS das CPU Bottleneck noch verschärft, aber ich habe das bisher nicht einmal auf meinem 9900K gesehen.
Spiele aber auch kein Destiny 2
 
Was ist Driver overhead
Beitrag automatisch zusammengeführt:

Ich habe auch schon das Performance Windows 11 Update in Verdacht?

Win 11 patch könnte auch eine Ursache sein.
Das findest du nur raus wenn du exakt gleiche Systeme verwendest und immer nur eine Sache änderst und dann systematisch testest wann das Thema auftaucht.

 
ich kann ein Beispiel für euch hier vorstellen:
RTX 3080 4K, battlefield 2042, alles Hoch (nicht ultra), ohne RT: 110 fps
RTX 4090 4K, gleiche Einstellungen: 110 fps, weil die Karte darf 2x schneller sein.
GPU Verbrauch 60-65%. rund 770€ ins Klo (35% von 2200€)
Ein Typ auf YT hat 155 fps durchschnittlich erreicht mit alles Ultra, RT und DLSS Qualität. der CPU war ein 12900ks, die werde ich bekommen
 
Was ich mir vorstellen könnte ist, dass DLSS das CPU Bottleneck noch verschärft, aber ich habe das bisher nicht einmal auf meinem 9900K gesehen.
Spiele aber auch kein Destiny 2
Wenn ich den dsr Faktor nutze und auf die 5200 Auflösung wechsle hab ich auch die gleichen fps bei mehr gpu last
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh