RTX 4090 & I9 10900K FPS Problem

ich kann ein Beispiel für euch hier vorstellen:
RTX 3080 4K, battlefield 2042, alles Hoch (nicht ultra), ohne RT: 110 fps
RTX 4090 4K, gleiche Einstellungen: 110 fps, weil die Karte darf 2x schneller sein.
GPU Verbrauch 60-65%. rund 770€ ins Klo (35% von 2200€)
Ein Typ auf YT hat 155 fps durchschnittlich erreicht mit alles Ultra, RT und DLSS Qualität. der CPU war ein 12900ks, die werde ich bekommen
Ich würde vorschlagen weniger beliebige YouTube videos zu schauen, wenn man nicht weiß was man da sieht und was wie zusammenhängt.
Videos können genau so gut gefälscht sein, da hilft es wenn man das erkennen kann.

Ohne Plan zu haben irgendwelche Videos zu referenzieren und deren Ergebnissen nachzueifern ist in meiner Erfahrung ein sehr schlechtes Vorgehen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
RT mit DLSS aber?
Bzw. wenn ich MS Flight Simulator Spiele, mit DLSS3 und Frame-Generation dann schaffe ich z.b auch die ~100 FPS in Ultra bei 5K das reicht mir, dafür brauche ich noch keinen neuen Prozzi.
Aber ihr habt schon recht, eigl sollte die CPU gerade bei der 4090 dementsprechend stark sein, außer man spielt sowieso fast immer im GPU-Limit.
Ja meine Auflösung ist 5120x1440, da hat man ohne DLSS kein CPU Limit, die ~50fps schafft auch die 10900k, Allerdings schafft die 10900k in vielen Stellen mit viel RT Effekten auch nicht wirklich mehr als ~55 fps, hier schneidet die 13900k mit ~90 fps viel besser ab.
 
Moin!

Also ich nutze ebenfalls noch einen Core i9-10900K gemeinsam mit einer RTX 4090 und bin (knapp) nicht im CPU-Limit in meinen Spielen. Ich habe allerdings meinen RAM manuell getunt, Spannungen manuell angepasst und den Cache übertaktet. Das kann bei Comet Lake doch einiges an Leistung im CPU-Limit herauskitzeln - mehr Leistung, als nur den CPU-Kerntakt anzuheben. Ich weiß nicht, inwieweit Du Dich schon damit auseinandergesetzt hast, aber das würde ich noch als mögliche Option erachten! DDR4-4000 ist doch meiner Meinung nach sehr langsam für Comet Lake, insbesondere mit einem Z590-Board.

Ich nutze beispielsweise DDR4-4600 und das ist schon deutlich fixer als mein langsameres DDR4-4000 XMP-Profil:
1668684154838.png

Meist lasse ich die CPU sogar nur auf 5.0 GHz und den Cache auf 4.7 GHz bei 1.220V Vcore laufen, um den Verbrauch zu reduzieren, weil alleine das RAM-OC die 1% Lows merkbar (für mich genügend) anhebt. Probiere doch einfach mal DDR4-4400 oder DDR4-4533 aus. Das sollte schon einen merkbaren Boost geben.

Ich spiele allerdings auch nur mit ~100-140 FPS (Framelimit je nach Spiel individuell gesetzt). Wenn Du beispielsweise mit einem 240 Hz - WQHD-Monitor mit 200+ FPS spielen möchtest, dann könnte ein Platform-Upgrade schon sinnvoll sein. Das packt der Core i9-10900K dann meist nicht mehr, vor allem nicht in den P1-FPS.

Far Cry 6 und Destiny 2 besitze ich leider beide nicht, sonst würde ich es direkt mal testen. :/

Alleine wegen PCIe 3.0 auf 4.0 upzugraden, ergibt, wie von @EleCtricStream bereits angemerkt, absolut keinen Sinn, da man dadurch 1-2% mehr FPS rausholt. Das lohnt nicht, insbesondere nicht auf den versoffenen Rocket Lake zu gehen.

Wenn ich upgraden würde, dann auf Raptor Lake oder auf AM5 (auf den/die X3D-CPUs warten!).
 
danke für die Infos.


Destiny 2 ist auf Steam (Das Basisspiel) umsonst. Falls du Lust und Zeit hättest.
Mich würden die FPS im Turm und auf dem Mond (Da ist die größte FPS Last) auf deinen System interessieren
Danke schon mal im Voraus
 
Destiny 2 ist auf Steam (Das Basisspiel) umsonst. Falls du Lust und Zeit hättest.
In Ordnung. Wird aber erst morgen was. Das sind fast 93GB bei Steam downzuloaden. Das packe ich mit meiner Leitung mal nicht eben so. ^^

Du musst mir dann aber am besten noch sagen, wo ich genau hingehen soll (mit Screenshots am besten).
Dann kann ich mal Screenshots mit MSI AB/RTSS Overlay mit GPU- und CPU- Auslastung machen!
 
Ich habe schon einmal ein Beispiel, was mit OC so geht. Ich spiele ganz gerne mal "The Riftbreaker", welches ein relativ CPU-intensives Tower Defense Spiel ist: Dazu habe ich mal den integrierten CPU-Benchmark durchlaufen lassen in 1080p mit maximalen Settings inklusive Raytracing max.:
20221117134111_1.jpg
20221117133015_1.jpg

Stock (CPU Core & Ring @ 4.9GHz) + DDR4-4000, CL16-16-16-36 @ 1.4V VDIMM (XMP) | OC: CPU Core @ 5.3 GHz | CPU Ring @ 5.0 GHz + DDR4-4600, CL16-17-17-32 @ 1.59V VDIMM

Man findet in aktuellen CPU-Tests immer weniger Tester, die den Core i9-10900K noch mittesten (inklusive PCGH, Luxx und CB). Steve von Hardware Unboxed hat das aber beispielsweise bei ihrem letzten Core i9-13900K-Test noch getan:
The Riftbreaker.JPG

Alleine durch diesen einen Screenshot wird einem als Comet Lake Besitzer schon suggeriert, dass es Zeit ist upzugraden.

Also ich weiß nicht, was der gemacht hat, aber ich habe sogar in ultra und nicht in high getestet und bin mit meinem OC-Profil auf Core i9-12900K [D5-6400] bzw. Core i9-13900K [D4-3600]-Niveau. DDR4-3600 und DDR4-4000 können ja nicht so eine hohe FPS-Differenz ausmachen.

Wenn man sowieso nicht nach Herstellerspezifikation testet, was bei Comet Lake by the way DDR4-2933 ist, erschließt sich mir aber auch nicht, warum man dann DDR4-3600 wählt. Wahrscheinlich, weil man zu faul ist und/oder die Zeit fehlt, um für jede Platform adäquate RAM-Speeds auszuwählen. Wahrscheinlich lief es überall @ XMP und DDR4-4000 schaffen halt einige AM4-Platformen nicht, daher einfach DDR4-3600 pauschal für alle. Das wird insbesondere den Platformen wie Comet Lake nicht gerecht, die SEHR OC-freudig sind.
 
Zuletzt bearbeitet:
Ich habe schon einmal ein Beispiel, was mit OC so geht. Ich spiele ganz gerne mal "The Riftbreaker", welches ein relativ CPU-intensives Tower Defense Spiel ist: Dazu habe ich mal den integrierten CPU-Benchmark durchlaufen lassen in 1080p mit maximalen Settings inklusive Raytracing max.:
Anhang anzeigen 817537 Anhang anzeigen 817538
Stock (CPU Core & Ring @ 4.9GHz) + DDR4-4000, CL16-16-16-36 @ 1.4V VDIMM (XMP) | OC: CPU Core @ 5.3 GHz | CPU Ring @ 5.0 GHz + DDR4-4600, CL16-17-17-32 @ 1.59V VDIMM

Man findet in aktuellen CPU-Tests immer weniger Tester, die den Core i9-10900K noch mittesten (inklusive PCGH, Luxx und CB). Steve von Hardware Unboxed hat das aber beispielsweise bei ihrem letzten Core i9-13900K-Test noch getan:
Anhang anzeigen 817540
Alleine durch diesen einen Screenshot wird einem als Comet Lake Besitzer schon suggeriert, dass es Zeit ist upzugraden.

Also ich weiß nicht, was der gemacht hat, aber ich habe sogar in ultra und nicht in high getestet und bin mit meinem OC-Profil auf Core i9-12900K [D5-6400] bzw. Core i9-13900K [D4-3600]-Niveau. DDR4-3600 und DDR4-4000 können ja nicht so eine hohe FPS-Differenz ausmachen.
kannst du mir diesen Video schicken?
 
Kann ich machen.

Hier, bitte: "Der Video von diesen Screenshot":
 
Kann ich machen.

Hier, bitte: "Der Video von diesen Screenshot":
schade, der Typ hat nicht 4K getestet
 
Du meinst wohl eher: "Schade, der Typ hat nicht in 720p getestet." Das ist ein CPU-Test, kein GPU-Test.
das stimmt, aber brauche ich auch 4K Benchmarks.
niemand hat ryzen 3000 + 4090 getestet und hatte ich keine Chance zu bestimmen wie groß den Bottleneck ist, bis der Moment habe ich 2200€ ausgegeben!😡

Beitrag automatisch zusammengeführt:

es war nicht so eindeutig dass konnte ein 3950x die 4090 auf 4K limitieren.
die 3080 war tatsächlich 100% genutzt
 
Zuletzt bearbeitet:
CPUs sollte man im besten Falle im CPU-Limit testen. Welche Auflösung dafür herangezogen wird, ist erst einmal irrelevant. 720p hat sich halt mittlerweile als DIE CPU-Limit-Testauflösung etabliert - einfach deshalb, da sie meist ausreicht aktuelle Grafikkarten in (mordernen) Spielen nicht zu 100% auszulasten. Man könnte auch 360p oder 480p nehmen, vollkommen latte.

Die FPS, die Du einem CPU-Test entnehmen kannst, bringt die CPU in jeder Auflösung, auch in UHD, vorausgesetzt Deine verwendete GPU ist ausreichend stark genug nicht ins GPU-Limit reinzulaufen.

Daher ergibt das, was Du verlangst, keinen Sinn. Am besten wie von einigen am Anfang des Threads erörtert, noch einmal die Grundlagen anschauen, damit Du das Gesagte auch verstehst.
 
Ich habe schon einmal ein Beispiel, was mit OC so geht. Ich spiele ganz gerne mal "The Riftbreaker", welches ein relativ CPU-intensives Tower Defense Spiel ist: Dazu habe ich mal den integrierten CPU-Benchmark durchlaufen lassen in 1080p mit maximalen Settings inklusive Raytracing max.:

Stock (CPU Core & Ring @ 4.9GHz) + DDR4-4000, CL16-16-16-36 @ 1.4V VDIMM (XMP) | OC: CPU Core @ 5.3 GHz | CPU Ring @ 5.0 GHz + DDR4-4600, CL16-17-17-32 @ 1.59V VDIMM

Man findet in aktuellen CPU-Tests immer weniger Tester, die den Core i9-10900K noch mittesten (inklusive PCGH, Luxx und CB). Steve von Hardware Unboxed hat das aber beispielsweise bei ihrem letzten Core i9-13900K-Test noch getan:

Alleine durch diesen einen Screenshot wird einem als Comet Lake Besitzer schon suggeriert, dass es Zeit ist upzugraden.

Also ich weiß nicht, was der gemacht hat, aber ich habe sogar in ultra und nicht in high getestet und bin mit meinem OC-Profil auf Core i9-12900K [D5-6400] bzw. Core i9-13900K [D4-3600]-Niveau. DDR4-3600 und DDR4-4000 können ja nicht so eine hohe FPS-Differenz ausmachen.

Wenn man sowieso nicht nach Herstellerspezifikation testet, was bei Comet Lake by the way DDR4-2933 ist, erschließt sich mir aber auch nicht, warum man dann DDR4-3600 wählt. Wahrscheinlich, weil man zu faul ist und/oder die Zeit fehlt, um für jede Platform adäquate RAM-Speeds auszuwählen. Wahrscheinlich lief es überall @ XMP und DDR4-4000 schaffen halt einige AM4-Platformen nicht, daher einfach DDR4-3600 pauschal für alle. Das wird insbesondere den Platformen wie Comet Lake nicht gerecht, die SEHR OC-freudig sind.
Was genau möchtest du damit sagen? Hier würde ich eher davon ausgehen dass deine Messungen nicht mit den Messungen aus dem Video vergleichbar sind weil sie offenbar doch andere Einstellungen oder andere Szenen getestet haben.

Ich selber habe ja ein Upgrade von 10900k@5ghz mit ddr4 4533 CL19 gegen 13900k@5,6ghz ddr5 6400 CL32 durchzogen, der Leistungsunterschied ist etwa 60% bei Single Core, bei Multicore bis zu 100%. Ich halte also für eher ausgeschlossen dass deine 10900k nur durch den schnelleren Speicher an eine 12900k drankommt.
 
CPUs sollte man im besten Falle im CPU-Limit testen. Welche Auflösung dafür herangezogen wird, ist erst einmal irrelevant. 720p hat sich halt mittlerweile als DIE CPU-Limit-Testauflösung etabliert - einfach deshalb, da sie meist ausreicht aktuelle Grafikkarten in (mordernen) Spielen nicht zu 100% auszulasten. Man könnte auch 360p oder 480p nehmen, vollkommen latte.

Die FPS, die Du einem CPU-Test entnehmen kannst, bringt die CPU in jeder Auflösung, auch in UHD, vorausgesetzt Deine verwendete GPU ist ausreichend stark genug nicht ins GPU-Limit reinzulaufen.

Daher ergibt das, was Du verlangst, keinen Sinn. Am besten wie von einigen am Anfang des Threads erörtert, noch einmal die Grundlagen anschauen, damit Du das Gesagte auch verstehst.
hier haben sie 3950x, 5950x und 7950x getestet aber war die Karte eine 3090ti.
auf 4k die Unterschied zwischen diesen 3 CPU ist klein.
die Unterschied mit die 4090 ist so verdammt groß dass musste ich CPU wechseln!

 
Es gibt im Mindstar übrigends gerade den 13700K im Angebot
Nur für den Fall, und nen günstiges Arschrock Board gibts auch

 
Was genau möchtest du damit sagen
Dass Comet Lake im Vergleich zu anderen Platformen ein durchaus hohes OC-Potenzial hat - nach wie vor.

Hier würde ich eher davon ausgehen dass deine Messungen nicht mit den Messungen aus dem Video vergleichbar sind weil sie offenbar doch andere Einstellungen oder andere Szenen getestet haben.
Stimmt, denn ich habe statt "hohen" Settings "ultra" Settings verwendet, sprich sogar schlechtere Voraussetzungen. ;)
Die getestete Szene ist der Inbuilt CPU-Benchmark, keine Ingame-Szene, daher 1:1 reproduzierbar. Der Inbuilt CPU Benchmark ist auch extrem anspruchsvoll.

Ich selber habe ja ein Upgrade von 10900k@5ghz mit ddr4 4533 CL19 gegen 13900k@5,6ghz ddr5 6400 CL32 durchzogen, der Leistungsunterschied ist etwa 60% bei Single Core
DDR4-4533 CL19 finde ich jetzt nicht beeindruckend. Bei wieviel MHz lief der Cache? Subtimings angezogen? Was hattest Du da für eine Latenz? War das System stabil?

der Leistungsunterschied ist etwa 60% bei Single Core
Der IPC-Uplift ist natürlich da, deutlich sogar, aber keine 60%.
Sicher nicht ganz aktuell, aber Golden Cove ist nicht weit weg von Raptor Cove.

Es sei denn, Du beziehst Dich auf Cinebench und Co. Mich interessiert ausschließlich die Leistung in Spielen. Falls Du Dich auch auf Spiele beziehst, nenne doch gerne mal (mehrere) Beispiele. :)

bei Multicore bis zu 100%. Ich halte also für eher ausgeschlossen dass deine 10900k nur durch den schnelleren Speicher an eine 12900k drankommt.
Bei Cinebench, 3DMark und Co. kommt das sicher hin, das stimmt. In Spielen ist er getunt nicht weit weg.
 
hier haben sie 3950x, 5950x und 7950x getestet aber war die Karte eine 3090ti.
auf 4k die Unterschied zwischen diesen 3 CPU ist klein.
die Unterschied mit die 4090 ist so verdammt groß dass musste ich CPU wechseln!


Kleine Anmerkung, die Schriftgröße bei dir, mich triggert die Größe ungemein und iwie macht es aggro :fresse:
Es stört den Lesefluss. Vielleicht ist es bei dir aber nur auch ein Versehen... :-)
 
auf 4k die Unterschied zwischen diesen 3 CPU ist klein.
die Unterschied mit die 4090 ist so verdammt groß dass musste ich CPU wechseln!
Nochmal: Die Leistung der CPU in der kleinsten getesteten Auflösung (im Video 1080p) anschauen. Dann weißt Du doch, wie die Leistung in UHD ist, wenn Deine GPU mindestens die gleichen FPS liefern kann.

Wenn Dir das nicht reicht: Upgrade.
Wenn es reicht: kein Upgrade - unabhängig davon, ob Deine GPU noch Reserven hat oder nicht
Beitrag automatisch zusammengeführt:

Dann hast du CPU Limit, Grafikkarten Auslastung 20% oder so.
Ja genau. Wir wollen ja wissen, wieviel FPS die CPU im Limit noch ausspuckt. Ich kann sicher auch auf 1080p oder gar 1440p gehen mit der 4090. Werde ich sehen.
 
Dass Comet Lake im Vergleich zu anderen Platformen ein durchaus hohes OC-Potenzial hat - nach wie vor.


Stimmt, denn ich habe statt "hohen" Settings "ultra" Settings verwendet, sprich sogar schlechtere Voraussetzungen. ;)
Die getestete Szene ist der Inbuilt CPU-Benchmark, keine Ingame-Szene, daher 1:1 reproduzierbar. Der Inbuilt CPU Benchmark ist auch extrem anspruchsvoll.


DDR4-4533 CL19 finde ich jetzt nicht beeindruckend. Bei wieviel MHz lief der Cache? Subtimings angezogen? Was hattest Du da für eine Latenz? War das System stabil?


Der IPC-Uplift ist natürlich da, deutlich sogar, aber keine 60%.
Sicher nicht ganz aktuell, aber Golden Cove ist nicht weit weg von Raptor Cove.

Es sei denn, Du beziehst Dich auf Cinebench und Co. Mich interessiert ausschließlich die Leistung in Spielen. Falls Du Dich auch auf Spiele beziehst, nenne doch gerne mal (mehrere) Beispiele. :)


Bei Cinebench, 3DMark und Co. kommt das sicher hin, das stimmt. In Spielen ist er getunt nicht weit weg.
Subtimings waren bei mir damals nicht optimiert, war auf auto. Der Speicher war also nicht das maximum was ging, aber realistisch holt man mit noch schnellerem RAM keine Leistungssprünge raus, die im zweistelligen Bereich liegen. Zudem hat ja meine jetztige 13900k auch nicht das maximum an Speicherperformance was geht, somit passt der Vergleich schon ganz gut.

Getestet habe ich Spiele wie Far Cry 6: 73fps gegen 123 fps, Cyberpunk 57 fps zu 90 fps. Muss am ende jeder für sich entscheiden, meine Erfahrung war dass mit der RTX 4090 die 10900k sehr oft sehr deutlich limitiert hat, ein Upgrade auf 13900k hat sich also bei mir gelohnt.
 
Zudem hat ja meine jetztige 13900k auch nicht das maximum an Speicherperformance was geht, somit passt der Vergleich schon ganz gut.
Das stimmt. Den kann man natürlich auch noch übertakten. :)

Getestet habe ich Spiele wie Far Cry 6: 73fps gegen 123 fps, Cyberpunk 57 fps zu 90 fps
Alles klar. Da bist Du aber auch eher bei roundabout 40% Unterschied. Ich habe beide Spiele aktuell nicht auf der Platte, sonst würde ich bei mir mal schauen. Bei Far Cry 6 hatte ich im Inbuilt Benchmark aber definitiv auch über 100 FPS. Da bin ich mir ganz sicher.

meine Erfahrung war dass mit der RTX 4090 die 10900k sehr oft sehr deutlich limitiert hat, ein Upgrade auf 13900k hat sich also bei mir gelohnt.
Hmmm, deckt sich nicht mit meiner Erfahrung. Ich spiele aber eben auch nur in UHD und 3840x1600 bei maximal 140 FPS und bin dort nicht limitiert.

Ist doch aber gut, dass es sich für Dich gelohnt hat. Das ist ja der Sinn eines Upgrades. :)
Beitrag automatisch zusammengeführt:

aber realistisch holt man mit noch schnellerem RAM keine Leistungssprünge raus, die im zweistelligen Bereich liegen
10-15% können je nach Szenario schon drin sein. Kommt halt drauf an, was man vergleicht.
 
Es gibt im Mindstar übrigends gerade den 13700K im Angebot
Nur für den Fall, und nen günstiges Arschrock Board gibts auch

WOW 149€ für ein Z790M board das ist wirklich mal ein Hammerpreis
 
WOW 149€ für ein Z790M board das ist wirklich mal ein Hammerpreis
Und es gibt sogar noch ein Spiel (Call of Duty®: Modern Warfare® II) dazu :)

13700K für 460 Euro + 150 Euro, das Board mit DDR4, und Call of Duty.
Ist doch das super Umrüstungsspaket :bigok:
 
Zuletzt bearbeitet:
Das stimmt. Den kann man natürlich auch noch übertakten. :)


Alles klar. Da bist Du aber auch eher bei roundabout 40% Unterschied. Ich habe beide Spiele aktuell nicht auf der Platte, sonst würde ich bei mir mal schauen. Bei Far Cry 6 hatte ich im Inbuilt Benchmark aber definitiv auch über 100 FPS. Da bin ich mir ganz sicher.


Hmmm, deckt sich nicht mit meiner Erfahrung. Ich spiele aber eben auch nur in UHD und 3840x1600 bei maximal 140 FPS und bin dort nicht limitiert.

Ist doch aber gut, dass es sich für Dich gelohnt hat. Das ist ja der Sinn eines Upgrades. :)
Beitrag automatisch zusammengeführt:


10-15% können je nach Szenario schon drin sein. Kommt halt drauf an, was man vergleicht.
Meine Auflösung ist 5120x1440, also etwas unter fhd, mein Problem war eher dass die CPU grundsätzlich in Szenen wie Far Cry 6 Dörfer (~70 fps), Cyberpunk RT lastige Stellen, Plague Tale Requiem Stadt (~55fps) nicht so viel fps erreicht. Kommt aber auch darauf an was für Spiele für dich relevant sind, vielleicht schaffst du da wo für dich relevant ist genug fps. Wenn man rein cpu limitierte Einstellungen (z.b. 720p Auflösung) anschaut, kommt man aber eher auf 50-70% Unterscheid in meinem Vergleich.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh