RTX 4090 & I9 10900K FPS Problem

Das ist echt gut!
Beitrag automatisch zusammengeführt:

Kommt aber auch darauf an was für Spiele für dich relevant sind, vielleicht schaffst du da wo für dich relevant ist genug fps
Die 3 Spiele sind für mich schon auch relevant, aber CP2077 und A Plague Tale: Requiem habe ich noch nicht gekauft, Far Cry 6 aktuell nicht auf der Platte. Daher kann ich dazu weiter nichts sagen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@HwLover
Beitrag #24, dort den Link lesen und verstehen.
 
Immer noch falsch. Die Antwort auf deine Fragen bringt dir kein 4k test.
ich spiele auf 4k, 1080p Daten über neueren CPUs helfen mir nicht wenn die Frage ist: wird meiner CPU von Ende 2019 die neue GPU auf 4k limitieren?


ich verstehe nicht was ist falsch in meiner Meinung
 
ich spiele auf 4k, 1080p Daten über neueren CPUs helfen mir nicht wenn die Frage ist: wird meiner CPU von Ende 2019 die neue GPU auf 4k limitieren?
Ganz einfach, die CPU, die in 720 oder 1080p die schnellste ist, ist auch in 4k immer noch die schnellste, und wird deshalb am wenigsten limitieren.
 
Moin, kurze Frage:

Also ist es völlig sinnfrei mit meiner i9-9900k CPU auf einem Hero XI Board eine 4090 oder 4080 zu stecken? 🙁

Mal eben 4000€ für einen neuen PC nur um zocken qualitativ zu verbessern ist echt... :poop:
 
ich spiele auf 4k, 1080p Daten über neueren CPUs helfen mir nicht wenn die Frage ist: wird meiner CPU von Ende 2019 die neue GPU auf 4k limitieren?


ich verstehe nicht was ist falsch in meiner Meinung
Lies den Link, verstehe den Link.
Oder lass es, mach was du willst, aber geh uns nicht mit deinem Quatsch auf den Keks.

@chris70
Anforderungen definieren: welche Auflösung, welche Anwendung, wieviele FPS.
Dann Link in Beitrag #24 lesen.

Abschnitt 4 beachten:
CPU Limit und GPU Limit herausfinden mit dem System das du hast.
Und wenn du das hast, kannst du weiter überlegen welches Upgrade lohnt.
 
Ganz einfach, die CPU, die in 720 oder 1080p die schnellste ist, ist auch in 4k immer noch die schnellste, und wird deshalb am wenigsten limitieren.
nach diesem Prinzip, wenn ich sehe +15% FPS mit einem neuem CPU auf den 1080p Benchmark, dann muss ich diesen neuen CPU kaufen.
vielleicht in Realität auf 4K gibt nur 2% Unterschied aber konnte das Benchmark nicht mir das zeigen. Ergebnis: Geldverschwendung.
das ist warum die Tests müssen auf jeder Auflösung durchgeführt werden.
Beitrag automatisch zusammengeführt:

Lies den Link, verstehe den Link.
Oder lass es, mach was du willst, aber geh uns nicht mit deinem Quatsch auf den Keks.

@chris70
Anforderungen definieren: welche Auflösung, welche Anwendung, wieviele FPS.
Dann Link in Beitrag #24 lesen.

Abschnitt 4 beachten:
CPU Limit und GPU Limit herausfinden mit dem System das du hast.
Und wenn du das hast, kannst du weiter überlegen welches Upgrade lohnt.
ja, es ist besser das Thema zu aufgeben
ich bin auf jedem Fall zufrieden
 
nach diesem Prinzip, wenn ich sehe +15% FPS mit einem neuem CPU auf den Benchmark, dann muss ich diesen neuen CPU kaufen.
vielleicht in Realität auf 4K gibt nur 2% Unterschied. Ergebnis: Geldverschwendung.
das ist warum die Tests müssen auf jeder Auflösung durchgeführt werden.
Quatsch. Einfach Quatsch.
 
ok ich war zu langsam es zu schreiben:
ja, es ist besser das Thema zu aufgeben
ich bin auf jedem Fall zufrieden
 
nach diesem Prinzip, wenn ich sehe +15% FPS mit einem neuem CPU auf den Benchmark, dann muss ich diesen neuen CPU kaufen.
Nein, musst Du nicht. Der Fokus sollte darauf liegen, ob meine FPS-Anforderungen in Spiel X erfüllt werden. Wenn einem beispielsweise 120 FPS in Spiel X reichen, meine derzeitige CPU bereits diese Anforderung stemmt, dann brauche ich nicht upugraden, jedenfalls nicht aus diesem Grund.
 
In Ordnung. Wird aber erst morgen was. Das sind fast 93GB bei Steam downzuloaden. Das packe ich mit meiner Leitung mal nicht eben so. ^^

Du musst mir dann aber am besten noch sagen, wo ich genau hingehen soll (mit Screenshots am besten).
Dann kann ich mal Screenshots mit MSI AB/RTSS Overlay mit GPU- und CPU- Auslastung machen!
Hallo, anbei die Destiny 2 Bilder der Grafikeinstellungen und Orte wo ich die FPS gemessen habe:
 

Anhänge

  • tiger_release_final_20221117_164547.jpg
    tiger_release_final_20221117_164547.jpg
    104 KB · Aufrufe: 85
  • tiger_release_final_20221117_164553.jpg
    tiger_release_final_20221117_164553.jpg
    131,8 KB · Aufrufe: 83
  • tiger_release_final_20221117_164557.jpg
    tiger_release_final_20221117_164557.jpg
    138,4 KB · Aufrufe: 76
  • tiger_release_final_20221117_164914.jpg
    tiger_release_final_20221117_164914.jpg
    363,3 KB · Aufrufe: 87
  • tiger_release_final_20221117_165008.jpg
    tiger_release_final_20221117_165008.jpg
    403,9 KB · Aufrufe: 92
  • tiger_release_final_20221117_165122.jpg
    tiger_release_final_20221117_165122.jpg
    426,1 KB · Aufrufe: 86
  • tiger_release_final_20221117_165306.jpg
    tiger_release_final_20221117_165306.jpg
    294,3 KB · Aufrufe: 98
  • tiger_release_final_20221117_165401.jpg
    tiger_release_final_20221117_165401.jpg
    543,3 KB · Aufrufe: 86
Also ich kann zumindest für mich sagen der 10900K 5 GHZ mit 4000er C19 B-Die Ramkit läuft für 4K 144 HZ ziemlich gut mit der RTX 4090.
Habe die Karte an Release gekauft und gut 4 Wochen im Rechner.

Hier mal aktuelle Ergebnisse in Timespy Extreme und Timespy normal.
Bei Timespy normal ist ein CPU Limit vorhanden , aber das Ergebnis ist dennoch ganz ordentlich.
Der Treiber wurde nicht modifiziert um bessere Ergebnisse zu haben.



So in CP 2077 ist kein CPU Limit vorhanden und GPU voll ausgelastet. 420 Watt Verbrauch @ Stock.
4K DLSS Qualität @ max. RT Ultra = 70-80 FPS etwa in der Stadt.
Bei DLSS Performance stiegen die FPS auf 120 FPS und GPU voll ausgelastet.
Kann man jetzt wirklich brauchbar zocken gegenüber RTX 3090.

Bei BF2042 ist das FPS limit bei 138 bei mir und wird meistens erreicht.
Portal Maps meistens schon aber auch im GPU Limit.
Bf2042 Maps haut die Map Ausrangiert an manchen stellen der Map ordentlich auf die GPU .
CPU limit kann vorkommen , wenn extrem viel los ist und die FPS fallen dann mal auf 115 kurz ab , obwohl die GPU nicht voll ausgelastet.
Bei Manifest oben auf dem Berg öfters festgestellt. Bisher aber nur im Conquest mit 128 Spieler.

Dying Light 1 the Following DLC durchgezockt (30 Stunden Spielzeit) mit der 4090 immer konstant 144FPS (framelimit)
Sieht echt schick aus das Game mit Auto HDR und max. Setting für das Alter.

PUBG lief bis gestern hervorragend @ 4K max. setting und 141 FPS Framelimit ohne Einbrüche.
Seit gestern war ein Update von PUBG und NZXT Cam Software zuvor glaube auch für Windows 22H2 und nun
nach 10 min. Gaming massive Einbrüche bis auf 20 FPS runter und wieder hoch auf 141 FPS und wieder runter in dauerschleife.
Keine Ahnung was das Game nun hat ich habe es runtergeschmissen und kein bock nach Fehlersuche mehr.
Takt blieb stabil und Temps im grünen , aber Leistungsaufnahme sank mit den FPS .
Alle anderen Games nach wie vor Fehlerfrei.

So ein Spiel wo ich nicht viel gezockt habe , aber mal getestet habe ist Ready or Not @ DX12 und DX 11 @ max. Setting @ 4K und DLSS/FSR etc. aus und da habe ich CPU Limit.
40% GPU Auslastung und FPS wecheln von 110-138 FPS (limit) je nach Situation. Vielleicht muss da noch optimiert werden. Meine da war ich insgesamt mit der 3090 besser dran.

Ansonsten Left 4 Dead 2 gespielt und Dead by Daylight , aber klar die Spiele haben keine Anforderungen , aber laufen Problemlos.
Also DX 9 Titel wie L4D 2 laufen auch Fehlerfrei.

Joa sehe auch kein Probem mit PCI E 3.0 und habe den Bandbreitenverbrauch im Gaming mit im Overlay von AB integriert und die ist meistens bei 15% von der max. PCI E 3.0 Bandbreite.
Ich denke das passt mit 1-2% Leistungsverlust den man aber vernachlässigen kann im Alltag.
Ich selber möchte upgraden mit Meteorlake und sehe da kein Problem mit der z490 Plattform , weil hatte sonst keine Bugs und Fehler wie Blackscreen beim booten oder
spontane rebbots beim surfen oder Video schauen. Habe auch Netflix und Amazon Prime viel am PC geschaut und auch HDR Inhalte via Netflix oder Edge Browser und das läuft auch bestens alles.
Da haben andere auf den neuen Plattformen wohl deutlich mehr Probleme und daher tuts für mich auch erstmal die z490 Plattform weiterhin.
Wer natürlich mehr als 144 FPS anpeilt braucht dann ggf. schon eine neue CPU , aber für 4K Gaming passt das Verhältnis noch soweit meiner Meinung nach.
 
Zuletzt bearbeitet:
Mittlerweile hab ich Far Cry 6 + Hellblade + Destiny 2 nocheinmal getestet
Ich habe die Grafikeinstellungen bei allen Spielen auf MAX eingestellt und bin begeistert.
Ich erreichte zwar bei Far Cry 6 und Hellblade keine 144 FPS aber dafür sieht es geil aus 8-)
Destiny 2 hab ich sogar auf 5160x2160 am laufen, kein Verlust an FPS und es sieht hammer aus
Ich werde die RTX4090 behalten 😻
 
Hallo, anbei die Destiny 2 Bilder der Grafikeinstellungen und Orte wo ich die FPS gemessen habe:
Danke Dir, ich teste das morgen im Laufe des Tages. :)
Beitrag automatisch zusammengeführt:

Mittlerweile hab ich Far Cry 6 + Hellblade + Destiny 2 nocheinmal getestet
Ich habe die Grafikeinstellungen bei allen Spielen auf MAX eingestellt und bin begeistert.
Ich erreichte zwar bei Far Cry 6 und Hellblade keine 144 FPS aber dafür sieht es geil aus 8-)
Destiny 2 hab ich sogar auf 5160x2160 am laufen, kein Verlust an FPS und es sieht hammer aus
Ich werde die RTX4090 behalten 😻
Na dann passt das doch! Letztlich ist das Entscheidende, dass das Spielgefühl für dich passt und Du auch keine nennenswerten Einbrüche hast, die dich rausreißen. Wenn man die FPS auch einmal ausblendet und nicht immer störrisch auf den Counter schaut, dann kann das auch sehr heilsam sein. Gerade in Shootern ist ja Skill letztlich immer noch wichtiger als den letzten Frame rausquetschen zu wollen. :)
 
Moin, kurze Frage:

Also ist es völlig sinnfrei mit meiner i9-9900k CPU auf einem Hero XI Board eine 4090 oder 4080 zu stecken? 🙁

Mal eben 4000€ für einen neuen PC nur um zocken qualitativ zu verbessern ist echt... :poop:
ich hatte mir mehr versprochen, als ich nach der 4090 noch ein neues board (z790), einen neuen prozessor (13700k), einen weiteren (dritten) 360er radiator und ein paar neue lüfter für selbigen gekauft und eingebaut hatte. eine woche bastelspaß, temperaturgefummel, windows neugemacht, benchmarkerei, bisschen gespielt und mit gearbeitet.. und dann habe ich meine 1100€ vermisst. in spielen und grafiklastigen benchmarks geht der unterschied gegen null. zumindest unter 4k auf meinem 120hz oled, also in meiner einstellung.
der 13er intel war einfach nur gierig und heiss und superschnell in synthies.. gut dass cinebench kein spiel ist, denn ich habe den neuen wieder zu geld gemacht und den alten behalten.. bis es was wirklich neues von intel gibt, komme ich damit super zurecht.


3dmswxmdps.jpg







(..)

mfg
tobi
 
Ich selber möchte upgraden mit Meteorlake
Ich glaube, dass es sogar Sinn ergeben könnte noch eine Platform länger zu warten (auf Arrow Lake). Wenn man den neuestem Leak von Moore's Law is Dead Glauben schenken darf, dann wird Arrow Lake wohl ein sehr signifikante IPC-Steigerung mit sich bringen (noch stärker als Meteor Lake):
1668705588819.jpeg

Quelle:
Meteor Lake und Arrow Lake sollen wohl jetzt nach den allerneuesten Gerüchten zufolge beide im Jahre 2024 erscheinen (nicht mehr so wie auf dieser Folie) und nächstes Jahr soll erstmal noch ein Raptor Lake Refresh erfolgen.
Beitrag automatisch zusammengeführt:

ich hatte mir mehr versprochen, als ich nach der 4090 noch ein neues board (z790), einen neuen prozessor (13700k), einen weiteren (dritten) 360er radiator und ein paar neue lüfter für selbigen gekauft und eingebaut hatte. eine woche bastelspaß, temperaturgefummel, windows neugemacht, benchmarkerei, bisschen gespielt und mit gearbeitet.. und dann habe ich meine 1100€ vermisst. in spielen und grafiklastigen benchmarks geht der unterschied gegen null. zumindest unter 4k auf meinem 120hz oled, also in meiner einstellung.
der 13er intel war einfach nur gierig und heiss und superschnell in synthies.. gut dass cinebench kein spiel ist, denn ich habe den neuen wieder zu geld gemacht und den alten behalten.. bis es was wirklich neues von intel gibt, komme ich damit super zurecht.


3dmswxmdps.jpg







(..)

mfg
tobi
Speed Way legt doch die Auslastung quasi fast ausschließlich auf die GPU, oder? Die 57 Punkte mehr könnten demzufolge nur vom PCIe 3.0 auf PCIe 4.0 Upgrade kommen. ^^
Beitrag automatisch zusammengeführt:

Hier mal aktuelle Ergebnisse in Timespy Extreme und Timespy normal.
Bei Timespy normal ist ein CPU Limit vorhanden , aber das Ergebnis ist dennoch ganz ordentlich.
Der Treiber wurde nicht modifiziert um bessere Ergebnisse zu haben.

Ich habe die beiden bei mir auch mal durchlaufen lassen mit dem 10900K:
Beim TSE laufe ich halt ins PL wegen 450W-BIOS (Dreizack).

ebenfalls unmodifizierter Treiber
 
Zuletzt bearbeitet:
CPU ist mit DHL unterwegs. ich hoffe Morgen ist der Tag
 
Habs bei meinem Kumpel am System gesehen, der hat ne 4090 und ein 13900k, wenn du aus Vs Wohnung gehst auf den großen Platz vor dem Mega-Gebäude.
Hat sich die CPU dort 268 Watt genommen und die 360 AIO war am Durchdrehen. Kann aber natürlich sein es lief noch was im Hintergrund, bzw er hatte die Cores auf 5,4 Ghz gepinnt.
Mein 13900K chillt in Cyberpunk mit ca. 140-160W maximal. Ich habe meine Werte immer angezeigt nebenbei und abgesehen von kleinen Spikes während Ladebildschirmen hat der 13900K während des Zockens nicht einmal auch nur annähernd die 200W erreicht. In den meisten Spielen liegt der sogar bei 130 - 140W. Da stimmt dann was nicht bei deinem Kumpel bzw. es muss etwas im Hintergrund extrem die CPU ausgelastet haben. Die Temps in Spielen liegen bei mir auch nur um die 50-60°C maximal mit 360iger AIO.
 
Die Karte hat kein Problem. Du hängst im CPU Limit.
Die Grafikkarte kann nur bei Grafiklast eine Verbesserung bringen. Und das ist das was du siehst: alles schöner machen ohne Speedverlust.

Wenn du von 144 auf 360 fps willst, dann muss dein Unterbau mithalten können und da vermute ich dass da bei dir Ende im Gelände ist. Ich hab ja auch so ein Thema. Bei mir isses genauso.
Wurdest du sagen fehlkauf? Habe auch den 9900 und mochte auf 4080 gehen .
 
Also ich hab gestern bei dem tollen mindstar Angebot echt mit mir gerungen. Werde aber mal den neuen X3D von AMD abwarten. Wenn der nicht so viel säuft und in Spielen schneller ist als der Intel. Wäre das noch ne Option
 
Mein 13900K chillt in Cyberpunk mit ca. 140-160W maximal. Ich habe meine Werte immer angezeigt nebenbei und abgesehen von kleinen Spikes während Ladebildschirmen hat der 13900K während des Zockens nicht einmal auch nur annähernd die 200W erreicht. In den meisten Spielen liegt der sogar bei 130 - 140W. Da stimmt dann was nicht bei deinem Kumpel bzw. es muss etwas im Hintergrund extrem die CPU ausgelastet haben. Die Temps in Spielen liegen bei mir auch nur um die 50-60°C maximal mit 360iger AIO.
Hast Du die Vcore angefasst oder läuft der komplett Stock?

Ansonsten mal probiert die CPU bei 125W oder 150W im BIOS festzutackern? Ich könnte mir vorstellen, dass man da kaum Performance verliert.

Ansonsten sind die Temperaturen ja echt gut. Mit oder ohne Contact Frame?
 
Wurdest du sagen fehlkauf? Habe auch den 9900 und mochte auf 4080 gehen .
Da muss ich wie ein Anwalt antworten: "es kommt darauf an"

Ich wusste was passieren wird und ich habe ohnehin vor CPU, Mainboard und Speicher auf absehbare Zeit aufzurüsten. Von daher ist es für mich kein Fehlkauf.
Wenn du jetzt einen Grafik-Fetisch hast und ständig in 4K mit quasi allen Reglern am rechten Anschlag (also alles maxed out) spielen willst, dann ist es sicherlich auch kein Fehlkauf. Oder wenn du zum Beispiel mit VR liebäugelst und da möglichst hohe FPS haben willst. Dann passt es auch wieder.

Wenn du dir aber versprichst, dass dir die Grafikkarte allein immer und überall einen Leistungsboost geben soll, DANN wird es ein Fehlkauf. Einfach weil die Grafikkarte nur das beschleunigen kann wofür sie da ist und das ist Last auf die Grafikkarte (also Grafikelemente die von der Grafikkarte beschleunigt werden). Sobald du von irgendwas anderem eingebremst wirst, weil z.B. deine CPU am Ende ihrer Leistungsfähigkeit angekommen ist, dann hilft dir das einfach nichts mehr. Spiele brauchen einfach Leistung von allem und das schwächste Glied in der Kette bestimmt die FPS die du siehst. Unter den Umständen kann es einfach ein Fehlkauf werden. Ich hoffe du verstehst was ich sagen will(?)
 
Hallo, anbei die Destiny 2 Bilder der Grafikeinstellungen und Orte wo ich die FPS gemessen habe:
Moin, also ich habe es jetzt gestartet und Destiny 2 ist das erste Spiel, was mir begegnet ist, wo RTSS nicht funktioniert. Normalerweise spiele ich nämlich, wenn ich meine Auslastung beobachten will, immer mit folgendem Overlay:
1668757517304.png

Jetzt habe ich mal recherchiert, dass Destiny 2 wohl durch die implementierte Anti-Cheat-Engine jegliche Overlays verbietet. Das finde ich ja schon einmal ziemlich nervig. Daher kann ich Dir leider nicht sagen, ob ich im CPU- oder im GPU-Limit bin, weil ich es schlicht und ergreifend nicht nachvollziehen kann. Der kleine Counter in der rechten oberen Ecke ist also alles was einem bleibt.

Ich kann Dir aber sagen, dass ich jetzt mal den Prolog kurz durchgezockt habe als Titan und mit exakt Deinen Einstellungen gespielt habe (nur die Auflösung war anders: 3840x1600, also leicht höher).:
1668757687292.jpeg

Ich habe den Counter beobachtet und hatte immer zwischen 270 und 300 FPS mit den Settings, weiß nun aber halt nicht, ob die CPU oder die GPU dicht gemacht hat. Das Spielgefühl war aber absolut smooth und ausreichend.

Turm und Mond sind bei mir allerdings ausgegraut:
1668757772808.jpeg

Da komme ich also nicht hin (muss man wahrscheinlich erstmal Spielfortschritt erzielen). Dafür habe ich dann leider keine Zeit und keinen Nerv, sorry.

Ich weiß jetzt nicht, inwiefern Dir das hilft. Ohne Overlay ist das halt ziemlich lame. ^^
 
Moin, also ich habe es jetzt gestartet und Destiny 2 ist das erste Spiel, was mir begegnet ist, wo RTSS nicht funktioniert. Normalerweise spiele ich nämlich, wenn ich meine Auslastung beobachten will, immer mit folgendem Overlay:
Anhang anzeigen 817778
Jetzt habe ich mal recherchiert, dass Destiny 2 wohl durch die implementierte Anti-Cheat-Engine jegliche Overlays verbietet. Das finde ich ja schon einmal ziemlich nervig. Daher kann ich Dir leider nicht sagen, ob ich im CPU- oder im GPU-Limit bin, weil ich es schlicht und ergreifend nicht nachvollziehen kann. Der kleine Counter in der rechten oberen Ecke ist also alles was einem bleibt.

Ich kann Dir aber sagen, dass ich jetzt mal den Prolog kurz durchgezockt habe als Titan und mit exakt Deinen Einstellungen gespielt habe (nur die Auflösung war anders: 3840x1600, also leicht höher).:
Anhang anzeigen 817779
Ich habe den Counter beobachtet und hatte immer zwischen 270 und 300 FPS mit den Settings, weiß nun aber halt nicht, ob die CPU oder die GPU dicht gemacht hat. Das Spielgefühl war aber absolut smooth und ausreichend.

Turm und Mond sind bei mir allerdings ausgegraut:
Anhang anzeigen 817780
Da komme ich also nicht hin (muss man wahrscheinlich erstmal Spielfortschritt erzielen). Dafür habe ich dann leider keine Zeit und keinen Nerv, sorry.

Ich weiß jetzt nicht, inwiefern Dir das hilft. Ohne Overlay ist das halt ziemlich lame. ^^
Danke dir für deine Zeit. 270 bis 300 fps sind schon viel mehr als ich erreiche, da wo du dich auf der map befindest. Oder war es im Menü?

Grüße
 
@drival0605 funktioniert auch das Nvidia eigene Overlay aus dem GFE nicht? Im Endeffekt müsstest du ja nur die Auslastung der Grafikkarte in Prozent wissen. Oder kannst du dir die RTSS Werte in ein Log schreiben lassen? Dann hättest du auch wieder die notwendige Info.
 
@drival0605 funktioniert auch das Nvidia eigene Overlay aus dem GFE nicht? Im Endeffekt müsstest du ja nur die Auslastung der Grafikkarte in Prozent wissen. Oder kannst du dir die RTSS Werte in ein Log schreiben lassen? Dann hättest du auch wieder die notwendige Info.
Ich nehme die gpu Werte aus gpu-z raus.
 
Gut. GPU-Z kann definitiv im Hintergrund in ein Log reinschreiben. Damit siehst du ja in welchem Limit du hängst.
 
Danke dir für deine Zeit. 270 bis 300 fps sind schon viel mehr als ich erreiche, da wo du dich auf der map befindest. Oder war es im Menü?
Das war Ingame!
Beitrag automatisch zusammengeführt:

funktioniert auch das Nvidia eigene Overlay aus dem GFE nicht?
GeForce Experience habe ich nicht installiert. Ich versuche immer jegliche zusätzliche (für mich unnötige) Software zu meiden. Ich habe nur den puren Grafikkartentreiber installiert, sonst nichts.
Beitrag automatisch zusammengeführt:

Gut. GPU-Z kann definitiv im Hintergrund in ein Log reinschreiben. Damit siehst du ja in welchem Limit du hängst.
GPU-Z lief leider nicht mit und ich habe das Spiel auch direkt wieder von der Platte geschmissen. :/
Beitrag automatisch zusammengeführt:

@AkokKiller
Nutzt Du eigentlich Hyperthreading? Ich habe bei mir die Erfahrung gemacht, dass es ohne HT (also nur 10C/10T) im Großen und Ganzen geschmeidiger läuft. Da habe ich eine bessere Latenz und höhere P1-FPS.
 
Zuletzt bearbeitet:
Das war Ingame!
Beitrag automatisch zusammengeführt:


GeForce Experience habe ich nicht installiert. Ich versuche immer jegliche zusätzliche (für mich unnötige) Software zu meiden. Ich habe nur den puren Grafikkartentreiber installiert, sonst nichts.
Beitrag automatisch zusammengeführt:


GPU-Z lief leider nicht mit und ich habe das Spiel auch direkt wieder von der Platte geschmissen. :/
Beitrag automatisch zusammengeführt:

@AkokKiller
Nutzt Du eigentlich Hyperthreading? Ich habe bei mir die Erfahrung gemacht, dass es ohne HT (also nur 10C/10T) im Großen und Ganzen geschmeidiger läuft. Da habe ich eine bessere Latenz und höhere P1-FPS.
Ich habe die Einstellung im BIOS nie geändert
Wie schalte ich es aus Im msi bios?

Hab mir heute ddr4 4400 bestellt. Mal gucken wieviel Luft ich noch nach oben habe
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh