Zu geringe CPU-Auslastung in Spielen bei guten FPS

Hab ich auch mal drüber nachgedacht und überprüft. EXPO ist aber aktiviert, ist doch die AMD-Version vom XMP-Profil, oder?

Habe aktuell DDR5-5600 CL40, meint ihr ein Wechsel auf DDR5-7200 CL34 würde sich beim Zocken bemerkbar machen? Gerade was Tarkov angeht kann ich mir gut vorstellen, dass man da nen deutlich Unterschied sieht
Naja RAM für Gaming sollte eine Latenz unter <10ns haben. Du hast aktuell 14ns, da ist erstmal Potential drin.
Ob es der 7200 CL34 seien muss, sei mal dahin gestellt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
7200 cl34 wird auf AMD 7000 niemals laufen.
Was was bringen kann ist 5600cl28 oder 6000cl30, bzw. RAM manuell optimieren.

Aber wenn du das vorhast, das braucht Zeit, Tests und starke Nerven, weil es wird zwingend zu mehrfachen bis hunderten Misserfolgen führen bis du irgendwann ne schnelle stabile Einstellung hast.



Schlag dir Tarkov aus dem Kopf.
Es ist qualitativ miese Software die einfach mies läuft.
 
Zuletzt bearbeitet:
Das mit den Physics Forcen kannte ich noch nicht. Hast du da schon "Benchen" können?
Normalerweise entscheidet der Nvidia Treiber "automatisch" nach optimaler Auslastung/best efort.
Man kann ja damit ein wenig rumspielen und ja das kann schon einen Unterschied machen.

Edit: das letzte mal hatte ich damit rumgespielt auf einem Notebook mit einer 970m und einer Quadcore CPU Intel 6700HQ.

Aktuell mit einer RTX3080 und einer 3900X hatte noch keinen "Edge-Case" wo ich damit rumspielen musste.
Tarkov hatte ich nur mal in der Beta gespielt und fand die Engine auch Grütze.

P.S ich habe z. B in den Browsern die HW-Beschleunigung deaktiviert.
Wenn man keine IGPU hat merkt man schon das es die GPU etwas entlastet und die CPU belastet ins besondere in hohen Auflösungen und HFR.
Ich habe nebenbei immer Browserfenster offen und entsprechende Medien, auch AERO in Windows ist deaktiviert. - Ja mit modernen GPUs sollte das nicht ins Gewicht fallen, aber die CPU hat ja eh ab 8 Kernen+ eher weniger zu tun. Also warum nicht die Last darauf legen.
Besonders dann wenn die GPU eh schon sehr hohe last hat. Ist das ohne HW-Beschleunigung etwas smoother finde ich.
 
Zuletzt bearbeitet:
Wieso wird der nicht laufen? Der wird doch normal als DDR5 RAM angeboten?
Weil der RAM Controller in der Ryzen 7000 CPU es nicht schafft.
Ryzen 7000 will niedrige Latenzen, keinen hohen Takt.
 
Weil der RAM Controller in der Ryzen 7000 CPU es nicht schafft.
Ryzen 7000 will niedrige Latenzen, keinen hohen Takt.

Bei DDR5 gilt das ab mehr 4800 Mhz doch alles als Übertaktung? Wenn der RAM Controller bei der aktuellen 7000er Serie bei 6200 spätestens dicht macht, kann man dann erwarten, dass sich das mit der Zeit nochmal nach oben verschiebt? Oder welchen Sinn machen sonst aktuelle 32GB 7200 CL 34 Kits? Dass man die dann auch 6000 Mhz mit einer höheren Wahrscheinlichkeit mit strafferen Timings laufen lassen kann? Oder ist das reines Marketing a la 'Hauptsache große Zahlen!!!111'?
 
Ist das Thema hier nicht schon lange geklärt (cpu load Auslesefehler unter win11) und alles Off-Topic seit Seite 2?
 
Vor allem hängt es noch davon ab ob Dual Ranks oder Single Ranks.

Die Singles sind mit OC etwas besser kompatibel.
 
Wenn man 4-6 Frames spüren kann, dann ja ;)
 

Meint ihr diese hier würde im Vergleich zu den Kingston Fury Beast DDR5-5600 CL40 einen spürbaren Unterschied darstellen? Ist ein 6000 CL30 RAM.
Ja... klingt vielleicht Assi aber dank Rücksendungsmöglichkeit würde ich die einfach mal bestellen und testen. Zurück senden geht ja immer noch.
Es sollte einen spürbaren Unterschied machen, aber nicht in allen Games.
Beitrag automatisch zusammengeführt:

Wenn man 4-6 Frames spüren kann, dann ja ;)
Du kannst die mins. definitiv fühlen. (im Sinne von feststellen)
Gerade wenn du insgesamt eher niedrigere FPS hast.
 
Meint ihr diese hier würde im Vergleich zu den Kingston Fury Beast DDR5-5600 CL40 einen spürbaren Unterschied darstellen? Ist ein 6000 CL30 RAM.
YouTube > LTT > Ryzen und DDR5 Test video.
Dann weißt du was du erwarten kannst.
 
Eine Frage hätte ich noch:
...... Diese aktualisieren in den Videos nämlich immer deutlich schneller als bei mir. Kann man das irgendwo einstellen?
Afterburner>>Einstellungen>> Überwachung>> ganz oben erste Zeile: Abfragezeitraum.
 
Ob das stimmt ist immer so eine Sache :unsure:

Kann natürlich sein, dass da was falsch auf GH übertragen worden ist, aber zumindest die Herstellerseite bewirbt das exakt so.

Was natürlich auch nicht bedeutet, dass es überall laufen sollte, sondern wahrscheinlich höchstens, dass es bei internen Tests in gewissen Konfigurationen funktioniert hat. Bei welchem Board mit welcher CPU? We'll probably never know.
 
Energiesparplan > "Höchstleistung" für das jeweilige Spiel
"Energiesparmodus" für alles andere.

Das Programm checkt im Intervall zwischen 10sec und 5min laufende Anwendungen, schaltet dann selbstständig auf voreingestellte Energiepläne. Sowohl ein als auch aus.
ppm.png
 
Energiesparplan > "Höchstleistung" für das jeweilige Spiel
"Energiesparmodus" für alles andere.

Das Programm checkt im Intervall zwischen 10sec und 5min laufende Anwendungen, schaltet dann selbstständig auf voreingestellte Energiepläne. Sowohl ein als auch aus.
Anhang anzeigen 871721
Bringt das auch was bei CPUs mit 12 und 16 Kernen? Die langweilen sich doch sowieso alle beim zocken.
Beitrag automatisch zusammengeführt:


Meint ihr diese hier würde im Vergleich zu den Kingston Fury Beast DDR5-5600 CL40 einen spürbaren Unterschied darstellen? Ist ein 6000 CL30 RAM.

Es ist vollkommen egal welches RAM du in deinem Rechner hast. Man kann den Unterschied nur in Benchmarks sehen. Im Reallive sieht man es nicht.
Ob nun 5600 oder 6000 er RAMs da sind ist vollkommen EGAL!
Am Ende bestimmt IMMER die GPU wie viele Frames Du bekommst.
Spiele die im CPU Limit kaufen brauchen mehr KERNE! Und nicht schnelleres RAM.

Für Ryzen 7000 empfehle ich dieses Kit:
 
Zuletzt bearbeitet:
Bringt das auch was bei CPUs mit 12 und 16 Kernen? Die langweilen sich doch sowieso alle beim zocken.
Wenn du das nicht einstellst, taktet unter Umständen auch der eine Kern, der gerade volle Last hätte, nur verzögert, nicht bis zur vollen Taktrate oder wenns blöd läuft gar nicht richtig hoch.

Weiß nicht was für Scheduler Windows genau verwendet, bzw wie die arbeiten, unter Linux kann ich das "klarer" einstellen und wenn ich da Energiesparen einstelle, ist bei 2,4Ghz schluss.... was ich in dem Fall ja auch genau so haben will. Spielt dann keine Rolle ob nur Last auf einem, wenigen oder allen Kernen, dann taktet überhaupt kein Kern über 2,4Ghz.
Dann gäbs da noch "ondemand", da takten einzelne Kerne sofort hoch, sobald irgendeine Last anfällt. "conservative" tut das gleiche, taktet aber langsamer hoch, so das die Taktrate nicht sofort auf 4,x Ghz springt, nur weil man den Startbutton angeklickt hat. Und dann gibts noch "max Performance", was dazu führt, das alle Kerne immer die volle Taktrate halten, was aber den Nebeneffekt hat, das einzelne Kerne nichtmehr boosten.

Zum Zocken will man also idealerweise "ondemand", damit die Kerne bei bedarf sofort hochtakten, aber wenn eben nicht gleich alle Kerne benötigt werden auch die Boost-Takte genutzt werden können.
 
lol. wenn das so wäre, wärs ja schön. isses aber nicht^^
Tatsächlich bestätigen alle deine Screenshots meine These :)

1680454463710.png


Last of Us hat mehrere Bugs in der Hinsicht. Meine 6700XT läuft auch nur auf 70% im Game und die CPU Kerne sind zu 60% ausgelastet...
Und die anderen Games sind auch nicht besser optimiert.
Deine CPU wird ja nie ausgelastet und deine GPU auch nicht! Eindeutig schlampig programmierte Spiele, die keinen Nutzen aus mehr Kernen ziehen.
 
ist doch egal. das ist dennoch ein cpu limit

deine auflösung?

das argument "ist nicht gut optimiert" ist keine erklärung dafür, dass eine gpu nicht ausgelastet wird. wir als nutzer haben selbst wenn es so ist eh keinen einfluss darauf.

ich habe die szene in tiny tina mit jemandem anderen verglichen und die haben einen 13700k + getunten ram und haben ca. 60-90% mehr fps als ich.

ist das dann immer noch mieser code? ;)
Beitrag automatisch zusammengeführt:

Deine CPU wird ja nie ausgelastet und deine GPU auch nicht! Eindeutig schlampig programmierte Spiele, die keinen Nutzen aus mehr Kernen ziehen.
nochmal, das zieht nicht. ab wann ist denn für die der code ordentlich? erst wenn alle kerne auf 100% kleben? ;)
 
Zuletzt bearbeitet:
Deine CPU wird ja nie ausgelastet und deine GPU auch nicht! Eindeutig schlampig programmierte Spiele, die keinen Nutzen aus mehr Kernen ziehen.
Also bringen ja mehr Kerne, wie von dir empfohlen auch nichts, wenn die CPU jetzt schon nicht ausgelastet wird.
Schnellerer RAM kann aber durchaus was bringen, weil das die Speicherzugriffszeiten verkürzt und somit die CPU-Auslastung erhöhen KANN. Das ist ja genau das wo die X3d punkten, denn die können das durch ihren wesentlich größeren Cache auf der CPU kompensieren.

Ich finds auch immer wieder witzig, wenn Leute etwas als "schlecht programmiert" bezeichnen und offensichtlich soviel Ahnung von Programmierung haben wie ein Koch von Kernphysik.
Man kann nicht jede Berechnung beliebig parallelisieren, das müsste man aber, wenn man beliebig viele Kerne auslasten können will, weil die rechnen nunmal eben parallel, nicht sequentiell.

2 + 5 + 7 kann man nicht auf 2 Kernen rechnen, weil man erst das Ergebnis von 2 + 5 braucht um dann das + 7 rechnen zu können.
2 + 5 + 7 + 11 kann man bedingt auf 2 Kernen rechnen. Der eine Kern kann 2 + 5 rechnen, der andere Kern kann parallel 7 + 11 rechnen, dann braucht man aber trotzdem noch einen Zyklus der die beiden Ergebnisse addiert, also letztendlich 7 + 18 ausrechnet und das kann wiederrum nur ein Kern. Also selbst in diesem Fall hättest du einen Zweikerner am Ende nur zu 66% ausgelastet.

Das ist deswegen also noch lange nicht "schlampig" programmiert. Ggf. nutzt so ein Spiel nicht jede kleinste Parallelisierungsmöglichkeit, was man dann bestenfalls als "nicht perfekt optimiert" bezeichnen könnte.
Das zweite Beispiel oben lohnt sich übrigens nichtmal zu parallelisieren, weil es länger dauert eines der beiden Einzelergebnisse in ein Register des anderen Kerns zu kopieren, als wenn man es gleich nur auf einem Kern ausrechnet.
 
Früher war das mal so, das bei 100% der Prozessor ausgelastet war.
Seit Mehrkernprozessoren sieht man nur noch sehr selten 100% und trotzdem ist der Prozessor ausgelastet. Da nicht jedes Spiel/Programm alle Kerne gleichzeitig auslastet.

Beispiel:
Singlecore - voll ausgelastet bei 100%
Dualcore - voll ausgelastet bei 50%
Warum bei 50%?
Ganz einfach.
Ein Kern ist bei 100% und der andere bei 0% da nur ein Kern verwendet wird. Windows zeigt aber immer nur die gesamte Auslastung an und die ist in dem Fall bei 50%. (100% / 2 Kerne = 50%)

Bei einem Quadcore würde also bei einer angezeigten Auslastung von 25% schon eine Vollauslastung sein wenn nur ein Kern genutzt wird.
 
Bringt das auch was bei CPUs mit 12 und 16 Kernen? Die langweilen sich doch sowieso alle beim zocken.
Normalerweise ist "ausbalanciert" ausreichend um CPU unter Last auszufahren. Meistens bremst falscher Energieplan Games heftig.. weil zufällig verstellt, falsch gewählt, vergessen oder was auch immer.
So ging es mir mit GTA5. CPU nie ausgelastet, Frames niedrig. Es lag am custom_low_Energiesparplan...
Könnte in diesem Fall ja auch sein
 
Früher war das mal so, das bei 100% der Prozessor ausgelastet war.
Seit Mehrkernprozessoren sieht man nur noch sehr selten 100% und trotzdem ist der Prozessor ausgelastet. Da nicht jedes Spiel/Programm alle Kerne gleichzeitig auslastet.

Beispiel:
Singlecore - voll ausgelastet bei 100%
Dualcore - voll ausgelastet bei 50%
Warum bei 50%?
Ganz einfach.
Ein Kern ist bei 100% und der andere bei 0% da nur ein Kern verwendet wird. Windows zeigt aber immer nur die gesamte Auslastung an und die ist in dem Fall bei 50%. (100% / 2 Kerne = 50%)

Bei einem Quadcore würde also bei einer angezeigten Auslastung von 25% schon eine Vollauslastung sein wenn nur ein Kern genutzt wird.
Bei Last of Us sind bei mir zwar alle 24 Threads ausgelastet, aber keiner zu 100%. Alle bei c.a. 30%. Trotzdem wird die GPU nicht über 70% ausgelastet. Und nein, es ist kein vsync active.
Beitrag automatisch zusammengeführt:

Ich finds auch immer wieder witzig, wenn Leute etwas als "schlecht programmiert" bezeichnen und offensichtlich soviel Ahnung von Programmierung haben wie ein Koch von Kernphysik.
Man kann nicht jede Berechnung beliebig parallelisieren, das müsste man aber, wenn man beliebig viele Kerne auslasten können will, weil die rechnen nunmal eben parallel, nicht sequentiell.
Alle GPUs haben tausende von shader CPUs. Die arbeiten alle parallel. Und zwar so, das am Ende des Frames, alle CPUs was zu tun hatten. Dabei berechnet eine shader CPU immer einen Pixel.
Es ist also sehr wohl möglich, auch das unmögliche zu parallelisieren. Sonst würde keine GPU funktionieren.
Bitte den Ball etwas flach halten, wenn man selber keinen Plan hat.
 
Zuletzt bearbeitet:
Alle GPUs haben tausende von shader CPUs. Die arbeiten alle parallel. Und zwar so, das am Ende des Frames, alle CPUs was zu tun hatten. Dabei berechnet eine shader CPU immer einen Pixel.
Es ist also sehr wohl möglich, auch das unmögliche zu parallelisieren. Sonst würde keine GPU funktionieren.
:rolleyes2:
Ja, bei Shadern geht das, weil jeder Pixel voneinander unabhängig ist. Deswegen hat eine (hochspezialisierte) GPU ja auch 1000e Shader (weils in dem Fall einfach geht), aber eine CPU trotzdem "nur" 4-16 Kerne. Du kannst ja wahlweise mal ein Shader-Programm auf der CPU laufen lassen und andererseits mal versuchen eine generische Berechnung auf einer GPU laufen zu lassen.... oh wait... du hast ja keine Ahnung von Programmierung.

Bitte den Ball etwas flach halten, wenn man selber keinen Plan hat.
Ohje, weniger Ahnung als du kann man nicht haben. Was du hier alles wild durcheinander würfelst. Typischer "ich hab da irgendwo mal irgendwas gelesen"-Experte.
Aber so qualifiziert man sich immerhin für Ignorelisten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh