AMD Ryzen 5000 - Undervolting/ Underclocking - So effizient wie möglich (für Gaming)

Induktor

Enthusiast
Thread Starter
Mitglied seit
03.11.2019
Beiträge
2.770
Ort
Münster/ Osnabrück
Ryzen Wallpaper.jpg


Wie der Titel es bereits verrät, soll es in diesem Thread um Erfahrungswerte zum Thema Undervolting/ Sweetspot bei Ryzen 5000 CPUs gehen. Eigentlich kommt dieser Thread viel zu spät, da AM5 schon fast vor der Tür steht, aber ich denke dennoch, dass Ryzen 5000 CPUs noch lange in Benutzung sein werden. Daher könnte das hier für den ein oder anderen möglicherweise hilfreich sein, insbesondere wenn man mit hohen Temperaturen kämpft. Vielleicht ist es auch zukünftig in gewisser Weise für AM5 von Vorteil.

---------------------------------------------->

Gleich schon mal das Wichtigste vorweg, um etwaige Diskussionen diesbezüglich zu vermeiden.

Jeder muss seinen Sweetspot selbst definieren und das, was ich als sinnvoll und "Sweetspot" bezeichne, muss nicht auf andere Systeme, Einstellungen oder Anforderungen zutreffen. Ich will hier lediglich meine Erfahrungen zu diesem Thema teilen und wie ich die ganze Geschichte sehe. Auch weise ich ganz klar darauf hin, dass die vorgenommenen Settings primär für Gaming in meinen Einstellungen ausgelegt sind und nicht für irgendwelche synthetischen Benchmarks oder Stresstests. Das gilt auch für das Thema Stabilität. Dieses teste ich nur nach meinen persönlichen Bedürfnissen und soll keineswegs eine allgemeine Empfehlung oder so sein, aber dazu dann später im Detail mehr. Selbiges gilt auch für das Testen an sich. Man kann nie so testen, dass man damit hier jeden zufriedenstellt. Deshalb kann ich nur so testen, wie das für mich am aussagekräftigsten/ sinnvollsten ist und sich in der Vergangenheit gut bewährt hat. Wer damit nichts anfangen kann, muss halt selbst investigativ tätig werden und seine eigenen Tests machen. Konstruktive Kritik und Verbesserungsvorschläge sind natürlich jederzeit willkommen, genauso wie weitere Erfahrungswerte.

---------------------------------------------->

Mit Ryzen 5000 (anfangs 5800X, später dann 5900X) bin ich seit Anfang März 2021 unterwegs und habe mich immer so ein bisschen an dem orientiert, was man hier im Forum so mitbekommt + immer ein wenig selbst getestet. Wie man's halt kennt, ist der Standard für Optimierungen bei Ryzen CPUs der Precision Boost Overdrive (PBO) in Verbindung mit dem Curve Optimizer (CO). Das kann man dann idealerweise pro Kern machen oder einfach ein Setting, was für die gesamte CPU angelegt wird. Zweiteres funktioniert bei mir besser und zuverlässiger. Trotz dessen, dass ich mein 5900X via PBO und CO mit +100/ -19 eingestellt habe, empfand ich den Verbrauch im Gaming mit rund 110-120w durchschnittlich schon etwas hoch. Temperaturprobleme hatte ich jetzt nicht, aber irgendwie ließ mich nicht das Gefühl nicht los, dass das deutlich besser/ effizienter gehen muss.

Bereits im Testing mit Cinebench R23 (CB) zeigte sich, dass der 5900X oberhalb der empfohlenen Limits von AMD nicht mehr wirklich toll performt/ effizient ist. Hier mal ein kurzer Vergleich, den ich damals gemacht:

AMD Limits.jpg CB R23 - PBO 142w vs MB Limits vs OC.jpeg

Abgesehen davon, dass man relativ viel Energie reinstecken muss, um noch ein wenig mehr Leistung rauszukitzeln, wird die ganze Geschichte zunehmend schwieriger zu kühlen. Allerdings zeigte das Testing mit CB, wie gut der PBO mit dem CO auf die Ryzen CPUs abgestimmt wurde. Problematisch waren bei Ryzen CPUs immer händische Settings wie beispielsweise das Absenken von Vcore (wie man es bei Intel kennt), weil man dadurch schnell ins Clock-Stretching lief und die CPU nicht mehr optimal arbeitete. Zwar steigt der Nominal-Takt und auch die Temperaturen inkl. Verbrauch fallen besser aus, jedoch sinkt gleichzeitig der Effektive-Takt, der ausschlaggebend für die tatsächliche Leistung ist. Deswegen sind Optimierungseinstellungen außerhalb vom PBO immer ein wenig kritisch bei Ryzen CPUs, weil man im Idealfall bessere Leistung (zu stock), bei gleichzeitig kühleren Temperaturen und geringerem Verbrauch anstrebt.

Nun hat CB aber nicht wirklich viel mit einer realistischen Gaminglast zu tun, jedenfalls habe ich noch nie derartige Werte in einem Spiel erreicht. Deshalb teste ich nur echte Spiele mit realistischem Verbrauch, die ich auch selbst tatsächlich spiele. Denn schließlich ist Gaming auch das, womit ich am meisten Zeit verbringe und entsprechend ist das Einsparpotenzial nicht unerheblich. Jeder, der seine GPU undervoltet betreibt und mal die Verbräuche verglichen hat zu stock, wird mir da sicherlich zustimmen. Und natürlich ist es auch irgendwo der Spaß am Optimieren/ Verbessern, zumal das BIOS dafür eine Vielzahl an Möglichkeiten bereitstellt. Wäre doch schade, wenn man sie nicht nutzt. Muss ja nicht immer reines OC sein.


Kommen wir zu den Ergebnissen. Zunächst einige Eckdaten, was Hardware und Testparameter betrifft:

- offener Aufbau (vertikaler Benchtable)
- X570 Aorus Master (BIOS F36e)
- 5900X (geschliffen)
- 280er AIO (geschliffen)
- 4x 8GB G.Skill 3.800 @ CL16-16-16-30
- 6900XT UV: 2.350 Mhz @ 1,110v + 2080 FT

- AIO-Pumpe fix bei 20% (~1.130 rpm)
- AIO-Lüfter fix bei 900 rpm (870-930 rpm)
- GPU-Lüfter unter 1.000 rpm (avg 970 rpm)
- Native Auflösung: 2.560 x 1.440p
- Radeon-Treiber: 22.5.1
- Raumtemperatur: 21-23°C
OBT 2.jpg Valhalla UV Profil.jpg Mem Settiing 1.jpg

Damit man besser nachvollziehen kann, auf welche Daten ich mich immer referenziere, hier mal ein Beispiel-Log von HWinfo mit den markierten Daten:

HWinfo Testbeispiel.jpg


Getestet wurde nur zunächst nur AC Valhalla, weil ich unheimlich viele Optionen durchtesten wollte/ musste. Um die Genauigkeit der Messergebnisse zu erhöhen, bin ich folgendermaßen vorgegangen. Zunächst wurde das System auf Temperatur gebracht (Warmlaufphase) und das Spiel mindestens 10 Minuten lang gespielt. Dann wurde während das Spiel läuft auf HWinfo gewechselt und alle Werte dort geresettet (Uhr-Symbol) und erst ab da wurde der Log aufgezeichnet. Gemessen wurde immer min. 45 Minuten. Auch das Speichern der Werte erfolgte während das Spiel noch lief. So konnte ich mir relativ sicher sein, dass ich meine Ergebnisse nicht durch irgendwelche idle-Werte oder kühlen Warmlauftemperaturen verfälsche/ schönige und wirklich nur die reine Gaming-Last teste. Gerade wenn man sehr viel testet und einen sauberen/ aussagekräftigen Vergleich möchte, ist ein Vorgehen, welches immer auf die gleiche Weise reproduzierbar ist, unabdingbar.

Natürlich ist Gaming nur bis zu einem gewissen Grad reproduzierbar, aber so teste ich meine Settings halt immer. Ich habe einfach keine Lust das System stundenlang irgendeiner Last auszusetzen und zuzugucken wie ich sinnlos Strom verbrate. Da kann ich die Zeit auch nutzen und gleich das Game zocken. So teste ich auch übrigens die Stabilität. Wenn's abschmiert, regelt Auto-Save oder ich hole wenige Minuten Spielzeit nach. Es ist nur ein Spiel und nichts wichtiges. Ich weiß, dass bei diesem Thema die Meinungen weit auseinander gehen, aber ich vertrete klar die Meinung, dass mein System nur für das stabil sein muss, was ich täglich damit mache und nicht für dauerhaft 48h Prime95 mit 200w+ Heatoutput. Mir ist da das Optimierungs-/ Einsparpotenzial wesentlich wichtiger und bislang läuft das System sehr zuverlässig ohne WHEAs oder BSODs (Test-/ Auslotphasen jetzt mal außen vor).

Eine Sache muss ich an der Stelle leider noch ergänzen, da ich in der Vergangenheit den ein oder anderen Kommentar bezüglich Takt bekommen habe. Da ich immer nur bereinigte Ingame-Werte poste, wo dauerhaft Last anliegt, wurde mir schon vorgeworfen, dass meine CPU relativ niedrig boostet und sonst was alles. Effecitive Clock, Package Power, Logging-Dauer usw. wurde sowieso völlig ignoriert. Deshalb vorsorglich schon mal ein Bild, wo meine CPU boostet:

Boost 5900x.jpg

Jetzt einfach vorstellen, dass ich so 2-3h vorher im idle sitze und die Werte mit in den Gaming-Log reinnehme. Dann stimmen auch Boostraten und Durchschnittswerte. :-) Ist natürlich auch eine Anspielung für nachvollziehbares Loggen, weil so ein Log nichts mit Leistung zu tun hat und nur das Messergebnis komplett verfälscht. Deswegen Warmlaufphase + Log-Beginn und -Ende während des Spiels. Wie hoch die CPU im idle boostet ist für Gaming relativ uninteressant.

Zurück zum Thama. In AC Valhalla habe ich dann drei Szenarien gemessen/ getestet:

- Kurzer Test in der Stadt, wo viel los ist (höhere CPU-Last), um das Profil grob einzuschätzen. Dort dann immer auf die gleiche Stelle gestellt, immer gleich ausgerichtet und 10 Minuten geloggt.
- Den Ingame-Benchmark, teilweise mehrfach mit dem gleichen Profil, um Schwankungen und FPS-Einbrüche einzuschätzen.
- Die Profile, die im kurzen Test vielversprechend aussahen, habe ich dann ausgiebig im Gaming getestet (wie oben beschrieben).

Im ersten Testing habe mich dafür entschieden erstmal die verschiedenen Powermodi durchzugehen. Das habe ich sowohl für idle/ light load-, als auch für den Gaming-Betrieb gemacht. Vor allem haben mich die hochgelobte Pizzamods interessiert, denn bislang fand ich den Energiesparmodus für den Nicht-Gaming-Betrieb unschlagbar gut. Unter 35w schafft kein anderes Powerprofil. Entsprechend fallen auch die Temperature gut aus:

Powerprofile - idle.jpg
Engergie optionen.jpg

Das habe ich zuerst mit Auto-Settings durchgeführt und im zweiten Anlauf mit manuell eingestelltem Vcore. Wollte einfach mal wissen, wie sich das im Betrieb äußert. Im Gaming (Testszenario: Stadt 10 Minuten) habe ich dann alle sechs Profile mit Auto- und manuellen Vcore-Settings durchgetestet. Das habe ich dann beginnend von 1,275v bis 1175v gemacht. Anfangs war die Idee, dass solange der Effective Clock nicht absinkt, ist erstmal alles gut. Das bestätigten auch die Ingame-FPS, sowie der Ingame Benchmark:

Powerprofile - Gaming.jpg


Mit sinkendem Vcore, verbesserte sich auch der Verbrauch geringfügig, aber irgendwie war alles nicht das richtige bzw. irgendwie hatte ich mir mehr erhofft. Auch die Pizzamods haben mich nicht wirklich überzeugt. Weder im idle, noch im Gaming. Ich wusste, dass ich irgendwas mit dem PBO anstellen muss, weil es die einzige Einstellung ist, die nachweislich gut mit den Ryzen CPUs funktioniert. Also bin ich wieder auf mein altes Profil gewechselt (+100/ -19) und hab ein wenig rumexperimentiert. Immerhin hat sich im Testing gezeigt, dass selbst das Energiesparprofil die FPS im Durchschnitt halten kann, trotz dessen dass der effektive Takt leicht abgefallen ist. Wenig verwunderlich, wenn man die meiste Zeit im GPU-Limit sitzt, aber dennoch bin ich davon ausgegangen, dass die FPS-Leistung in dem Profil weiter einbrechen würde.

BM Set.jpg


Mir war klar, dass ich den Vcore irgendwie runterbekommen muss, um den Verbrauch zu senken, aber ohne dass der Effective Clock sich großartig verändert. Im Ausgangsprofil (PBO +100/ -19) pendelte sich der Eff. Clock bei 1.1xx MHz durchschnittlich ein. Vcore bei 1,382v und einem Verbrauch von 110-120w. Da ich größtenteils im GPU-Limit sitze, habe ich es einfach mal mit'm negativen Offset im Takt probiert (im PBO). Das hat zum Teil besser funktioniert als erwartet. Gleichzeitig habe ich auf den reduzierten Takt das Undervolting im CO erhöht + ein dynamisches Vcore Offset (DVO), weil der CO allein gar nicht so viel rausholt (siehe Vergleich -19 auf -23). Bei mir kann ich das nur anlegen, wenn ich Vcore von Auto auf Normal stelle.

BIOS Setting Vcore.jpg

Mit diesen ganzen Settings und Optimierungen konnte ich den Verbrauch von knapp 120w auf 70w reduzieren. Das ist für CPU-Verhältnisse schon verdammt viel und das schöne ist, dass die FPS-Leistung sich kaum verändert hat, zumindest in diesem Spiel nicht. So sehen die Ergebnisse aus:

Vergleich PBO vs. UV.jpg


Ein paar Dinge muss ich direkt klarstellen. Zum einen ist die FPS-Angabe in dem Gaming-Chart mit Vorsicht zu genießen, weil sie im Spiel natürlich sehr schwankt, je nachdem wo man sich aufhält und wie viel Action man gerade hat. Deswegen habe ich min. 45 Minuten getestet und versucht nach Möglichkeit Menüs, Ladezeiten usw. zu vermeiden und einigermaßen immer das gleiche zu machen (einfach in der Welt looten). Dann habe ich mich im Gaming nicht zu sehr auf die FPS-Werte konzentriert, sondern einfach das Spiel gespielt und auf mich wirken lassen, ob ich objektiv wirklich einen spürbaren Unterschied merke. Mein angestrebter Sweetspot in dem Spiel ist zwischen 90 und 120-130 FPS. Mehr brauche ich in dem Spiel nicht und genieße lieber die schöne Grafik. Temperaturwerte hab ich bei dem Ingame-Benchmark bewusste weggelassen. Die Logdauer beträgt dabei nicht mal 1:50 und ist einfach viel zu kurz, um irgendwas über Temperaturentwicklung zu sagen.

Dann wollte ich wissen, wie zuverlässig der Ingame-Benchmark eigentlich ist und habe etliche Male das gleiche Profil getestet, weil ich jedesmal leicht andere Werte bekommen habe. Dafür habe ich das alte PBO-Profil vs. das stärkste UV-Profil genommen. So sehen die Ergebnisse im Vergleich aus:

Ingame Benchmark Vergleich.jpg


Zumindest der Benchmark zeigt einen reproduzierbaren Unterschied, was durchaus auf den leicht reduzierten Eff. Clock im UV-Profil zurückzuführen ist. Möglicherweise ist es schon ein Tick zu viel mit dynamic Offset. Dennoch, im Gaming selbst merkt man keinen Unterschied in der Darstellung. Dafür aber sehr deutlich die Einsparung im Verbrauch und Temperatur. Das ist halt auch ein wenig das Problem vom PBO (Overdrive = OC). Sobald er aktiviert ist, erhöht es den Vcore und damit den Verbrauch, insbesondere wenn man ein positives Takt-Offset anlegt. Der Unterschied im Vcore von +100 zu -500 ist massiv, holt aber keinen spürbaren FPS-Vorteil raus, zumindest nicht in AC Valhalla.

Ich werde die Profile nun in weiteren Titeln testen und gucken wie die Unterschiede dort ausfallen. Gut möglich, dass das in anderen Spielen nicht so gut funktioniert wie in AC Valhalla. Spiele, die ich noch testen würde sind:

- God of War
- Horizon Zero Dawn
- Cyberpunk 2077
- Far Cry 6
- Forza Horizon 5
- GR Breakpoint
- Shadows of the Tomb Raider

---------------------------------------------->
---------------------------------------------->


Informationen und Undervolting speziell zum Ryzen 5800X3D findet sich im Beitrag #99
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wie verhält sich denn zu deinen Ergebnissen der 65watt Ecomode,
magst du das vielleicht mal noch mit rein nehmen?
 
Wie verhält sich denn zu deinen Ergebnissen der 65watt Ecomode,
magst du das vielleicht mal noch mit rein nehmen?
Ich kann das wohl nachtesten, ist ja schnell gemacht. Gut möglich, dass die CPU dann schnell im Powerlimit hängt und man eher FPS-Einbußen merkt. Besonders CP2077 hat bei mir eine hohe Last erzeugt.
 
Guter Test, vielen Dank!

Ich bin schon auf die CP2077 Ergebnisse gespannt.

Im internen Benchmark, dessen Ergebnisse durch seine Homogenität meiner Meinung nach brauchbarer sind, sieht man schön, dass die Unterschiede bei 1% low bei bis zu 9,1% liegen (88 zu 96 fps). Wie du schon sagst, hat jeder seinen eigenen Sweetspot. Bei Desktop-CPUs ist dieser bei mir bei stock-Leistungsaufnahme mit Mehrleistung, also leichtes stabiles OC und somit leicht besserer Sweetspot als stock. Gleiches gilt für die GPU, wo man ja noch viel mehr Einsparpotenzial hat, zumindest wenn man GPUs mit >200 W stock-Leistungsaufnahme sein Eigen nennt.

Mich ärgert eigentlich nur der hohe Energieverbrauch (durch oftmals unnötig hohen Takt) im Idle im Standard Ausbalanciert Windows Profil - das ist man von Intel nicht gewohnt. Der Pizza-Mod ändert das zumindest etwas.
 
Mich ärgert eigentlich nur der hohe Energieverbrauch (durch oftmals unnötig hohen Takt) im Idle im Standard Ausbalanciert Windows Profil - das ist man von Intel nicht gewohnt. Der Pizza-Mod ändert das zumindest etwas.
Ja, da stimme ich dir voll zu. Das funktioniert bei Intel mit SpeedStep und SpeedShift deutlich eleganter. Deswegen schalte ich immer den Energiesparmodus händisch ein, wenn ich nicht spiele, weil sich so der idle/ light load-Verbrauch von 55w auf 35w reduziert und mit 1.740 MHz auf 12 Kernen reicht die Leistung immer noch dicke. Lediglich das manuelle Umschalten ist natürlich nervig.

---------------------------------------------

Ich habe gestern Abend noch Far Cry 6 und Horizon Zero Dawn getestet. Auch in diesen beiden Spielen funktioniert das starke UV-Profil sehr gut. Die Ingame-Benchmarks wurden jeweils immer vier gemacht. So sieht das Ergebnis im Vergleich aus:

Far Cry 6 Ingame-Benchmark: PBO +100/-19 vs PBO -500/-24, -131mV

FC6 - BM +100 -19 Text.jpg FC6 - BM -500 -24 -131mV Text.jpg

Horizon Zero Dawn Ingame-Benchmark: PBO +100/-19 vs PBO -500/-24, -131mV

HZD - BM +100 -19 Text.jpg HZD - BM -500 -24 -131mV Text.jpg

Gaming:

Gaming PBO vs UV.jpg


Bei HZD habe im Gaming ein Setting genommen, welches ich auch tatsächlich so nutze. Alle anderen Einstellungen sollte in den Benchmark-Ergebnissen stehen.

HZD Settings.jpg

@Holzmann Ich habe dich natürlich nicht vergessen. Wollte erstmal ein paar Titel mit den beiden Profilen durchgehen, damit ich beim Wechsel auf den Eco Mode nicht im BIOS immer hin und her switchen muss. So muss ich ihn dann später einmal aktivieren und kann die Spiele nacheinander abfrühstücken.
 
Auch wenn man (leider) für sehr gute Vergleiche wohl noch mehr interne Benchmarks laufen lassen müsste (würde ich aber auch nicht machen - vielen Dank dass du überhaupt jeweils vier Stück gemacht hast!), so lässt sich einigermaßen folgendes sagen:

Min-fps:

Valhalla
88 gegen 96 fps (9,1% mehr mit +100/-19)

FC6
93,75 gegen 96,25 fps (2,56% mehr mit +100/-19)

HDZ
33,75 gegen 38,5 fps (14,07% mehr mit +100/-19)

Für mich persönlich darf es während des Zockens nicht unter 90 fps einbrechen (90 ist bei mir eine Grenze, alles darunter merke ich dann schon), insofern wäre für mich persönlich das UV-Setup bei Valhalla und HDZ "problematisch", weil in diesen beiden Spielen profitiere ich ja offensichtlich hier und da (in brenzlige Szenen) von erhöhten min-fps. Sicher auch bei FC6 (auch wenn der interne Benchmark nicht unter 93 gedroppt ist), da es noch schlimmere Szenen als die Szenen des internen Benchmarks gibt.

Es ist und bleibt eine Geschmackssache (und auch eine Kopfsache): Mehr Leistung mitnehmen bzw. immer soviel wie möglich oder eben doch einiges einsparen (Leistungsaufnahme, Temperatur und/oder Lüfter-rpms).
 
Letztendlich kann das ja jeder selbst austesten. Wenn man die Spiele einfach nur spielt, kann man nicht feststellen, welches Profil tatsächlich aktiviert ist. Beide Profile laufen in der Nutzung butterweich ohne irgendwelche Auffälligkeiten. Zumindest die, die ich bislang getestet habe. Den wirklich entscheidenden Unterschied merkt man nur im Stromverbrauch und in den Temperaturen.
 
Ich weiß was du meinst, ist schon richtig, die Vorteile überwiegen sicher. Aber du wirst in dieser Zeit 100%ig irgendwo unter 90 fps (diesen Wert bitte nicht auf die Goldwaage legen, es geht natürlich eher um eine gewisse range) gedroppt sein, du hast es vielleicht nicht negativ gemerkt, ich oder jemand anderes hätte es aber gemerkt [manchmal machen eben bis zu 8 fps mehr (dein Valhalla-Test) - vorallem in dieser fps-range - den Unterschied]. Mit dem +100/-19-Setup hätte man halt einige oder alle (je nach dem) dieser drops nicht gehabt. Das meine ich. Ich gebe aber zu, dass einem das viel wert sein muss, weil man ja wie du schon sagst dauerhaft mehr Leistungsaufnahme dafür hat. Wer FreeSync/G-Sync hat, ist nicht so negativ davon betroffen, merken kann man es aber trotzdem, vorallem bei Spielen, die man mit Maus spielt, allen voran Shootern. Es ist eine sehr individuelle Sache.
 
Zuletzt bearbeitet:
Sehr interessant, danke dafür die Daten helfen mir sehr.
Verdammt ausführlich, viel Zeit und Mühe bestimmt.
Besonders da ich schlecht aktuelle gut ausgeklopfte Testberichte fand, kam ich mir etwas alleine vor die letzten Tage.

Auch wenn ich es nicht so ausführlich dokumentiert habe, würde ich gerne meine Erfahrung beisteuern. Die letzten Tage habe ich ebenfalls damit verbracht PBO advanced mit negativer Curve an meinem neuen 5900x auszuloten.
Mit / ohne Boost Override, teils mit reduziertem Takt. Vom Vcore Offset habe ich -noch- die Finger gelassen.

Im Zyxxschen Tower ist nichts plan geschliffen und keine Wasserkühlung auf der CPU.
Etwas was ich dringend machen sollte, wenn ich mir deinen sehr ausführlichen Bericht durchlese.
Der Knackpunkt bei mir ist -nicht anders zu erwarten- die Temperatur:
Ab ~6x °C auf einzelnen Kernen sah ich, das die Boost Frequenz nicht mehr erreicht wurden.
Und die Temps steigen hier weiter, bis ich ins Limit bei ~90 °C renne und Allcore nur noch ~4.4GHz anliegen.
Der gute alte Macho Rev. B. kann bei synthetischer Vollast leider nicht mehr leisten :(

So schön die Multicore Punkte im CB auch waren, arbeitete ich mit dem Boost Override (+150, +100, +50 MHz getestet), und ließ einige CB23 Durchläufe durch, wurden die erzielten Punkte mit jedem Durchlauf niedriger. Sie rutschten von ~23k Multicore gen ~22k Multicore.
Natürlich nur solange ich zwischen den Tests nicht Zeit ließ das alles runterkühlen konnte.

Jetzt ohne Boost Override nur mit PBO und negativem Offset von 20 erreicht der Kasten zuverlässig etwas dazwischen. Auch wenn die CB Tests hintereinander weg gestartet werden.

Mein System ist auf silent getrimmt, sprich die vier Lüfter in der Front sind fix auf 600 RPM gestellt, die drei Lüfter des RADI der GPU AiO (sitzen im Deckel) drehen erst ab 50°C der GPU - waren also aus.
Mein Display schafft nur 100Hz, die FPS sind darauf gelocked.

Im Spielebetrieb hängt die CPU seit Anpassung per CO nicht mehr bei 7x °C, sondern liegt -bisher bei den jetzigen Umgebungsbedingungen knapp 5°C niedriger. Da die Abwärme durch den dann drehenden Radi mit weg kommt.

Damit lässt sich fast wieder leben.
Aber nur fast, dank deinen Zahlen :d

edit sagt: Typos, CO ergänzt und da fehlte das V vor einem Offset.
 
Zuletzt bearbeitet:
Die Windows Energiesparpläne Ausbalanciert und Höchstleistung werden durch die Installation des AMD Chipsatz Treibers modifiziert. Wurden vor dem Test die Sparpläne zurückgesetzt, oder mit welcher Chipsatzversion wurde getestet ?

Schön Übersichtlich dargestellt, und interessante Ergebnisse.
 
Die Windows Energiesparpläne Ausbalanciert und Höchstleistung werden durch die Installation des AMD Chipsatz Treibers modifiziert. Wurden vor dem Test die Sparpläne zurückgesetzt, oder mit welcher Chipsatzversion wurde getestet ?
Ehrlich gesagt, wusste ich gar nicht, dass man Energiesparpläne zurücksetzen kann bzw. muss. Ich nutze nur Ausbalanciert für Gaming und den Energiesparmodus für den Nicht-Gaming-Bebtrieb. HWinfo läuft natürlich immer auf dem zweiten Monitor mit und bislang konnte ich keine nennenswerten Unterschiede im Takt oder der Spannung feststellen. Chipsatz-Treiber installiere ich meist dann, wenn mein System mich dazu auffordert. Solange das System zuverlässig läuft, verändere ich nicht zu viel. Lediglich den GPU-Treiber aktualisiere ich regelmäßig.

Höchstleistung und die ganzen Pizzamod-Profile habe ich anfangs nur getestet, weil ich wissen wollte, ob da wirklich große Unterschiede bestehen. Allerdings sind sie im Gaming alle relativ identisch und im Light-Load-Bereich kommt keiner ansatzweise an den Energiesparmodus mit 35w. Wie Silentfan da schon richtig angeführt hat, wäre da ein ähnliches Verhalten wie man es von Intel-CPUs kennt wünschenswert. Sprich, dass die CPU sich auf ein Minimum runtertaktet und Strom (Wärme) spart, wenn sie nichts zu tun hat. Stattdessen hockt sie weiter bei 3,xxx MHz und verschwendet sinnlos Strom.


verdammt ausführlich, viel Zeit und Mühe bestimmt.
Joa, so ist das halt, aber anders geht's leider nicht. Zumal ich schon alles doppelt und dreifach getestet habe, um sicherzugehen, dass es passt. Jedenfalls im ersten Durchlauf mit AC Valhalla. Mittlerweile weiß ich ja, welche Profile gut funktionieren und teste jetzt verschiedene Spiele damit durch. Bislang bin ich mit den Ergebnisse sehr zufrieden.

Am SOC Undervolting hatte ich mich auch schon versucht. Die Idee war, dass man dadurch zusätzlich einige Watt in der CPU spart und so die Temps weiter um vielleicht 2-3°C verbessert. Jedoch ging das bei mir gründlich in die Hose. Die SOC-Spannung beträgt bei mir im Auto-Mode 1,175v. Ich wollte sie anfangs auf 1,150v absenken, doch mein Mainboard/ BIOS hatte sich in dieser Einstellung ziemlich festgefahren legt direkt 1,069v, was sehr instabil (unter Last) war. Leider funktionierte dann keine andere Einstellung, selbst das Zurückstellen auf Auto brachte keinen Erfolg. Es blieb bei 1,069v SOC-Spannung. Musste dann extra die Defaults laden und wieder alles neu einstellen. Im Testing, wo es noch lief, sparte das gerade mal 3w ein (22w --> 19w), was keine Verbesserung in den Temperaturen brachte. Seit dem lasse ich da eher die Finger von.

@TheOpenfield hatte das unter anderem mal in einem -Beitrag- erwähnt, wenn auch in einem anderen Kontext. Es gibt möglicherweise schon noch weitere Stellschrauben, um den Heatoutput weiter zu reduzieren.


Damit lässt sich fast wieder leben.
Aber nur fast, dank deinen Zahlen :d
Ich habe häufig den Fall, dass ich für Freunde, Verwandte, Nachbarn usw. Systeme zusammenbaue/ Windows-Treiber neu aufsetze, repariere, upgrade usw. und die meisten interessiert das alles nicht. Die wollen einfach ein System, was zuverlässig zum Zocken funktioniert und besten Fall vielleicht ein wenig leiser ist (größtenteils Luftkühlung). Die meisten wollen eigentlich nur, dass ich den die Kiste einmal einstelle und fertig. Mit dieser UV-Methode ist das ja relativ einfach möglich. Man muss ja nicht gleich -500 Mhz anlegen. Selbst mit -200 MHz wird der Vcore (und damit der Verbrauch) deutlich gesenkt.
 
Joa, meist muss man Überzeugungsarbeit leisten.
Da laufen Systeme mit 2400er RAM, intels mit Stock Kühler, ReBar ist aus, der PC steht mit den Lüftern direkt am Tisch usw.
Aber wenn man dann einmal dran war gibts anschließend immer nen fettes Grinsen, wenn die Maschine auf einmal läuft :d

Ich habe auch kurz nach Erwerb auf Anraten im RAM OC Thread nebenan im Speicherforum an VDDP, CCD und IOD gedreht.
Hier läuft es rund mit:
VDDP 900mV, CCD 950mV, IOD 975mV
Allerdings habe ich keine Temperaturmessungen gemacht vorher :/

War das mit der SOC Spannung nicht ein Bug in einem älteren Agesa?
 
Moin,

sehr interessant. Habe bei mir nun den ECO Mode aktiv (88W TDP/ 60A TDC/ 90A EDC) Vcore Auto. PBO +0MHz, CO -10 auf allen Cores.
1652705704234.png


meine Vcore erreicht laut HWinfo sehr hohe 1,475V, muss das sein? könnte ja da auch ein Offset setzen, aber ist das gut?

1652705773863.png

VSOC 1,075V
VDDP 0,9V
VDDG CCD 0,9V
VDDG IOD 1,0V

den Verbrauch Idle kriegt man nur runter, wenn man von dem hohen IF weg kommt und z.B. JEDEC RAM nach 3200 nutzt, aber das ist ja erstmal unter Load völlig egal. wie komme ich von dieser hohen Vcore weg?

du hast in deinem BIOS die Optionen Auto oder Normal?
 
Die hohe VCore ist bei ZEN3 für den Boost-Takt (Single- und Dualcore) nötig und bis 1,5V sind normal. Du wirst bei einem zu starken Offset Clock-Streching haben und Leistung verlieren.
 
meine Vcore erreicht laut HWinfo sehr hohe 1,475V, muss das sein?
In dem Testszenario mit CC ist das normal, weil die Kerne einzeln boosten. Je höher der Boost, (in deinem Fall 4.850 MHz) desto höher die angelegte Vcore. Bis 1,500v ist sowieso nach AMD Vorgaben.

1652709260811.png 1652710363031.png 1652710382422.png 1652710400906.png
wie komme ich von dieser hohen Vcore weg?
Kein CC nutzen und den hohen Takt/ Boost vermeiden. Leg ein negatives Takt-Offset über'n PBO ein + UV via CO und ggfs. DVO und nimm lieber etwas, was mehrere Kerne gleichzeitig auslastet. Das Boosten auf einem einzigen Kern fordert automatisch einen höheren Vcore an (Core VID) als wenn die Last auf mehrere Kerne aufteilt wird. Orientiere dich dabei nicht auf den nominalen, sondern auf den effektiven Takt.


könnte ja da auch ein Offset setzen, aber ist das gut?
Kommt drauf an, was dir wichtig ist und welchen Offset du genau meinst. Takt-Offset, Vcore-Offset, DVO (dynamic Vcore Offset)


du hast in deinem BIOS die Optionen Auto oder Normal?
Ich habe in meinem BIOS sehr viele Optionen, wo ich Auto und Normal anlegen kann. Bin mir gerade nicht sicher, welche Einstellung du genau meinst.
 
Zuletzt bearbeitet:
habe das Problem, dass Games wie TMNF einen Kern immer voll auslasten und unnötig Energie verschwendet wird.

so sind meine Settings. der hohe Idleverbrauch kommt wohl durch den Uncoreclock von >3200MHz, aber das lässt sich ja nicht ändern leider, auch nicht dynamisch anpassen dummerweise..
 

Anhänge

  • 220516161200.png
    220516161200.png
    82,4 KB · Aufrufe: 266
  • 220516161209.png
    220516161209.png
    78,2 KB · Aufrufe: 269
  • 220516161218.png
    220516161218.png
    80 KB · Aufrufe: 251
  • 220516161231.png
    220516161231.png
    85,8 KB · Aufrufe: 249
  • 220516161243.png
    220516161243.png
    83,4 KB · Aufrufe: 228
  • 220516161326.png
    220516161326.png
    81,2 KB · Aufrufe: 225
  • 220516161411.png
    220516161411.png
    73,6 KB · Aufrufe: 258
Zuletzt bearbeitet:
habe das Problem, dass Games wie TMNF einen Kern immer voll auslasten und unnötig Energie verschwendet wird.
Das machen auch teilweise die Games, die ich nutze und genau das ist der Punkt, worum es mir hier geht.

Mit der Überschrift "so effizient wie möglich" geht es mir primär darum, den Vergleich zu haben, was stecke ich an Energie in die CPU rein und was bekomme ich an Leistung raus (im Bezug auf Gaming).

Allerdings nur soweit, dass man keine spürbaren Einbußen in der FPS-Leistung merkt (rein objektiv). Oben im Chart habe ich AC Valhalla auch im Energiesparmodus bei 1,740 MHz getestet. Das funktioniert grundsätzlich auch, jedoch bekommt man dabei das Problem, welches Silentfan schon angesprochen hat. In Situation, wo etwas mehr Action ist oder einfach CPU-Leistung benötigt wird, kommt die CPU nicht mehr schnell genug hinterher und es kann zu Rucklern/ Slow-downs kommen. Das würde ich dann aber immer im direkten Spiel (nicht Benchmark) prüfen. Deswegen muss das jeder für sich selbst testen, welche CPU Leistung für's Gaming benötigt wird.

Von dem, was ich bislang getestet habe, muss ich zugeben, dass ein positives Takt-Offset am wenigstens Sinn macht für Gaming. Das sieht zwar im idle und für gelegentlich Boosts mit leichten Workloads ganz nett aus, aber es treibt den durchschnittlich angelegten Vcore in die Höhe und erzeugt einen deutlich höheren Verbrauch = höhere Temps. Auch das UV via CO holt gar nicht so viel aus der CPU raus. In meinem Fall von -19 auf -23 wurden bei einer Stunde Spielzeit gerade mal 4w gespart. (hab's nochmal eingefügt, damit man nicht hochscrollen muss).

Vergleich PBO vs. UV a.jpg

Die -24 + DVO mit -131mV sind für meine CPU auf jeden Fall schon langsam die Kotzgrenze, vermutlich sogar schon ein Tick zu viel, weil der effektive Takt sich absenkt. Ich teste aber dennoch erstmal alle genannten Spiele damit aus. Das Profil mit den -350 Offset ist mMn so ziemlich der Sweetspot der CPU, weil für jede weiteren 100 Mhz gleich +90mV auf den Vcore aufgeschlagen werden, was die Temps um +5°C und der Verbrauch um ~12w erhöht und dann immer so weiter geht.

der hohe Idleverbrauch kommt wohl durch den Uncoreclock von >3200MHz, aber das lässt sich ja nicht ändern leider, auch nicht dynamisch anpassen dummerweise..
Wie hoch ist denn dein idle Verbrauch und vor allem, in welchen Powerprofil?

Was die ganzen BIOS-Settings betrifft, kann ich mich nur bedingt äußern, weil schon seit etlichen Jahren das Gigabyte BIOS bevorzuge und mich nur da einigermaßen auskenne. Ob alle Boards einen dynamischen Vcore Offset unterstützen, weiß ich auch.
 
Ausbalanciert mit dem aktuellsten Ryzen Chipsettreiber. Ich stelle mal eben auf DDR4-3200 um und schaue mal

1652715201842.png
Beitrag automatisch zusammengeführt:

1652715451178.png1652715461369.png

SoC von 1,075V abgesenkt auf 0,95V und IF/RAM Clock von 1900MHz auf 1600MHz abgesenkt

1652717134077.png

da geht noch mehr.. die Frage ist nur, ob das stabil läuft, muss ich jetzt ausloten, dann weiter mit CO..
n 5800X3D wär jetzt echt super :d, der wird sicherlich niemals an den 1,45V kratzen und der 3200er RAM wäre völlig ausreichend.
schade, dass der Ryzen so viel frisst, sobald man die 1600MHz übersteigt..

 
Zuletzt bearbeitet:
@GokuSS4:

Was verstehst du unter viel fressen?
Die Leistungsaufnahme im Idle ist gemeint, oder?

Hier liegen dann um bis etwas unter 4x Watt Package Power an, ginge es niedriger?
Gerne teste ich heute Abend wenn ich an den PC komme, sag mir nur bitte auf welchen Wert ich achten sollte ^^.
 
1652720952674.png


ich rede von Core+SoC Verbrauch.

an der Steckdose hat sich nun der Verbrauch von Idle 55W auf 33W reduziert, schon heftig, nur weil ich den RAM OC rausgenommen habe und sich dadurch die Vsoc reduziert von 1,075V auf 0,85V
PXL_20220516_165825887.jpg
werde jetzt die RAM Settings über Nacht testen und mich dann morgen an den CO setzen und CoreCycler laufen lassen, schon krass was du da rausholen konntest
 
Ich hatte das anfangs versucht mit einer geringeren SOC-Spannung, aber mein BIOS hat sich in der Einstellung ziemlich festgefahren und instabil war es auch. Seitdem läuft es wieder auf Auto bei 1,175v und das zeigt sich auch deutlich in den Verbräuchen.

SoC Voltage.jpg

Man müsste das echt mal ausgiebig testen. IF auf 1800 oder 1600, dafür aber mit strafferen Timings als bei 3800 MHz.

Noch eine kleine Ergänzung auf den Sweetspot der CPUs. Vergleicht man die drei Ryzen CPUs (laut AMD Specs):

- 5800X - 32 MB L3 - Max. Takt 4,7 GHz
- 5900X - 64 MB L3 - Max. Takt 4,8 GHz
- 5800X3D - 96 MB L3 - Max. Takt 4,5 GHz

Liegt der 5800X3D bewiesenermaßen mit seinen 4,5 GHz schon in einem sehr optimalen Arbeitsbereich für Gaming. In meinem PBO-Profil mit dem -350 Takt-Offset, landet der 5900X auf max. 4,6 GHz und einem Verbrauch von ca. 80w (inkl. UV), was schon sehr effizient ist für den 12-Kerner. Jedoch hat er gegenüber dem normalen 5800X den Vorteil, dass er einen doppelt so großen L3-Cache besitzt und durch zwei CCDs besser zu kühlen ist. Dass ein größerer L3-Cache in Games gut funktionieren kann, hat der 3D-V ja schon bewiesen.

Demnach sehe ich nicht wirklich den Vorteil, der CPU im Gaming mehr als 4,5 - 4,6 GHz Takt zu geben. Zumal mit steigendem Vcore und Verbrauch die CPU immer ineffizienter wird (Leistung pro Watt), von der Temperaturentwicklung ganz zu schweigen. Hier nochmal das Profil aus dem HWinfo-Log (PBO: -350/ -23/ -131mV DVO) mit einer Stunde Spielzeit in AC Valhalla:

1652721378243.png
 
Auch bei der GPu lässt sich Strom sparen !!! Nur 5% weniger fps bedeuten 30% weniger Leistung an meiner 6700XT.
 
Auch bei der GPu lässt sich Strom sparen !!! Nur 5% weniger fps bedeuten 30% weniger Leistung an meiner 6700XT.
Überall lässt sich Strom sparen, gehört aber nicht in diesen Thread. Hier geht's um Ryzen 5000...
Für RDNA2 gibt's nen extra UV-Thread 😉
 
Auch bei der GPu lässt sich Strom sparen !!! Nur 5% weniger fps bedeuten 30% weniger Leistung an meiner 6700XT
Ich hatte bereits im Startpost einen Verweis auf den GPU-UV-Thread (Radeon 6000) aufgeführt. FPS-Cap, Nutzung von FSR usw. reduziert auch den Verbrauch/ Heatoutput. Da gibt's einige Stellschrauben.


Deshalb teste ich nur echte Spiele mit realistischem Verbrauch, die ich auch selbst tatsächlich spiele. Denn schließlich ist Gaming auch das, womit ich am meisten Zeit verbringe und entsprechend ist das Einsparpotenzial nicht unerheblich. Jeder, der seine GPU undervoltet betreibt und mal die Verbräuche verglichen hat zu stock, wird mir da sicherlich zustimmen.
 
Perfekt. Das hat mich nochmal auf einige Dinge aufmerksam gemacht, die mir halfen meinem System den nötigen Feinschliff zu geben. DANKE :banana:
 
Ich habe die letzten Tage wieder viel mit Testen verbracht. Erstmal nur das alte PBO-Profil (+100/ -19) vs. das neue (-500/ -24/ -131mV). Wie immer habe ich die Ingame-Benchmarks jeweils viermal laufen lassen, damit ich nicht zufällig einen Ausreißer messe und die Genauigkeit erhöhe. Gleichzeitig habe ich auch jedes Spiel in beiden Profilen gespielt, um über Temperaturentwicklung, Taktraten, FPS usw. was sagen zu können. So sehen die Gaming-Ergebnisse aus:

Gaming POB +100 vs -500.jpg


Einige Dinge muss ich zu dem Chart noch ergänzen, damit man es besser ins Verhältnis setzen kann. Da ich keine Competitive-/ Online-Shooter-Games spiele, gebe ich mich meist schon mit 130 FPS zufrieden. Darauf stelle ich auch in etwa meine Grafik-Settings ein + FPS-Cap. Jetzt im Testing habe ich das teilweise auch gemacht, sofern das über die Ingame-Einstellungen möglich war, aber HWinfo hat immer die richtigen Werte dafür ermittelt. Ist jetzt auch nicht sonderlich schlimm, da ich in allen Testläufen darauf geachtet habe, dass ich immer das gleiche Preset im jeweiligen Spiel verwende.

SotTR hat ein deutlich höheren GPU-Load, sobald man RT-Schatten aktiviert. Mit RT-Schatten off, pendelt sich die ASIC Power auf ca. 170w ein. Joa, knapp 40w mehr für ein bisschen Schatten-Effekt -.- Nicht so ein toller Deal. Zumindest bei der 6900XT. Gut möglich, dass das Nvidia besser macht (im Bezug auf RT-Leistung zum Mehrverbrauch).

CP2077 geht da in eine ähnliche Richtung. Im Preset Ultra mit RT läuft meine GPU trotz UV direkt ins 289w-Powerlimit. Deshalb hab ich mich bei CP2077 dazu entschieden, das Game in dem Setting zu testen, mit dem ich das Spiel auch tatsächlich spiele. In meinem Fall ist es das Ultra Preset, RT aus, FPS-Cap bei 130 und FSR auf Auto (sind mal eben 150w auf der GPU weniger!). Ich will da auch keine Raketenwissenschaft draus machen, zumal das Testen und Benchen der ganzen Spiele schon enorm Zeit frisst und eine absolute Vergleichbarkeit durch verschiedene Faktoren wie unterschiedliche Hardware, Treiber, Kühlung, UV-Werte etc. ohnehin nicht gegeben ist. Dennoch versuche ich immer so genau und fair zu testen wie es mir möglich ist, sodass man in etwa abschätzen kann, wo die Reise hingeht, wenn man die Profile bei der Ryzen CPU anlegt.

Ansonsten zeichnet sich im Gaming immer ein ähnliches Bild ab. Das -500 Profil spart im Durchschnitt zwischen 40w und 25w und reduziert die CPU-Temperaturen um ca. 10-15°C. Das ist schon ganz ordentlich, aber auch irgendwo zu erwarten, wenn man die Vcore-Werte vergleicht. So'n bisschen Sorgen macht mir der Effective Clock im Vergleich. Möglicherweise ist es im UV-Profil ein Hinweis darauf, dass die CPU zu stark undervoltet wurde und er deshalb minimal geringer ausfällt. Vielleicht den DVO nicht ganz so hoch setzen, müsste ich mal testen. Im Gaming läuft das Profil sonst Top. Keine Abstürze, Slow-Downs, Ruckler/ Freezes oder sonst was. Was den Takt betrifft, so habe ich mich bereits im vorherigen -Beitrag- dazu geäußert und orientiere mich grob am 5800X3D. Evtl. könnte man das Profil um 100 MHz noch erhöhen.

Hier noch mal die ganzen Benchmarks. Verwendetes Profil steht nochmals in den Bildern:


Cyberpunk 2077: PBO +100/ -19 vs. PBO -500/ -24- 131mV
CP - BM +100 4.jpg CP - BM -500 4.jpg


Forza Horizon 5: (erstes Bild Grafikeinstellungen)
FH Preset.jpg FH -BM +100 4.jpg FH - BM - 500 4.jpg
Keine Ahnung, warum das PBO +100 Profil hier schlechter ausfällt


Ghost Recon Breakpoint:
GR - BM -Ultra +100 4.jpg GR - BM -Ultra -500 4.jpg

SotTR:
TR - Preset Ultrahoch.jpg TR - BM +100 4.jpg TR - BM -500 4.jpg
 
Die letzten Tage habe ich ein wenig weiter getestet. Hatte gehofft, dass die CPU vielleicht mal kotzt, aber das System läuft scheinbar stabil. Mehrere Stunden (15h+) AC Valhalla, einige Stunden CP2077 und einige Durchläufe in CB R23 liefen völlig problemlos + alltäglich Nutzung (Browsing, Musik, Office etc.). Einige Sachen sind mir dennoch aufgefallen, aber alles der Reihe nach. Zunächst mal die Logs:

Game Test.jpg


Die Korrelation zwischen Dynamic Voltage Offset und durchschnittlich gehaltene Vcore ist relativ eindeutig. Von gar keinem DVO (Log 9.) bis -150mV (Log 18.) sinkt dieser immer weiter ab, je größer das Offset wird, auch wenn die Last (erkennbar an FPS) darüber entscheidet, welcher Eff. Clock im Zusammenhang mit Vcore angelegt wird und welcher Verbrauch daraus resultiert. Im Log mit den beiden Dungeons, wo deutlich mehr Bilder gerendert wurden, sieht man das ganz deutlich. Es wird etwas mehr Leistung von der CPU gefordert, als wenn ich in der offenen Welt rumlaufen, wo ich überwiegend im GPU-Limit sitze.

Mit'm festen FPS-Cap sinkt die CPU-Last nochmals ein Tick weiter. Ein Verbrauch von unter 70w ist damit kein Problem, allerdings kommt man bei der CPU langsam an einen Punkt, wo man kaum noch einen Kühlungsvorteil herausholt. Ich hatte in dem Setting auch CP 2077 mehrere Stunden ausprobiert, weil dieses Spiel deutlich mehr CPU-Last erzeugt (vergleiche Eff. Clock & Verbrauch). Hatte irgendwo gehofft, dass die CPU aufgibt und das System crasht, aber alles lief einwandfrei durch. Der ein oder andere Ruckler war wohl im Spielbetrieb da, aber schwierig zu sagen, ob es von dem CPU-Setting kommt oder einfach dem Spiel selbst geschuldet ist. Wahrscheinlich zweiteres, weil ich auch im +100/ -19 Profil einige wenige Ruckler hatte. Jedenfalls nichts, was den Spielspaß beeinflusst. Ich denke, wenn man sowas testet, achtet man da einfach sehr besonders drauf.

Wo ich aber definitiv ein äußerst starkes Ruckeln feststellen konnte, war der Energiesparmodus + GPU Stock. Hatte zu Spielbeginn vergessen, meine Spiele-Settings (Ausbalanciert + GPU UV-Profil) anzulegen. Allgemein hatte ich das Gefühl, dass die GPU mit dem Stock-Profil nicht so geschmeidig läuft, wie mit dem UV-Profil, aber das müsste ich im Detail vielleicht noch austesten, um darüber eine fundierte Aussage machen zu können. Andererseits interessiert mich das nicht so wirklich, weil ich eine GPU niemals im Stock-Profil benutzen würde. Vielleicht höchstens für'n Time Spy Run, aber nicht für daily Gaming.

Aus Neugier habe ich auch CB R23 getestet. Wollte einfach mal wissen, wie stark die Leistung durch das UV tatsächlich beeinflusst wird. Zumal hier viele CB als Bewertungsmaßstab zum Vergleich nehmen. Für alle CB-Durchläufe habe ich die Lüfter/ AIO voll aufgedreht, da ich den Faktor Temperatur ausklammern wollte. Das wäre zwar bei 142w PPT nicht wirklich ein Problem gewesen, aber so konnte ich sicher sein, dass der Takt über die gesamte Länge voll gehalten wird und wenn überhaupt, nur das Powerlimit die CPU ausbremsen würde. Getestet hab ich das +100/ -19 Profil und das -500/ -24/ -150mV:


CB R23 Vergleich.jpg

1653080634391.png


In beiden Tests hatte ich auch HWinfo laufen und nur die reinen Bench-Werte geloggt. Vergleicht man den durchschnittlichen Eff. Clock, überrascht es kaum, dass der Score so nah beieinander ausfällt. Demnach arbeitet das UV-Profil (in diesem speziellen Benchmark) deutlich besser, weil es relativ weit ausfahren kann, ohne ins Powerlimit zu rennen. Die Differenz vom Nominal- zum Eff.-Clock ist im UV-Profil deutlich geringer/ besser. Ich vermute, dass das UV-Profil, entweder durch CO oder DVO oder beides, minimal zu stark ist und der Eff. Clock etwas abfällt. Bis 142w hätte ich aber noch Spielraum, um das etwas UV zu reduzieren, aber dennoch im PL zu bleiben. Das +100/ -19 PBO-Profil läuft mit 1,48v Vcore natürlich direkt ins PL und reizt problemlos ein 200w Limit aus. Deswegen ist dort die Differenz so hoch.
 
Danke für die ausführlichen Analysen @Induktor :)

Habe bei meinem System einen ähnlichen Sweetspot gefunden. Bei mir sind es für den 5900X -500 MHz Offset, -25 CO (auf allen Kernen) und aktuell 3200 MHz RAM (bei 0,9V SOC). PBO Limits sind auf Stock. Das Ganze klappt bei geringer Teillast erst anständig mit einem alternativen Energiesparplan.

Wie du auch herausgefunden hast, klappt der Windows-Energiesparplan nur so semi-gut. Das lässt sich etwas steigern (zumindest bei Win 10), wenn man den minimalen Takt etwas hochsetzt (80% bspw.), was aber wiederum die Effizienz bei sehr geringer Last beeinträchtigt.

In meinem Fall nutze ich nun den sz V4 aus dem CB. Hier allerdings zusätzlich den minimalen Takt auf 0% festgelegt, um bei sehr geringer Last noch etwas rauszuholen.

Resultat bei mir:

Idle (ohne Stream): ~20W Package, beim Browsen/YT ~25W Package
Niedrige Last (Rocket League Vsync/ 2D Games): ~35W Package

Bis dahin läuft alles idR bei 2,2 GHz 0,9V

Mittlere Last (BFV Vsync/GPU Limit): 50-60W (Takt zwischen 2,2 und 3,6 GHz)
Hohe Last (BFV CPU Limit): 90-100W (4,45 GHz ~1,17V)
Sehr hohe Last (R23/CPUZ Multi): ~130W (4,3-4,45 GHz)

Hab da mal eben ein paar Sachen in ein Video gepackt:


Als alternatives Setup hab ich bei mir 0 MHz Offset, 0 bis -15 CO auf den Kernen und den 65W-TDP Eco-Mode (88W PPT). Dazu dann 3800 MHz RAM bei ~1,07V SOC. Das läuft dann allerdings in quasi allen Spielen mit mind. 60W, in den meisten Spielen konstant im 88W Limit. Nur Idle und sehr geringe Auslastung lässt man eben sehr viel Effizienz auf der Strecke. Hatte auch mal länger 3600 MHz RAM bei 1V SOC, aber da Uncore-OC ab 1600 IF fix enabled wird, macht das quasi keinen Unterschied zu den 3733/3800 MHz RAM.
 
Zuletzt bearbeitet:
Habe bei meinem System einen ähnlichen Sweetspot gefunden. Bei mir sind es für den 5900X -500 MHz Offset, -25 CO (auf allen Kernen) und aktuell 3200 MHz RAM (bei 0,9V SOC). PBO Limits sind auf Stock. Das Ganze klappt bei geringer Teillast erst anständig mit einem alternativen Energiesparplan.
Zunächst einmal, vielen Dank für deinen Input. (y) Tatsächlich hatte ich vor kurzem (endlich mal) einen BSOD in AC Valhalla. Jedoch kann nicht mit absoluter Sicherheit sagen, dass das dem UV geschuldet war, weil das Ragnarök-DLC hier und da schon gut verbuggt ist. Hab das Setting jetzt mal auf -22 im CO gestellt und beobachte das ganze erstmal weiter. Wirklich viel getestet habe aber noch nicht, da ich mich momentan noch im Urlaub befinde und nur meinen Lappy dabei habe.


Wie du auch herausgefunden hast, klappt der Windows-Energiesparplan nur so semi-gut. Das lässt sich etwas steigern (zumindest bei Win 10), wenn man den minimalen Takt etwas hochsetzt (80% bspw.), was aber wiederum die Effizienz bei sehr geringer Last beeinträchtigt.

In meinem Fall nutze ich nun den sz V4 aus dem CB. Hier allerdings zusätzlich den minimalen Takt auf 0% festgelegt, um bei sehr geringer Last noch etwas rauszuholen.
Mit den Energieoptionen im jeweiligen Powerprofil wollte ich mich noch ohnehin auseinandersetzen. In meinem Gaming-Notebook habe ich ein Ryzen-7 5800H verbaut und da ist das ein wichtiges Thema, mit welchem Settings man da fährt. Darüber hinaus lassen sich dort noch weitere Funktionen (Leistungssteigerungsmodus) freischalten. Falls dich das Thema interessiert, kannst du gerne einen Blick in den -Legion-Thread- werfen. Im Startbeitrag unter Punkt 3.3 und 3.7 gehe ich detailliert auf das Thema ein. Ich gehe davon aus, dass das bei den Desktop-CPUs nicht allzu anders sein sollte.


Sehr hohe Last (R23/CPUZ Multi): ~130W (4,3-4,45 GHz)
Das Thema hatte ich vor dem Urlaub noch kurz getestet. Wenn man in dem -500 Profil den Effective Clock voll anliegen haben möchte (nur für CB interessant), muss man das TDC/EDC-Limit etwas erhöhen. Dann steigt der Effektive-Takt fast auf den Nominal-Takt an und haut auch mehr Punkte raus.


Als alternatives Setup hab ich bei mir 0 MHz Offset, 0 bis -15 CO auf den Kernen und den 65W-TDP Eco-Mode (88W PPT). Dazu dann 3800 MHz RAM bei ~1,07V SOC. Das läuft dann allerdings in quasi allen Spielen mit mind. 60W, in den meisten Spielen konstant im 88W Limit. Nur Idle und sehr geringe Auslastung lässt man eben sehr viel Effizienz auf der Strecke. Hatte auch mal länger 3600 MHz RAM bei 1V SOC, aber da Uncore-OC ab 1600 IF fix enabled wird, macht das quasi keinen Unterschied zu den 3733/3800 MHz RAM.
Beim Thema RAM-Takt und SOC-Verbrauch bin ich mir noch unschlüssig. Einerseits läuft mein 3800 MHz Profil stabil und zuverlässig, anderseits empfinde ich den SOC-Verbrauch von knapp 23w als zu hoch. Nach Möglichkeit möchte ich nur den Verbrauch senken, ohne nennenswerte Leistungseinbußen haben. Das Einsparpotenzial auf 3600 Mhz (1800 IF) ist nicht wirklich lohnenswert (von dem, was ich bislang gesehen habe + dein angesprochener Punkt) und auf 3200 MHz möchte ich nicht unbedingt runter, da ich davon ausgehe, dass der Leistungsunterschied zwischen einem guten 3800er und einem 3200er Profil mehr oder weniger deutlich vorhanden sein müsste.
 
Sprich, dass die CPU sich auf ein Minimum runtertaktet und Strom (Wärme) spart, wenn sie nichts zu tun hat. Stattdessen hockt sie weiter bei 3,xxx MHz und verschwendet sinnlos Strom.
Ohne Last hast du da keinen Verbrauch, was auch immer da mit der Effective Clock passiert, händisch eingestellte 4gHz sind bei mir mit dem 2600X sowie mit dem 2700X zumindest im IDLE effizienter als Basistakt 3,7gHz und Turbo und PBO.
An sich ist das mit dem "Minimum" 90% garnicht so falsch von AMD im Ryzen balanced, demnach.
Macht ja auch Sinn, ist nix zu tun, wird nicht geschalten (im Takt) also fliesst auch kein Strom und das bisschen Last was da ist, das wird natürlich mit weniger Schaltfunktionen mit mehr Takt schneller erledigt und dazu dadurch mit weniger Stromverbrauch. (Worauf du da ohne Last drauf hinaus willst, das gilt für die Grafikkarte, nicht aber für die CPU)

Im GPU-Limit kann man ganz klar bei mir bei Shadow of the Tomb Raider oder auch Control sehen, 4gHz feste Taktrate, feste Spannung zieht weniger als AMD Vorgabe PBO, oder noch schlimmer PBO mit Board-Limits.

Was mich an PBO mit AMD Vorgaben immernoch nervt ist dann aber, das der IDLE eben nicht so runterkommt zum einen, zum anderen 4gHz an sich keinen Leistungsverlust hervorrufen der da irgendwie Sinn macht, vorallem nicht wenn man den Verbrauch dazu im Vergleich sieht.

SoC hat bei mir im Gegenzug zu deinem dann doch etwas mehr gebracht, sieht man im IDLE-Thread
2600X bekam ich auf 55Watt runter, teils 52~3, mein 2700X den krieg ich auf 59 Watt IDLE runter.

Wie du selbst schon schreibt, CPU's sind unterschiedlich, da heisst es Testen.

Gruss Dennis
Beitrag automatisch zusammengeführt:

einige Durchläufe in CB R23
Dazu kann ich dir aus Erfahrung sagen, wenn du den Multithread 10 Minuten überstehst, reicht das dicke aus um zu wissen das ein Takt bei einer Spannung X stabil ist für den Alltag.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh