[Sammelthread] AMD Radeon RX 6000 Undervolting - Thread (Auf der Suche nach dem Sweetspot)

Hi@all!

Ich habe im "Offizieller AMD [[ RX6700 // RX 6700XT // 6750XT // X6800 // 6800XT // 6900XT // 6950XT]] Overclocking und Modding Thread [[ Wakü - Lukü - LN2]]"

Einen Post geschrieben bei dem mich @ApolloX hier in diesen Thread verwiesen hat.

#27777

Da ich aktuell etwas Zeit habe, würde ich gerne etwas "tiefer" in den Bereich UV einer 6900XT eintauchen.
Mein Ziel etwas mehr an Leistung in den Bereichen zu erreichen, in den ich MPT bisher nicht verstehe und ich deshalb dort nichts eingestellt habe.

Das hier sind meine aktuellen Einstellungen:

6900XT 28.10.2023.jpg


Das ich hier nichts neu schreiben muss wäre es vielleicht nett wenn ihr den oben verlinken Post anschauen könnt.

Was kann ich alles verändern um noch etwas mehr Leistung zu generieren?

Kein Bench das soll 24/7 stabil dann sein.

Gruß
Mehlstaub
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei 300W willst du bzgl. Verbrauch bleiben?
 
Danke @ApolloX das du dich gemeldet hast!

Die 300 Watt werden in keinem Game erreicht.

CP2077 sind es maximal 265 Watt oder Diablo 4 > 245 Watt. (2500 MHz / 1100mV)
Ich setzte mir da im Kopf kein Limit, wenn man das so sagen kann.

Wenn 2620MHz und 1175 klar dann kann die Karte auch 340+ Watt ziehen,
wenn ich das Powertarget hoch setzte, aber das Quark, weil einfach nicht mehr Kühlbar :d

Denke so um die 270 Watt maximales PT, möglichst effizient wäre so das was angepeilt werden kann/sollte.
In dem Bereich ist die Kühlung von der Lautstärke für mich noch ok und nicht zu laut.

Dabei würde ich eben paar mehr Settings verstehen lernen, was sie tun, wie man sie einstellt, was sie bewirken etc.
Gerne auch mit Diagrammen, wenn es den welche dazu gibt.

Ich hab keine Plan von:

Memory DPM (MHz) / Divider (2^n)

Ich weiß davon nur, das DPM die verschiedenen "Stages" sind, wenn man die so nennt, vom VRAM.
So weit ich weiß hat es aber auch mit dem VRAM "Timings" Memory Timings Control zu tun.
Keine Ahnung ob hier "2" irgendwie zum laufen gebracht werden kann oder nicht!
Aber was die hier speziell tun, kein Plan! :d

ULV Vmin / Offset (mV)

Minimale Spannung vom VRAM mit dem dazugehörigen Offset?


Tempaerture Dependent Vmin

Joa, Bahnhof! :d


Brauche da die Aufklärung um das Verständnis zu bekommen, was diese Einstellungen alles bewirken.

Danke für die Hilfe!

Gruß
Mehlstaub
 
Lies dich mal durch die vorherige Seite, gerne von unten und schau, was ich gemacht hab.
Du kannst die Spannungen recht weiter runterschrauben, von GPU, vom SOC und dem VRAM.
Ich bin da grad ziemlich am Minimum, ShirKhans Effizienzliste zeigt für 50W Schritte was so geht - und was man dazu einstellen kann. Aber wir haben uns dan immer Watt Target gesetzt, die wir erreichen wollten. Dein Open-Ansatz ohne Target ist ok, aber gibt irgendwo kaum Orientierung.
Setz dir mal ein Watt Target, denn nur so kannst du auch mit der Effizienzliste vergleichen, wie gut du dann per TS bist. Wennst das UV dann in und auswendig kennst, dann schreib dir wieder ne hohe Wattzahl rein und schau, ob ohne Watt Limit die GPU immer noch so effizient=sparsam ist, oder trotz UV-Beschränkungen zuviel Leistung verbrät.

Hier sind dann die Diskussionen zum Effizienthema, aber ein Großteil der Karawane ist bereits weitergezogen, sprich hat entweder RDNA3 oder spielt mit RDNA2 und interessiert sich aber nicht mehr fürs Tuning.

Guter Tipp vom Devcom war, zuerst die GPU und den VRAM zunächst in Ruhe lassen. Und wenn GPU stabil, dann VRAM ...

Kannst du das ganze auf nem Zweitsystem sicher ausprobieren?
 
Memory DPM (MHz) / Divider (2^n)
Falls Dein Vram gut genug ist für FT2, dann würdest Du im MPT DPM3 von 1000MHz auf 1075MHz ändern sollen.(und WM 2150MHz)
Bisher konnte Das nur Gurdis Asus Strix 6800xt-LC AiO ab Werk. (besonders gute Vramtemps)
(Was bei den 6950 und 6900xtxh@LC-Bios so geht ist ne ganz andere Geschichte, weil "anderes Bios= andere Timings")

ULV Vmin / Offset (mV)
GFX ist gemeint, ... min Werte auf dem Desktop o.ä.
Die meisten User ändern das Offset nicht mit, k.A. obs dann schlechter läuft. Ich habs bei mir mal markiert.(siehe Anhang2)

Temperature Dependent Vmin
Primär mit h2o gerne fürs Benchen genutzt um die Volt weiter anzuheben (siehe Apollos Guide)
Evtl. kanns auch beim UVen helfen stabiler zu bleiben, wenn man in TDV höhere minGFX und minSOC setzt als
oben links minGFX und min SOC. (somit passt bei Dir Default schon ganz gut, dürfte mit aktiviertem TDV stabil sein)
775 für minGFX und SOC zu TDC 800mV, obs bei GFX noch weiter runter gänge =testen, SOC erstmal safe lassen
Generell sagts ja schon der Name = temperaturabhängig, also nur so richtig nützlich@h2o oder Air<200W@50...60°C.
je nach Temp sollte sich theoretisch der Wert ändern (wie bei nem F1-Auto der Heckflügel auf der Geraden oder Kurve)
ändert sich aber nicht schlagartig sondern mit Verzögerung=Hysterese, sonst würde es an der Grenze zu wild springen

Bringt es etwas diese 1950MHz auch beim Memory Access at Last Level einzutragen?
vermutlich nicht, bisher hat nur Einer gesagt, das es Ihm hilft, ... konnte Keiner so nachstellen
Vermutlich ist das eher der Wert fürs Auslesen des Framebuffers und schicken des Bildes an den Moni.
(könnte man reduzieren bis @1200MHz irgendwann 4k-HDR-Videos nicht mehr sauber laufen)


Bei allen Werten wirds immer mal Ausnahmen geben, wo sehr gute Chips etwas besser können.
 

Anhänge

  • FT2.jpg
    FT2.jpg
    54,9 KB · Aufrufe: 135
  • ULV Offset.jpg
    ULV Offset.jpg
    32,3 KB · Aufrufe: 141
Zuletzt bearbeitet:
Ok, ich lese mir mal ein paar Seiten hier genau durch.

Vielleicht bekomme ich so einen Zusammenhang im Kopf :d

Danke!
 
Gut, denn den genauen Zusammenhang hab ich leider auch nicht im Kopf.
 
Hi@all!

So ich hab mir den kompletten Thread hier gegeben,
dies hat mehr als 4h gedauert, aber ich war standhaft und habe viele Fragen!

Warum sollte man „versuchen“ den SOC-Takt an den effektiven Ram-Takt zu „koppeln“?

Ich habe da viel getestet und konnte da keine Verbindung feststellen.
Es hat mich keine Leistung gekostet, wenn ich z. B. den SOC-Takt auf 1000MHz
und den Ram-Takt auf 2100MHz also 2088MHz effektiv gesetzt habe.

1044 SOC-Takt und 2088MHz effektiver Ram-Takt war somit nicht „besser“ also schneller,
es hat den TS-Score nicht verbessert.

Effektiver Ram-Takt / 2 kann ich somit nicht bestätigen!

Placebo-Effekt? Hat man ein besseres Gefühl es zu tun „Auf jeden Fall!“

Was ich aber sehr wohl festgestellt habe, ist das SOC-Takt unter 1000MHz dann relativ viel Leistung „verloren“ geht.
Also halte ich es für mich so, dass ich 1000MHz SOC-Takt mit möglichst geringer Spannung in meinem Fall 987mV laufen lasse,
hier bin ich noch am Ausloten.
Wie hier im Thread schon geschrieben wurde, sollte man da wohl schauen wie sich die Frame-Times in Games verhalten,
daher werde ich das im Auge behalten.

Somit erst niedrigste SOC-Spannung testen, dann Frame-Times testen und schauen wie es sich verhält.

Thema DRAM-Takt / RAM-Takt! Auch hier hab ich viel experimentiert.

Ich habe hier das komplette Taktband von 2000-2150MHz in 25MHz Schritten mit dem MrH Benchmark
und dort den Memory-Copy-Test ab-gebencht und konnte hiermit nicht feststellen,
ab welchem Takt die Fehlerkorrektur mehr und mehr eingreift.
Der Benchmark wurde immer schneller abgearbeitet bis 2150MHz.
Somit komplett nicht zu gebrauchen.

Der TS-Grafikscore wurde bis 2120 MHz immer höher, dann fiel er langsam ab.
Also werden wohl so um die 2110 - 2120 MHz mein Sweetspot sein, somit nutze ich 2116 MHz.
VDDCI 675mV und 1250 MVVD, da werde ich auch nochmal etwas herumexperimentieren / reduzieren.
MEM_VDDCI_Scaling und MEM_MVDD_Scaling auf off ist für mich hier nicht interessant.
Da ich DPM 0 mit anderen Spannungen laufen lasse als DPM 1 +2 + 3, die die gleichen Spannungen haben.

FCLK-Takt mit Verbindung zum SOC-Takt und SOC-Spannung konnte ich nicht feststellen.
Ab 1970MHz FCLK-Takt wird es instabil bei mir, ganz egal, ob die SOC-Spannung auf 1150mV,
was Standard ist oder 1000mV liegt.
1940MHz ist der „Stock/Standard“ Wert und bringt keine Mehrleistung es zu erhöhen.
Eher mehr Stabilität es leicht zu reduzieren.
Ich fasse FCLK nicht mehr an. :d

Thema Powerlimit und Spannungs-Offset im Wattman

Mit fest eingestelltem Powerlimit und so geringer Chipspannung sind das Offset nach meine Meinung komplett egal,
der Chip läuft immer zu 100 % mit der gleichen Spannung im 3D.

Wie GerryB geschrieben hat, wird das PL wohl besser ausgereizt und somit erhält man mehr effektiven Takt.
Das bezieht sich auf ein fixes Powerlimit bei der die Chipspannung mehr „variieren/angepasst“ werden muss.
Erst ganz am Ende meiner Tests werde ich wohl ein Powerlimit setzen,
dies wird aber so um die 255 Watt liegen, was selbst im Port Royal oder TimeSpy Extreme niemals erreicht wird.
Somit von keinem aktuell Game, Cyperpunk 2077 zieht bei meinem aktuellen Test maximal 230 Watt
und das Game gehört zu den grafisch aufwendigsten aktuell.

Dabei gehe ich stark davon aus, wenn die Grafikkarte die Chipspannung per Offset eher regeln muss,
dass die Frame-Times in Games schlechter werden, als mit „statischer“ Chipspannung.
Es ist davon auszugehen, beweisen kann ich es nicht!

Thema Deepsleep aktiviert oder deaktiviert.
Es bringt im Idle ein paar Watt die DS aktiv zu belassen, mein System ist zocken only.
Daher hab ich alle DS, deaktiviert, auch hier gehe ich von leicht besseren Frame-Times am Ende aus.

Nachwort:

Ich bin jetzt an einem Punkte des Tunings angelangt, das sehr nahe am Maximum ist.

Ich kann bequem von 21600 TS Grafikscore hoch zu 22400 je nach Profile.
Die Profile passe ich an die "Gameing Last" des jeweiligen Games an
und habe für jedes Game ein eigenes Profile für das MPT und Wattman.
Ich zocke Games immer mit Frame-Limiter und so wird das ganze brauchbar vom Verbrauch des gesamten PCs.


Denke das ich die Grafikkarte sicher von jetzt ab noch locker 2-3 Jahre haben werde.
Daumen Drücken das Sie so lange lebt! Auf Holz klopf! :d


Ich bedanke mich bei euch allen!



3DMark.jpg


Treiber.jpg


Gruß
Mehlstaub
 
Zuletzt bearbeitet:
Regel ist vielleicht das Falsche Wort, würde ehr sagen die "Theorie" aufgestellt.
Ganz an Anfang diese Threads war es glaube ich GerryB der das mal geschrieben hatte.

Btw, bin gerade an einem Profile dran mit 2500MHz Chip und 1063mV Chipspannung
das dann als Offset im Wattman mit 1000mV und maximalen PL von 255-260Watt.
Damit würde ich auf einen Schlag alle meine Games abdecken, ohne das ich Profile ändern müsste.
Mal sehen ob es stabil gelingt! :d

Gruß
 
Deshalb "Regel" ja auch in Anführungszeichen. Der Kollege beschreibt beim Grafikkarten-Tuning öfter mal Muster und Zusammenhänge, die nur er allein erkennt. Der Versuch, Ordnung ins Chaos zu bringen und Kontrolle über das Unkontrollierbare zu erhalten ist ein natürlicher Impuls des menschlichen Gehirns, insofern nachvollziehbar. Nur schert sich die Physik in Grafikkarten leider nicht um Grundrechenarten und unseren Wunsch nach Einfachheit.
 
Zuletzt bearbeitet:
"Nur schert sich Grafikkartenphysik leider nicht um Grundrechenarten."
Oder um Dinge die sich nur im Menschlichen Gehirn abspielen! :d

Myth busted
 
Gerry hat sich viel mit UV beschäftigt, als wir mehrheitlich im OC Rausch waren. Aber da hat er einiges hypothetisiert, was sich dann irgendwo wie beim OC auch, nicht verfestigt hat. Ich würd mal so sagen, je weiter nach vorne man in dem Thread geht, umso frühzeitlicher werden die Erkenntnisse. Und auch mal wieder die Chiplotterie...
Systematischer wurde es dann mit der Effizienzliste, weils dann mal klare Kritierien gab, welche Werte fix (Leistung) sein müssen, um Vergleichbares zu erzeugen.

Das mit SOC an RAM (VRAM oder?) wie soll das gehen, die Takte sind ja nicht konstant, sondern je nach Last, oder? Also ohne auf mehreren Karten reproduzierte Ergebnisse und ner Anleitung wie es geht, wäre ich da jetzt auch skeptisch. Aber ich geb zu, ich hab den Thread hier nicht komplett, sondern nur sporadisch gelesen.

Ich hab ja ganz lange mit meiner 6800 XT auf Gurdis Tipp hin (war ein Headliner beim Igor) "beim SOC Energie gespart ums sie der GPU zur Verfügung zu stellen", sprich SOC immer nur ganz wenig über der Tausend, egal ob mV oder MHz. Ich war dann oft bei 1030 MHz/mV und hatte damit bei der 68XT meine besten Ergebnisse. Aber wenn ich beim SOC unter 1000 ging, dann hat der Time Spy nicht mehr gepackt. Ich denk aus der Erfahrung, dass man GPU und SOC nicht genau gleich behandelnt kann, aber was das exakt fürs UV heißt, kann ich auch nicht präzisieren. (Immerhin nicht ganz ne Einzelerfahrung, weil Gurdi da ja dasselbe vorgeschlagen hat)

Wenn du bis 2150 MHz VRAM keinen Einbruch beim MrH hast, dann sagt das, dass bei verwendeten Timings bislang keine starke Fehlerkorrektur aktiv wird - nicht, dass der Test nicht brauchbar wäre. Zudem gibt es ja doch viele Karten, welche diesen Takt voll ausfahren können. Welche Timings hattest du? S sollt fast immer gehen. FT1 werdens etwas weniger und FT2 im vollen Tak werdens dann schon merklich weniger - und dort oben braucht der VRAM Feuer, das ist dann also wohl weniger was fürs UV. Aber unter FT2 wirst dann irgendwann Einbrüche haben. Und jetzt ist noch die Frage, welche Last legt der MrH an - der ist ja auch nicht für alles repräsentativ, aber mir gibt er immer ein Gefühl, im welchem Bereich es spannend werden kann. Denn wenn ich ne neue Karte benche (Radeon HDs in der Regel), dass will ich nicht in kleinen Schritten durchtesten, sondern stell so in 100er Schritte und schau zuerst, wie die sich im MrH verhält.

Und ... AFMF kann nochmal einiges verändern, wenn du damit plötzlich viel mehr FPS hast, als dein Monitor überhaupt kann ;-)
 
Joa man hat gemerkt das am Anfang vom Thread die Euphorie schon da war, was normal ist, man ist da auch etwas übereifrig.
Was ja schön ist, ich mag sowas, etwas neues austesten Erkunden, voll geil!

Ja den SOC auf der Grafikkarte.
Ich suche da wirklich einen Benchmark, der dem SOC so richtig Feuer gibt, habe nichts gefunden der ihn zu 100% voll belastet.
TimeSpy Extreme ist so das "höchste" was ich finden konnte.

TDC > 55 Ampere SOC sind dann 44% Auslastung laut HWInfo.
Vielleicht ist das Limit ja bewusst weit drüber
(Also vom Hersteller, damit auch die "Spikes" nicht oben abgeschnitten werden),
so das die 44% dann in Wirklichkeit 100% des maximal möglichen sind.
Mich würde aber schon ein Benchmark interessieren, der vielleicht über die 44% geht.
Ich hoffe man versteht mich wie ich das meine. Sorry, kann es nicht besser erklären!
MrH > Texture und Memory Copy sind mit das was auch den SOC am meisten Quält,
nur ob das als Stabilitätstest ausreicht weiß ich nicht! :d

Den DRAM-Takt und die Timings hab ich auch viel getestet.
Aktuell 650mV VDDCI und 1200mV MVDD mit 2116MHz > 2104MHz effektiv, läuft komplett sauber.
Fehlerkorrektur greift ab 2126MHz ein, daher zwei Stufen "zurück" 2120 > 2116.
Muss ich aber noch Langzeit testen! Also noch nicht 100% "Safe"!

FT2 geht überhaupt nicht, hab hier 900mV VDDCI und 1450mV MVVD bei 2100MHz getestet.
Komme damit zwar ins Windows, aber beim Benchmark ist sofort aus.

Bin aktuell weiter an einem neuen Profile dran! Ich hab meinen Spass! :d

Edit: 650mV VDDCI und 1200mV MVDD sind nicht ganz stabil, 675 und 1225 weiter am testen!

Gruß
 
Zuletzt bearbeitet:
GPGPU ist eigentlich der Klassiker unter den Messungen für Vram
memory copy sollte zeigen wie gut die Einstellung ist für die gemittelte Transferrate über verschiedene Blockgrößen
(leider zu kurz für nen Stabilitätstest)

btw.
Es gab natürlich auch schon einen User, der hat TSE+MrH gleichzeitig laufen lassen, um mehr Last auf den SOC zu bekommen.
(wollte sehen, ob die Volt für den SOC auch im Extremfall reichen)
 

Anhänge

  • AIDA-GPGPU.jpg
    AIDA-GPGPU.jpg
    76,8 KB · Aufrufe: 74
Zuletzt bearbeitet:
"Es gab natürlich auch schon einen User, der hat TSE+MrH gleichzeitig laufen lassen, um mehr Last auf den SOC zu bekommen."

Kenn ich den, weiß gar nicht was du meinst! 🤪

AIDA schau ich mir auch noch an, jopp!
 
Stimmt, der Aida hat auch nen Benchmark, wo man Module weg- und dazunehmen kann, da kann man einzelne Teile auch richtig quälen.
 
MrH hat den Vorteil, das man bis zu 240min einstellen kann und das als Hintergrundlast beim Spielen den SOC zusätzlich stresst.
(wenn man neugierig ist, halt mal 10min mitlaufen lassen)

Exzesse ala TSE-Dauerloop+MrH-240min müssen vllt. nicht unbedingt sein.
(der WLP zuliebe)
 
Guten Abend!

So, ich habe weiter gemacht und bin immer noch voll zufrieden wie sich alles entwickelt hat.

Maximal 1100mV GFX in MPT somit auch WM das Offset ist 75mV also 1025mV im WM.

Das Powerlimit habe ich auf 250Watt gesetzt, jetzt kann ich + 4% und bis runter -12% gehen.

]<---- 220Watt -12%----- 250Watt (0) -------260Watt +4---->[

Somit kann ich je "Game-Last" schön das per PL etwas erweitern oder begrenzen, so das die Lüfter nicht zu laut werden.

Des weiteren habe ich sämtliche für mich wichtigen mV zu MHz Chip Stabilen Bereiche getestet, viele viel Stunden.

Im MPT gehe ich immer 5 MHz je Ergebnis als "Sicherheitsabstand" runter.
Real sind ja um die 60MHz weniger "effektiv".

1100mV > 2570MHz stabil
1081mV > 2535MHz stabil
1075mV > 2525MHz stabil
1063mV > 2500MHz stabil
1043mV > 2470MHz stabil
1025mV > 2445MHz stabil
1000mV > 2420MHz stabil

Bin wie gesagt voll zufrieden, nur schade das ich nicht mehr weiter runter konnte mit der VDCCI und MVDD.

6900XT 04.11.23.jpg



Gruß
Mehlstaub
 
Also hat Deine Air-Graka nur ca. 10W mehr gebraucht als die 6900-LC von Apollo für den selben Score.
Das ist nicht schlecht, da wird ein Teil der 10W für die wärmeren Spawas draufgehen.
Das UVen vom SOC hat ja richtig gut bei Dir gefunzt.(besser als der Durchschnitt)
Schade das der Vram nicht mit weniger V auskommt, da sind normalerweise die 6900er erstaunlich gutmütig.
(könnte vllt. auch an der Temp. liegen)

btw.
Das finde ich ja Klasse, rein zufällig habe ich auch mit WM-Vram=2058MHz getestet, aber das hatte andere Gründe.
(ich wollte mal SOC x 3 > eff.Vram-Clock probieren, ... ist etwas special, ala Mining, ... geht nur sinnvoll bei der nonXT)

Dafür habe ich extra den SOC= 683MHz gesetzt und den Lclk auch mal mit 683MHz betrieben.
(Lclk ala Sylwester, der hatte herausgefunden, das bei alten Boards mit PCiE 3.0 mehr geht)

Mein Vram ist auch nicht der gute UVer, daher zufällig ähnliche Volts wie bei M.
In Summe SOC+Vram wurden <30W im TS verbraten.(siehe HWinfo)
Damit blieben für mein 24/7-Setting@112,7Wtgp ca. 83W für den GPU-Core nutzbar.
(die Maxima treten sicherlich nicht gleichzeitig auf)

z.Vgl.:
In MrH wurden deutlich mehr W für SOC+Vram genutzt.(>40W)
Der GPU-Boosttakt ist hier höher gewesen als in light Games erreichbar.(für das 24/7 Setting)
2171MHz@850mV im MrH vs. 1910MHz@785mV im TS vs. 2160MHz@848mV im Gravity
(die MrH-Scores würde ich nicht auf die Goldwaage legen, weil putzigerweise
die Memory-Ergebnisse mit dem GPUtakt skalieren)


edit: 4k-HDR Videos laufen auch noch mit fclkboost 633MHz bei mir
Ich hatte vergessen umzuschalten, sprich Vram lief@default FT=off, DPM3=1025x2 = 2050-12MHz.
Die 2034MHz im Screenshot Anhang4 würden immerhin noch reichen, um fclk1400MHz+fclkboost633MHz gleichzeitig
aus dem Vram auszulesen, falls das AMD so zulässt/nutzt.

edit2: der Vollständigkeit halber mal noch die W für SOC+Vram im TSE
ca. 32W ist etwas mehr als im normalen TS
 

Anhänge

  • Lclk683MHz.jpg
    Lclk683MHz.jpg
    351,2 KB · Aufrufe: 95
  • MrH.jpg
    MrH.jpg
    108,5 KB · Aufrufe: 98
  • Boosttakt@Gravity.jpg
    Boosttakt@Gravity.jpg
    228,6 KB · Aufrufe: 86
  • 4k-HDR_Hawai@YT.jpg
    4k-HDR_Hawai@YT.jpg
    1,2 MB · Aufrufe: 92
  • TSE 98W PL+15.JPG
    TSE 98W PL+15.JPG
    189,2 KB · Aufrufe: 88
Zuletzt bearbeitet:
Abend!

Ich bin auch noch fleißig am weiter testen, wenn ich Zeit finde, schreib ich das ganze vielleicht auch wieder zusammen.

Ich hab aber was ganz nettes herausgefunden, Diablo 4 ist das Game was den Memorycontroller, Speicher und SOC,
von allen Game am besten belastet. Mehr als TSE oder PR!
Dazu hat es noch den Vorteil, das es im Startbildschirm schon ausreicht für die Tests, diese sind dann auch 100% Vergleichbar.

Aber wie gesagt dazu mach ich noch Screenshots und liefere auch noch Tester-Ergebnisse,
speziell was Frametimes angeht war es eine Offenbarung für mich.

Gruß
 
Hi@all!

Update!

Ja sorry! Ich weiß das ich mit dem 6000 Radeon Tuning einfach ein paar Jahre zu spät dran bin! :d
Ich hab trotzdem meinen Spaß beim ausprobieren und dadurch meine Erfahrungsschatz zu erweitern.

Thema diesmal ist Frametimes:

Ich muss sagen, da habe mich bisher immer zu wenig darum gekümmert.

Bis ich mich jetzt mit CapframeX an das Thema gewagt habe.

Wie ich im Post weiter oben schon geschrieben habe, zum Frametimes messen nutze ich ab sofort Diablo 4.
Nicht ein Benchmark haut so dermaßen rein wie Diablo 4, was Speichercontroller und Speicher angeht!
Kein Cyperpunk 2077, Timespy Extreme oder PortRoyal!

Der Memory Controller ist immer über >95% ausgelastet, dauerhaft.
Ideal zum testen des FCLK, SOC, VDDCI und MVDD.
Das schöne ist, das kann man bequem schon im Startbildschirm testen, man muss dazu nicht im Spiel sein.
Der weitere Vorteil dadurch, man hat immer zu 100% vergleichbare Ergebnisse.
Mir ist aufgefallen, wenn man sich einen Magier erstellt, die "Grafik-Last" höher liegt als bei den anderen Klassen.
Liegt wohl am Hintergrund, der beim Magier mehr Last verursacht.

Startbildschirm Diablo 4 + GPU-Z + HWinfo

Diablo 4 Startbildschirm.jpgGPU-Z Diablo 4 Startbildschirm.jpgHWinfo Last Diablo 4 Startbildschirm.jpg

MPT vor der Frametime-Optimierung + MPT Einstellungen

Diablo 4 Frametimes nicht optimiert.jpgMPT nicht optimiert.jpg

MPT nach der Framtime-Optimierung + MPT Einstellungen

Diablo 4 Frametimes optimiert.jpgMPT optimiert.jpg

SOC 975mV war sofort instabil in 3D
SOC 981mV lief 3D aber schneller Abbruch
SOC 987mV lief stabil, aber die Frametimes Miserabel
SOC 1012mV glatte Frametimes, eine Erhöhung brachte keine weiteren Verbesserungen.

VDDCI hier war ich mit 675mV deutlich zu weit unten, was trotzdem stabil in 3D war zu jeder Zeit.
Erst mit 800mV war alles komplett "glatt" 825mV brachte hier keine weiteren Verbesserungen.

Die 0,1% lows sind ein Traum und beim zocken ein immenser spürbarer Unterschied zu vorher!

Als nächster Schritt werde ich noch mit dem FCLK etwas testen dazu bin ich noch nicht gekommen.
Aber ich glaube da muss man nicht mehr viel sagen zwischen vorher und nachher.

Was ich auch noch erwähnen muss!

Ich stelle kein Offset mehr ein im Wattman, da die 2565MHz Chip exakt stabil sind bei den 1100mV.
Der Treiber "Algorithmus" passt beim erreichen des Powerlimits zuerst den Takt an und dann die Spannung.
Heißt, wenn 260Watt erreicht sind, wird der Takt bis zu einem gewissen Punkt reduziert,
reicht dieses nicht aus, dann wird zusätzlich noch die Spannung reduziert.
Das geschieht je nach "Lastverhalten".

Wattman aktuell.jpg

Im Timespy Benchmark verliere ich so etwas an Punkten,
aber in Games gewinne ich mehr Leistung, da die Game-Last etwas geringer ist
und ich später an die 260Watt stoße und ich die 1100mV ausnutzen kann.

Noch zum einstellen von der Core-TDC und SOC-TDC.
Hier habe ich die jeweiligen Ampere-Zahlen so angepasst,
das im HWinfo ich ziemlich genau bei etwa 85% gelandet bin.
Die letzten 15% sind die "Spikes" die "zugelassen" werden.
Ich habe für mich festgestellt, wenn ich die beiden Werte auf 100% einstelle,
das zu viel an Leistung der Grafikkarte genommen wird.
Bei den 15% weniger, werden nur ganz vereinzelt die ganz "hohen" Spitzen gekappt,
was wenn überhaupt nur sehr wenig Leistung kostet.

MrH + HWinfo.jpg

Ich hoffe man hat mich soweit nachvollziehen können.

Ich bedanke mich!

Gruß
Mehlstaub
 
Noch zum einstellen von der Core-TDC und SOC-TDC. Hier habe ich die jeweiligen Ampere-Zahlen so angepasst,
das im HWinfo ich ziemlich genau bei etwa 85% gelandet bin.
1+

TDC auf 85% hatte ich auch ungefähr bei der GFX (aus dem TSE), ... nur der SOC war etwas knapp (im MrH).
Jetzt auch beim SOC ca. 85% eingestellt.(und MrH nochmal laufen lassen, ... spiked sogar minimal weniger)
 

Anhänge

  • TDC.jpg
    TDC.jpg
    175,8 KB · Aufrufe: 80
  • MrH@TDC optimized.jpg
    MrH@TDC optimized.jpg
    109,1 KB · Aufrufe: 76
Zuletzt bearbeitet:
SOC mit Texture oder Memory-Copy testen für die maximale Belastung.
 
SOC mit Texture oder Memory-Copy testen für die maximale Belastung.
Denke schon, ... weiss nicht genau, was BICUBIC bei Dir so alles von der GPU nutzt.
(ist evtl. eher sowas wie ein Reshade-Filter, oder Videokonvertierungszeug)
edit: spassenshalber mal BICUBIC laufen lassen = medium GPU-Takt mit viiiiiel Ampere = voll am TDC-Limit
(kein Wunder, das damals @Holzmann seine Graka damit gegrillt hat)
BICUBIC ist sinnlos.JPG


btw.
Zusätzlich habe ich jetzt mal noch im MPT das PL von 98W auf 107W angehoben.(=mehrTakt=mehr V= weniger A)
mit PL=-8 sinds dann wieder die 98W, aber mit PL=+15 = 123W eigentlich für den Takt schon ein open PL
in der UE5-Demo werden die W gar nicht voll genutzt
Beitrag automatisch zusammengeführt:

@RaceOwl
Konntest Du eigentlich damals in FH4 die schlechten p1-Fps auch schon im Benchmark feststellen?
(das hing auch mit zu wenig SOC+VDDCI-Spannung zusammen, ... in Post#329+354)

Dann könnte ja Jeder die FH4-demo mal zum Testen der idealen SOC+VDDCI runterladen:

btw.
Nicht das ein Teil des Problems= subjektives Empfinden auch von der Engine her rührt?
Leider kann mein Moni nur 60Hz, ... Chill57fps wird dann als 4.317 Ruckler im Benchmark bewertet.
Ohne Fps-Limit sinds dann keine Ruckler, könnte aber subjektiv unrunder laufen.
(in 8k sollten sich dann auch die 6900er austoben können, wo mir einfach Shader fehlen, siehe Anhang5)
 

Anhänge

  • UE5-bigCity_openPL.jpg
    UE5-bigCity_openPL.jpg
    653,1 KB · Aufrufe: 64
  • FH4-verworfeneFrames.JPG
    FH4-verworfeneFrames.JPG
    114,8 KB · Aufrufe: 72
  • FH4_chill57fps@60Hz.jpg
    FH4_chill57fps@60Hz.jpg
    448,8 KB · Aufrufe: 65
  • FH4_freeFPS@60Hz.jpg
    FH4_freeFPS@60Hz.jpg
    461,2 KB · Aufrufe: 64
  • FH4@8k ohne MSAA.jpg
    2,4 MB · Aufrufe: 52
Zuletzt bearbeitet:
btw.
bei UL die Systemerkennung wird wohl derzeit ausgewürfelt, mit dem Adrenalin 23.11.1 wars kaputt, aber mit dem
neuen AFMF-Preview vom 9.Nov. gehts wieder (wird allerdings nicht validiert)
Ulkigerweise gehts meiner alten Version von HWinfo ähnlich! Der Wert für MemoryController ist jetzt wieder da.
Als ob Beide irgendwie ähnliche Methoden zur Systemerkennung nutzen, who knows.

Ich muss zu meiner Schande allerdings gestehen, das ich die Treiber nur drüberbügel und zwischendurch auch mal UWP drauf hatte.
(lediglich ShaderCache resette)


edit: nochmal den minTakt in PR getestet =passt jetzt mit dem etwas höheren PL, ... im TS ist der minTakt sogar niedriger, wow!
(kein Clockstretching)
 

Anhänge

  • TSEneu107W-PL15.jpg
    TSEneu107W-PL15.jpg
    139,5 KB · Aufrufe: 82
  • MrH@Nov9-AFMF-previewtreiber.jpg
    MrH@Nov9-AFMF-previewtreiber.jpg
    112,1 KB · Aufrufe: 86
  • PR@107W-PL+15.jpg
    PR@107W-PL+15.jpg
    127,8 KB · Aufrufe: 84
  • TS@107W-PL+15.jpg
    TS@107W-PL+15.jpg
    135,2 KB · Aufrufe: 82
Zuletzt bearbeitet:
Ich habe etwas heraus gefunden und das hat mich umgehauen!

Mein FCLK war Standard bei 1940MHz.
Diesen habe weit herunter "gedrosselt" bis in Benchmarks sich ein "Leistungsverlust" bemerkbar gemacht hat. Just for fun!
Bei 1850MHz ist er in allen Benchmarks noch exakt gleich schnell wie mit 1940MHz.
Ich habe mich aber immer gewundert warum der FCLK wenn ich ihn leicht erhöhe also 1960MHz z.B dann instabil ist.

Ich weiß jetzt warum, weil er auch bei 1940MHz noch nicht sauber läuft, also mit dem Standard Wert.

Mir ist eines aufgefallen und das ist was mich umhaut, seit ich jetzt auf 1850MHz "runter" bin kann ich mit dem Core Takt weiter hoch!

Das hab ich jetzt mehrfach gegengeprüft sobald ich höher als 1920MHz gehe, erreiche ich nicht mehr den etwas höheren Core Takt.

Dazu meine Frage, hab ihr das auch schon festgestellt oder getestet, hab ihr da auch Erfahrung damit?

Bin weiter am Testen! :d

Gruß
 
Zuletzt bearbeitet:
Ich habe etwas heraus gefunden und das hat mich umgehauen!

Mein FCLK war Standard bei 1940MHz.
Diesen habe weit herunter "gedrosselt" bis in Benchmarks sich ein "Leistungsverlust" bemerkbar gemacht hat. Just for fun!
Bei 1850MHz ist er in allen Benchmarks noch exakt gleich schnell wie mit 1940MHz.
Ich habe mich aber immer gewundert warum der FCLK wenn ich ihn leicht erhöhe also 1960MHz z.B dann instabil ist.

Ich weiß jetzt warum, weil er auch bei 1940MHz noch nicht sauber läuft, also mit dem Standard Wert.

Mir ist eines aufgefallen und das ist was mich umhaut, seit ich jetzt auf 1850MHz "runter" bin kann ich mit dem Core Takt weiter hoch!

Das hab ich jetzt mehrfach gegengeprüft sobald ich höher als 1920MHz gehe, erreiche ich nicht mehr den etwas höheren Core Takt.

Dazu meine Frage, hab ihr das auch schon festgestellt oder getestet, hab ihr da auch Erfahrung damit?

Bin weiter am Testen! :d

Gruß
Hast du dem SOC mal mehr Watt zugestanden?
Nur so eine Idee : )
 
Es gibt keine Verbindung von der SOC-Voltage zum FCLK! :d
Den SOC hab ich sogar weiter kastriert und bin noch etwas zufriedener damit.
Fummel mir gerade ein 250Watt Setup zurecht
und da kommt es eben auf jeden halbe Watt an,
wo man sparen kann an der richtigen Stelle.
 
Es gibt keine Verbindung von der SOC-Voltage zum FCLK! :d
Den SOC hab ich sogar weiter kastriert und bin noch etwas zufriedener damit.
Fummel mir gerade ein 250Watt Setup zurecht
und da kommt es eben auf jeden halbe Watt an,
wo man sparen kann an der richtigen Stelle.
Ne ich meine Ampere für den SOC.

Aber willst ja UV : )
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh