[Sammelthread] Offizieller AMD [[ RX6700 // RX 6700XT // 6750XT // X6800 // 6800XT // 6900XT // 6950XT]] Overclocking und Modding Thread [[ Wakü - Lukü - LN2]]

Ich hab mit meiner Karte leider durchgehend massive Probleme mit Rasseln. Welche mV Wert wird die Karte zu 99% packen um es zumindest damit mal zu probieren und keinen Testmarathon absolvieren zu müssen?

Und werden die werde aus dem MPT im bios gespeichert oder muss ich die jedes Mal wieder eintragen?

Welche Karte hast du denn?

Die Werte aus dem MPT werden vom Tool in die Registry eingetragen und dort durch den Treiber geladen (als sogenannte SoftPowerPlayTable). Deshalb musst du nach jeder Änderung auch den Rechner, oder zumindest den Treiber, neu starten.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich hab die 6900XT. Danke dir :-) habe jetzt was rumgespielt und geschnallt wie es geht. Abhilfe schafft es erst unter 1 mV ... dann wird das rasseln etwas weniger.
 
das schwarze sieht echt gut aus
Beitrag automatisch zusammengeführt:

Mehr geht nicht mit dem wattman bei mir. Neuer Chipsatztreiber soll was bringen aber geht bei mir leider nicht :cry:
Screenshot (299).png
 
Nein, gabs nicht. Da gibt es immer wieder jemand, der ein anderes Kabel vorschlägt und der nächst stellt sich dann 58Hz am einen and 8 bit Farbtiefe am andren Monitor ein, aber das sind alles nur Einzellösungen, die zufällig funktionieren - und jedesmal findet sich auch wieder jemand, bei den genau das nicht hilft.

Also ich habe via CRU die bestehende Auflösung (3440x1440) angepasst und dabei lediglich die "blanking lines" hochgesetzt - hatte ich so im PCGHW Forum gelesen. Das hat auch auf anhieb funktioniert -> 31W Idle wurden zu 5W Idle

Wenn ich später am PC bin kann ich gerne Screenshots nachreichen.
 
Grüß euch. Seit gestern steckt endlich eine RX 6900 XT in meinem Rechner. 😍 Verpackung, Optik und Haptik der Karte sind einfach genial!
Jedoch war ich gestern bei meinen ersten OC/UV versuchen am verzweifeln.
Mem-Takt lief ohne Probleme mit Fast Timing und 2110MHz. Aber sobald ich etwas mehr beim Core-Takt geschraubt habe gabs nen Crash im TSE.
Die Karte taktet im TSE so zwischen 2350 und 2520 MHz (dabei habe ich das Powerlimit schon etwas erhöht).

Wie sollte ich die Karte dazu überreden können, auf 2700 - 2800 MHz zu takten?

Gestern hab ich die Karte irgendwie schon als Montagsmodell abgeschrieben, aber vllt. mach ich einfach grundlegend was falsch.
Bitte um Hilfe! :)

PS: Umbau auf Wasser erfolgt erst, wenn ich mir sicher bin, dass ich nicht einen kompletten Montagschip hab.
 
@Bullseye13 was hast du bis jetzt genau getestet?

2700+ mit dem ref kühler geht nur bei einer guten high asic Karte. Mit einer Low asic Karte schafft man das nur mit wakü.

2700+ in timespy extreme ist selbst für meine Karte schwierig und erfordert viele Tests. Und sie läuft in superpostion ja bis zu 2950.
 
Lass den Speicher mal auf default.

Was heißt "geschraubt"? was wurde denn eingestellt? Powerlimit etwas erhöht?
Sachma so kenn ich dich ja gar nicht dass du so wenig Infos in deinen Beitrag packst^^

Bei 2400 / 2600 sollte der Takt nicht mehr so sehr schwanken wie von dir beschrieben. Eingrenzen kannst du das ganze damit dass min / max eine Differenz von 100 haben müssen.
2500 / 2600, 2550 / 2650 usw.
 
Lese mal etwas zurück, hier haben schon ein paar Leute Starteinstellungen gepostet und wie man dann die Werte verbessert.
 
Okay, ich habe gerade eine recht interessante bis verwirrende Erfahrung gemacht.
Kurz die Eckdaten:
6800 XT Merc
Fixe Werte
MPT:
Max GFX 1100 mV
Max SoC 1075 mV
PL 309 W (-> einfach um hier keinen Bottleneck zu haben)
TDC GFX 350 A
TDC Soc 55A
Lüfterkurve, die mir nicht die Ohren bluten lässt. Meistens.
WattMan:
VRAM FT1, 2050 MHz
PL +15%

Veränderliche Werte:
WattMan
Max Freq 2500 / 2485 / 2452 MHz
Voltage 1100 / 1090 / 1050 MHz

TS-Ergebnisse:
2500/1100: 50% laufen durch. Ca. 18900 GPU-Punkte. Max Stromverbrauch: 285W
2500/1090: 20% laufen durch. Ca. 18920 GPU-Punkte. Max Stromverbrauch: 282W
2500/1050: 0% laufen durch.

2485/1100: 100% laufen durch. Ca. 18800 GPU-Punkte. Max Stromverbrauch 280W
2485/1090: 50% laufen durch. Ca. 18820 GPU Punkte. Max. Stromverbrauch 278W
2485/1050: 0% laufen durch

2452/1100: 100% laufen durch. ca. 18690 GPU-Punkte. Max Stromverbrauch: 313W
--> Den Rest hab ich nicht mehr getestet, weil keine Zeit.

Was mich jetzt halt so richtig verwirrt, ist dass die Karte mit der geringsten Taktfrequenz auf einmal säuft als gäbe es morgen keinen Strom mehr.
Mit 1125 mV(MPT), 2525 MHz, 1050 mV(WM), VRAM FT1, 2100 MHz komme ich übrigens auf 19170 GPU-Punkte bei nem Verbrauch von fast konstant 330W. Ist relativ stabil, macht aber im Alltagsbetrieb gerne mal Probleme.

Also erstmal hab ich für mich nen "relativen Sweet Spot" gefunden, aber ich bin doch ein wenig vom Stromverbruach verwirrt.
Denke als nächstes Spiele ich mit der RAM-Frequenz und schaue ob ich es stabiler bekomme, wenn ich mit der SoC etwas hoch gehe. Aber erstmal bin ich wie gesagt hauptsächlich verwirrt.

Edit: GPU-Scores korrigiert, hatte das aus dem Kopf runter geschrieben, aber meine Liste sagt was anderes...
 
Zuletzt bearbeitet:
@Bullseye13
Also Morepowertool hast du nicht im Einsatz?

Sonst stell Mal bitte dort die maximale GPU Spannung auf 1150mv und die maximale soc auf 1075mv

Dann mit Wattman Min 2500 und Max 2600 und suche die beste Spannung in Wattmann die am meisten Leistung und stabilität gibt.
Danach beide Frequenzen um 10 erhöhen bis du am limit bist. Dann hast du die erste auskunft darüber was die Karte in etwa kann.

zum Vergleich meine Karte hat mit Ref Kühler um die 2650 max takt in TSE mit 100% Lüfterspeed gemacht vor dem umbau auf Wasser.
 
Also ich habe via CRU die bestehende Auflösung (3440x1440) angepasst und dabei lediglich die "blanking lines" hochgesetzt - hatte ich so im PCGHW Forum gelesen. Das hat auch auf anhieb funktioniert -> 31W Idle wurden zu 5W Idle

Wenn ich später am PC bin kann ich gerne Screenshots nachreichen.

Super, die Blanking Lines mit CRU auf beiden Monitoren um ~30% anzuheben hat gewirkt. Die voreingestellten Werte hätten eigentlich reichen müssen (gemäß der Formel aus dem Thread) aber anscheinend war es meiner Karte zu wenig.
Insgesamt braucht die Karte jetzt nur noch 8-9W im Idle, bzw. 10 W mehr mit geöffnetem Firefox.
 
@L!ME Danke, das werde ich mal umsetzen und mich dann melden.
MPT hab ich schon im Einsatz, allerdings hab ich dort nur das PL erhöht.
 
Super, die Blanking Lines mit CRU auf beiden Monitoren um ~30% anzuheben hat gewirkt. Die voreingestellten Werte hätten eigentlich reichen müssen (gemäß der Formel aus dem Thread) aber anscheinend war es meiner Karte zu wenig.
Insgesamt braucht die Karte jetzt nur noch 8-9W im Idle, bzw. 10 W mehr mit geöffnetem Firefox.
Ah....de Thread kannte ich nicht. Laut dem Google Docs Rechner bräuchte ich 102 blanking lines.....tatsächliche habe ich durch ausprobieren am Ende auf 101 gestellt und das reicht (100 hingegen nicht). Hoffen wir mal, dass alle die es auch betrifft, das hier lesen und bei sich ebenfalls beheben können.
 
Meine G2 ist grad gekommen. Erster Test: Anschluss an DP und USB-C der 6900XT - tut.

Blöd dass man "nebenher" arbeiten muss...
 
Hab zu Mittag ein bisschen rumprobiert. Irgendwie führte jede Änderung wieder zu nem Reboot. Alles Stock lauft durch. Aber 2500-2600 keine Chance mehr...
 
Da das Undervolten so viel Spaß macht und ein netter Zeitvertreib ist (wie für andere das Autotunen; bei mir um Spulenfiepen zu mindern und Stromverbrauch zu senken), habe ich mich die letzte Woche auch daran gemacht.
Igorslab Guide ist hier sehr hilfreich (aber teils mau erklärt), die Kommentare hier und anderswo auch. Danke dafür. :bigok:

@Sodo
Das mit dem teils merkwürdigem (interessant, verwirrend) Verhalten ist mir auch aufgefallen.
Die Erklärung dazu (denke ich) habe ich in den Vermutungen/Erklärungen einiger Menschen hier gefunden, und meinen nun teils mehr als 80 Benchmarkdurchläufen.

Die Dinge die mir aufgefallen sind, sind den anderen ähnlich, aber allen voran mein eigenen.
1) Die Leistung der Amd Mitarbeiter bezüglich der Rdna2 Mikroarchitektur und der zahlreichen Algorithmen, Software, Sensoren etc. die im Hintergrund alles zu Stromverbrauch, Takt, Temperatur und unzählbaren weiteren Faktoren, ausloten und berechnen, ist exzellent. Da passieren abertausende Dinge im Nanosenkunden-Takt im Hintergrund, ohne Zutun des Benutzers.
Deutlich ausgefeilter als noch bei RX 5000.
So exzellent dass hier der Benutzer in 99 % der Fälle gar nichts mehr selber einstellen muss. Die restlichen 10 % an Effizienz/Übertaktung quetscht man nur noch selbst aus Ändern, der Vorgabe, der min./max. Werte zu Spannung/Frequenz der GPU/SoC (im MPT) selbst ein. Selbst hier macht die Mikroarchitektur etc. dann alles selbst.

2) Man quetscht also als Benutzer nur noch 10 % Effizienz/Übertaktung (meine Grafikkarte, bei gleichem Stromverbrauch) aus den Vorgaben zu den Werten aus.
Aus den Vorgaben macht die Mikroarchitektur etc. dann alles selbst.
Wie anderen aufgefallen ist der Regler im Wattman deswegen auch nur noch ein Spannungs-Offset-Schieber, kein Spannungs-slider und viele Einstellungen die bei RX 5000 (MPT) noch möglich waren, sind es nicht mehr.

3) Stromverbrauch ist das A und O. Jegliche Anpassung der zahlreichen Algorithmen, Software, Sensoren etc. orientiert sich beim Setzen des Takts etc. vor allem am Stromverbrauch.

4) Die Mikroarchitektur etc. passt die Werte nicht nur granular an (bei 70 °C Gpu-Temperatur läuft der Benchmark nur mit 2450 MHz-Slider und 1020 mV Spannungsschieber durch, bei bei 72 °C Gpu-Temperatur läuft der Benchmark nur mit 2430 MHz-Slider und 1030 mV Spannungsschieber durch, etc.)
sondern auch deutlich grobkörniger.

5) Einstellung x für Benchmark y, funktioniert nicht für Benchmark z und Spiel p.
Benchmark/Spiel hat andere Auslastungen, beansprucht die GPU anders. Treibt man Effizienz/Übertaktung etc. auf die Spitze, benötigt jedes Programm, Spiel usw. andere Einstellungen.

Bei mir läuft z.B. gar kein Benchmark unter > 960 mV Spannungschieber im Wattman durch. Egal ob 2500 MHz Max. Frequenz, ob 2300 MHz, oder gar 2000 MHz.
MPT Maximum Voltage GFX, ob nun mit 1000 mV, 1025, 1050, 1075, 1100 etc. ist alles unterschiedlich. Mal Absturz nach 5 Sekunden, mal nach 5 Minuten.
Seltsamerweise läuft bei einigen Einstellungen im MPT/Wattman (hier unzählige ausprobiert), der Benchmark unter gleichen Einstellungen mit z.B. Max. Frequenz 2480 MHz mehrmals durch, stürzt aber nach Sekunden (immer wieder reproduzierbar) unter 2420 MHz ab.
benchtimespysuperposition.jpg


Verwirrend könnte man meinen, da ein niedrigerer Takt eigentlich weniger Spannung benötigen sollten, und so weniger Stromverbrauch.

Erhöhe ich aber den Stromverbrauch um 5 Watt, läuft der Benchmark durch, unter anderen beinahe gleichen Einstellungen, dann aber wieder nicht. Dann läuft er aber bei - 10 W durch, dann wieder nicht.

Die Erklärung aus meinen Erkenntnissen ist die: Die Mikroarchitektur, Algorithmen, Software etc. steuern alles nicht nur sehr feinkörnig, sondern auch sehr grobkörnig.
Die rote Linie hier im Bild wären die Vorgaben zu Stromverbrauch, Takt, Temperatur etc. Der Benchmark/Spiel das hiermit laufen soll. Die Spalte.
Die Zeilen sind alle unzähligen Vorgaben zu Stromverbrauch, Spannung, Takt, Temperatur und tausende andere.
Man schlängelt sich also durch diese Spalten und Zeilen durch und versucht eine bestimmte Spanne (Bereiche) zu finden welche die Einstellungen zulässt, welche tausendfach, alle voneinander abhängig sind (mal größer/kleiner die Bereiche, mal enger/breiter) und sich im Nano-/Mikrosekundentakt ändern.
Bild.jpg



Wie ich gemerkt habe ist wahrscheinlich deswegen, die Vorgabe zum Stromverbrauch, der wichtigste Einstellunsmöglichkeit.
Setze ich das Limit auf 230 W GPU (+40 W alles andere, Gesamt ~270 W), Maximum Voltage GFX auf 1050 mW, Spannungs-Offset-Schieber auf 970 mV, max. GPU-Frequenz auf 2480 MHz, stürzt Timespy nach 20 Sekunden reproduzierbar ab.
Verringere ich die Maximum Voltage GFX auf 1030 mV, stürzt Timespy nach 1 Minute ab.
GPu schafft es den Takt unter den Vorgaben bei Szenen x 1 Minute lang zu halten, läuft dann aber bei Szene y in ein Szenario wo es denn Takt unter Stromverbrauch 230 W nicht mehr halten kann und Fehler verursacht.
Max. GPU-Frequenz auf 2400 MHz, könnte man meinen sollte laufen; stürzt aber nach 5 Sekunden ab. Der niedrige Takt gemeinsam mit der niedrigeren Temperatur sorgt hier dafür dass die GPU den Takt nun fast immer halten kann (dieser also größtenteils höher ist).
Ergo die Grafikkarte verbraucht mehr Strom, obwohl die Einstellung zu GPU-Frequenz niedriger ist. Die Bildrate ist höher.
Zwar wird der Takt also höher und länger gehalten, aber die GPU läuft wieder in das Stromlimit.
@Sodo
Das ist was dir, mir und vielen anderen hier im Thread und anderen Foren aufgefallen ist.
Was mich jetzt halt so richtig verwirrt, ist dass die Karte mit der geringsten Taktfrequenz auf einmal säuft als gäbe es morgen keinen Strom mehr.
Mehr Leistung obwohl die Einstellungen genau das Gegenteil vermuten lassen.
Das ist ein erheblicher Wechsel der Spielregeln zu vorherigen Mikroarchitekturen, Algorithmen etc. der vorherigen Generationen wie RX 5000 usw.

Erhöhe ich das Stromlimit um 10 W, läuft es alles durch. Stürzt beim dritten Benchmark aber ab. Ursache? Wohl die Temperatur von 72 °C.
Wieder Spannung runter. Läuft. Mist - stürzt nach 20 Minuten wieder ab.
Dann gesellt sich noch der SoC dazu. Stromverbrauch erfolgreich um 8 Watt gesenkt. Mist, stürzt hier und da auch ab, läuft wiederum mit anderer Einstellung problemlos.



Kurz: Die Angelegenheit ist wirklich ein spaßiger Spießrutenlauf, bei die Lanzen mal kürzer, mal länger sind.
Die Erkenntnis ist, die Mikroarchitektur, Algorithmen etc. sind die Dirigenten. Sie erledigen alles selber. Der Benutzer ordnet sich immer unter; die zweite Geige.
Der Benutzer kann nur noch die Vorgaben zu einigen wenigen Faktoren ändern (im MPT) - selbst der Spannungschieber ist nur noch ein Offset-, aus denen die Grafikkarte dann schlussendlich auch alles selber erledigt.
Wenn die Entwicklung weiter anhält, könnte man zukünftig vllt. nur noch Vorgaben zum Stromverbrauch machen.
Ob solch eine Änderung vorgesetzt wird, ist natürlich fraglich, da es die Kunden nicht mögen würden.
Erstaunliche Entwicklung. (y)
 
@Sertix
Klasse Analyse! Ich glaube, da bist Du sehr nah an der Wahrheit. :) Das wäre ein Beitrag, den man vielleicht im Einstiegspost verlinken könnte.
 
3) Stromverbrauch ist das A und O. Jegliche Anpassung der zahlreichen Algorithmen, Software, Sensoren etc. orientiert sich beim Setzen des Takts etc. vor allem am Stromverbrauch.

4) Die Mikroarchitektur etc. passt die Werte nicht nur granular an (bei 70 °C Gpu-Temperatur läuft der Benchmark nur mit 2450 MHz-Slider und 1020 mV Spannungsschieber durch, bei bei 72 °C Gpu-Temperatur läuft der Benchmark nur mit 2430 MHz-Slider und 1030 mV Spannungsschieber durch, etc.)
sondern auch deutlich grobkörniger.

5) Einstellung x für Benchmark y, funktioniert nicht für Benchmark z und Spiel p.
Benchmark/Spiel hat andere Auslastungen, beansprucht die GPU anders. Treibt man Effizienz/Übertaktung etc. auf die Spitze, benötigt jedes Programm, Spiel usw. andere Einstellungen.

Bei mir läuft z.B. gar kein Benchmark unter > 960 mV Spannungschieber im Wattman durch. Egal ob 2500 MHz Max. Frequenz, ob 2300 MHz, oder gar 2000 MHz.
MPT Maximum Voltage GFX, ob nun mit 1000 mV, 1025, 1050, 1075, 1100 etc. ist alles unterschiedlich. Mal Absturz nach 5 Sekunden, mal nach 5 Minuten.
Seltsamerweise läuft bei einigen Einstellungen im MPT/Wattman (hier unzählige ausprobiert), der Benchmark unter gleichen Einstellungen mit z.B. Max. Frequenz 2480 MHz mehrmals durch, stürzt aber nach Sekunden (immer wieder reproduzierbar) unter 2420 MHz ab.
Anhang anzeigen 588587

Verwirrend könnte man meinen, da ein niedrigerer Takt eigentlich weniger Spannung benötigen sollten, und so weniger Stromverbrauch.

Erhöhe ich aber den Stromverbrauch um 5 Watt, läuft der Benchmark durch, unter anderen beinahe gleichen Einstellungen, dann aber wieder nicht. Dann läuft er aber bei - 10 W durch, dann wieder nicht.
Da gebe ich dir Recht. Ich habe auch bereits festgestellt, dass die Scores bei zu hohen Temps und somit niedrigen Fan-Speeds droppen. Also mMn HS unter 95 °C halten. Kommt ungefähr hin mit den 72 °C Core (je nach Karte, Benchmarkdauer).

Kannst du mal probieren die TDC zu erhöhen. Es scheint mir, dass, da du mit Instabilitäten in diesem niedrigen Frequenzbereich zu kämpfen hast, einfach die Stromstärke (leicht) nicht ausreicht für die angelegte Spannung. Auch gerne an der Wattman-Spannung orientieren an der Stelle.

Ich habe nur eine RX 6800, aber mit 208 W | 205 A und 208 W | 210 A gibt es Probleme: 1. Crash und 2. schlechtere Frame-Times an Stellen, die sonst flüssig laufen. 208 W | 215 A und 208 W | 220 A laufen wunderbar. Ok, die Frequenz ist mit 2400 - 2500 MHz vergleichsweise niedrig, ich kriege aber 2425 - 2550 MHz durch TimeSpy Extreme aber durch. Alles andere (außer noch Port Royal) sollte überall sonst mit Max-OC 2500 - 2600 MHz laufen. Übrigens: solange ich 215 A fahre, kann ich bis 203 W TDP (Standard) runter. Mag ich aber nicht gerne, da die Performance etwas sinkt, aber die Takte sind dann stabil, da bei meiner Karte die Stabilität hauptsächlich an der TDC hängt.

Achso: noch eins. Nach der Erfahrung der anderen mit der RX 6900 XT sollte die Max-Voltage GFX "nur" minimal 1,1 V sein. Ok, die fahren aber deutlich höhere Frequenzen.

Zu "5) Einstellung x für Benchmark y, funktioniert nicht für Benchmark z und Spiel p.". Es bringt mMn nichts für best. Benchmarks hin zu optimieren. Daher besser ein paar Nemesis-Benches für deine spezielle Karte zu finden, die am instabilsten laufen. Eine Einstellung ist für mich nur tauglich, wenn diese den TSX und PR schafft. Dann schafft sie bei mir jegliches andere Spiel / Bench.
 

Anhänge

  • TSX_215A_2425_2550_925_mV_Wattman_950_mV_MPT_1000_SoC_2120_FT_208W_rien_ne_va_plus_avec_925_mV.jpg
    TSX_215A_2425_2550_925_mV_Wattman_950_mV_MPT_1000_SoC_2120_FT_208W_rien_ne_va_plus_avec_925_mV.jpg
    361,1 KB · Aufrufe: 84
  • SuPo_8k_215A_2400_2500_925_mV_Wattman_950_mV_MPT_1000_SoC_2100_FT_208W.jpg
    SuPo_8k_215A_2400_2500_925_mV_Wattman_950_mV_MPT_1000_SoC_2100_FT_208W.jpg
    367,1 KB · Aufrufe: 84
  • SuPo_215A_2400_2500_925_mV_Wattman_950_mV_MPT_1000_SoC_2100_FT_208W.jpg
    SuPo_215A_2400_2500_925_mV_Wattman_950_mV_MPT_1000_SoC_2100_FT_208W.jpg
    365,9 KB · Aufrufe: 73
  • TSX_215A_2400_2500_925_mV_Wattman_950_mV_MPT_1000_SoC_2100_FT_208W_rien_ne_va_effizienter.jpg
    TSX_215A_2400_2500_925_mV_Wattman_950_mV_MPT_1000_SoC_2100_FT_208W_rien_ne_va_effizienter.jpg
    373,4 KB · Aufrufe: 90
Zuletzt bearbeitet:
Habe gefühlt mehr als 80 Benchmarks gemacht und von beinahe jedem einen Screenshoot gemacht, mit genau den Angaben wie im oberen Bild.
Habe dann akribisch die Einstellungen der Werte, Temperatur für GPU-/-SoC-Verbrauch, Spannung, TDC etc. verglichen und bin zu den Erkenntnissen gekommen.
Logische Induktion.

Der SoC (in der ganzen GPU) ist auch ein Unikat, und somit die Angaben zu min./max. Frequenz und Spannung.
Vermehrt wird ja nur auf die GPU-gfx eingegangen, aber beim SoC kann man auch sparen (teils 7 - 12 W bei meiner rx 6900xt).
Igor gibt in seinem Guide vor (undervolting) einfach mal 900 mW für den max. SoC und 1000 MHz Frequenz zu setzen (bei 270 W Gesamtverbrauch).
Bei mir läuft bei 270 Stromverbrauch (Gesamt; 230 W GPU) da nichts unter 965 mV und 1065 MHz (im Bild).

Genau wie bei der GPU verändern sich auch die Angaben zum SoC. Bei 200 W Gesamtverbrauch kann ich den SoC auf max. 15 W Stromverbrauch drücken; bei 270 W müssen es schon höhere Werte sein (~ 20 W).
Das der ganze Spießrutenlauf nicht nur granular ausfällt sondern auch sehr grobkörnig sein kann, man also auf teils sehr große Bereiche für GPU/SoC hat wo einige Einstellugen funktionieren oder halt nicht, ist mir bei Duvars Beitrag aufgefallen.
Seine Grafikkarte läuft unter GPU-GFX mit 945 mV und den Offset-Schieber auf 850 mV.
Mein Modell läuft ums Verrecken nicht, bei Gesamtverbrauch bis runter auf 230 W (GPU max. 200 W) einfach nicht unter 960 mV Spannungs-Offset-Schieber im Wattman.
Deswegen auch das lustige Bild Nummer 2.


Auch ist mir aufgefallen, anders als einige hier angeben, das der Spannungsoffset-Schieber nicht unbedingt 25- 50 mV unter dem Wert des maximum voltage gfx (MPT) stehen muss.
Hatte genügend Benchmarks unter gleichen Temperaturen für GPU, wo der Benchmark reproduzierbar durchlief, wenn der Schieber im Wattman, gleich dem Wert der max. GFX steht (also Schieber weit nach rechts).
Induktion ist hier, das es sich mit dem Spannungs-Offset-Schieber gleich verhält wie mit den anderen Faktoren, bestimmt durch Mikroarchitektur, Algorithmen der Werte tzu Takt, Temperatur etc.

Stelle ich die Spanne zu groß ein, z.B. 1015 mV und gpu gfx (MPT) auf 1080 mW, läuft der Benchmark wirklich auf beinahe die Sekunde reproduzierbar (Timespy) in immer der gleichen Szene ab.
Schlussfolgerung ist hier: Die Mikroarchitektur muss im Nano-/Mikrosekundentakt einen viel zu hohen Sprung der Spannung hinlegen, um den vorgegeben Takt x (vom Benutzer) zu erreichen.
Schafft es die Mikroarchitektur, Algorithmen nicht - da z.B. Temperatur zu hoch, Stromverbrauch limitiert, SoC limitiert und unzählige andere Dinge auf die man keinen Einfluss hat -, stürzt der Benchmark/Spiel ab. Man könnte hier nun wieder das Stromlimit erhöhren, gerät dann wieder in die gleiche Problematik, da sich die Einstellungen verändert haben, verändern sich auch die Werte.
Die Mikroarchitektur, Algorithmen müssen wieder aufs Neue alles neu ausloten und gegeneinander ausbalancieren, um die Einstellungen zu halten.
 
@Darkne$$ Hast du FT im VRAM drin? Kannst du 2100 MHz FT mal laufen lassen? Sollte ja meist gehen.

Hast du SAM an? Ich schon, obwohl AMD nicht damit wirbt für einen Ryzen 5 3600 und einem B450 MB. Sie wollen wohl ihre 1-FPS-mehr-produzierenden-CPUs und B5x0-Bretter verkaufen. Ich preise jedenfalls MSI für das Beta-BIOS.

Der Score kommt mir halt etwas niedrig für eine XT vor, die auf 2500 MHz läuft. Meine non-XT läuft nur etwa 5,8 % langsamer mit meinem 24/7-High-Effiziency-Setting anstatt den 15 - 20 % erwarteter Performance-Differenz.

Zudem: wie sind deine Fan-Settings? Wie wir bereits festgestellt haben, sollte der HS etwa 95 °C nicht überschreiten, da sonst die Performance etwas dropped.
 
@m4looney
Das mit der TDC habe ich bereits ausprobiert. Es ist einfach die gesamte, maximale Stromstärke der GPU/SoC.
Ob die TDC irgendwo limitiert, zeigt HWiNFO64 an.
Meine Empfehlung ist auch diejenige von Igor, den Stromverbrauch, Temperatur, Takt etc. der GPU/SoC nie von der TDC limitieren zu lassen.
Man fügt somit nur unnötigerweise einen neuen Faktor hinzu, denn dann die Mikroarchitektur/Algorithmen gegeneinander ausbalancieren müssen, um Stromverbrauch, Takt, Spannung, Stromstärke zu halten.
Bei einem GPU-Verbrauch von 230 W, überschreitet die TDC meiner Grafikkarte nie 215 Ampere; also stelle ich den Wert auch auf 220 Ampere.
Falls es mal seltsame Spikes der Stromstärke gibt (Hard-Softwarefehler?) dient diese Einstellung als Absicherung.
Mehr sollte es nicht tun.


Und was mir noch wichtiges aufgefallen ist und ich Anfangs übersehen habe. https://www.igorslab.de/amd-rx-6800...ting-von-ueber-240-watt-bis-unter-180-watt/2/
igortslab.jpg

Man geht auch beim Benchmarken davon aus dass das effizienteste Profil (Einstellungen etc.) die den höchsten Punktestand in Benchmark x erzeugt, für Spiel y z b, optimal ist.
Obwohl Igors "RX 6800 2370 MHz 930 mV" Profil mehr Bildrate erreicht als "RX 6800 SAM OFF" - ganze 5 % mehr mittel-Bildrate -, sind die Frametimes schlechter.
Igor misst hier die Streuung der Werte und legt diese übersichtlich dar.

Der FPS-Zeiger zeigt nicht die ganze Wahrheit an; und somit auch wenn man davon ausgeht dass die Einstellung vom Benchmark optimal für das Spiel x ist.
Wie Igor erklärt, ist ein Benchmarkt ein stetiger Durchlauf mit beinahe immer 99 % GPU-Auslastung.
Ein Spiel aber nicht. Im Spiel y wechselt die Spannung, Takt, Stromverbrauch, Temperatur und andere Werte, teils deutliche schneller, öfters und höher.

Ich habe es somit so eingestellt, dass ich auf das Profil vom Timespy (welches fordernder als Superposition ist; ich muss hier also mit dem Spannungs-Offset-Schieber mehr nach rechts und dazu den GPU-Takt senken). für ein Spiel x y z, nochmals 20 mV dazuaddiere und je nach Spiel den max. GPU-Takt-Schieber im Wattman entweder etwas niedriger setze, gleich lasse, oder erhöhe.

Ein Spiel was selten 50 % GPU-/Stromlimit-/TDC-Auslastung überschreitet, bekommt halt 20 mW und 50 MHz mehr.
Bei hoher Auslastung dann weniger.
 
@Darkne$$ Hast du FT im VRAM drin? Kannst du 2100 MHz FT mal laufen lassen? Sollte ja meist gehen.

Hast du SAM an? Ich schon, obwohl AMD nicht damit wirbt für einen Ryzen 5 3600 und einem B450 MB. Sie wollen wohl ihre 1-FPS-mehr-produzierenden-CPUs und B5x0-Bretter verkaufen. Ich preise jedenfalls MSI für das Beta-BIOS.

Der Score kommt mir halt etwas niedrig für eine XT vor, die auf 2500 MHz läuft. Meine non-XT läuft nur etwa 5,8 % langsamer mit meinem 24/7-High-Effiziency-Setting anstatt den 15 - 20 % erwarteter Performance-Differenz.

Zudem: wie sind deine Fan-Settings? Wie wir bereits festgestellt haben, sollte der HS etwa 95 °C nicht überschreiten, da sonst die Performance etwas dropped.
SAM ist an. Ram ist noch default , HS wird nicht wärmer als 80 Grad.

Jetzt mit Fast Timings und auf 2100MhZ der Ram:

SP8kNeuneu.PNG
 
Zuletzt bearbeitet:
@m4looney
Das mit der TDC habe ich bereits ausprobiert. Es ist einfach die gesamte, maximale Stromstärke der GPU/SoC.
Ob die TDC irgendwo limitiert, zeigt HWiNFO64 an.
Meine Empfehlung ist auch diejenige von Igor, den Stromverbrauch, Temperatur, Takt etc. der GPU/SoC nie von der TDC limitieren zu lassen.
Man fügt somit nur unnötigerweise einen neuen Faktor hinzu, denn dann die Mikroarchitektur/Algorithmen gegeneinander ausbalancieren müssen, um Stromverbrauch, Takt, Spannung, Stromstärke zu halten.
Bei einem GPU-Verbrauch von 230 W, überschreitet die TDC meiner Grafikkarte nie 215 Ampere; also stelle ich den Wert auch auf 220 Ampere.
Falls es mal seltsame Spikes der Stromstärke gibt (Hard-Softwarefehler?) dient diese Einstellung als Absicherung.
Mehr sollte es nicht tun.
HWInfo64 hat bei mir noch nie ein TDC-Limit angezeigt und ich bin bei 150 A TDC ca. bei 215 A TDC, wobei 210 A TDC schon instabil war. Die Scores sind stark von der TDC abhängig zumindest bei mir.

Nun, bei mir limitiert TDC nun nicht, da ich diese eben nicht-proportional wie Igor's Lab vorschlägt, erhöht habe, sondern die TDC separat beim Testen betrachte. Mehr als 220 A will ich aber nicht draufgeben...

Da du eine 6900 XT hast, würde ich etwa 250+ A TDC vorschlagen (am besten war bei Holzmann 320 A, aber der wollte mehr Score haben bei über 2700 MHz... Alles andere wurde vom Score her nur schlechter).

Wie gesagt: ich schaue beim testen immer nur auf den Score und auf den Verbrauch. Ich habe da so meine paar Stellen, die ich beim Bench beobachte hinsichtlich Verbrauch und Frequenz. Das geht Pi * Daumen meist ganz gut. Ich wette, dass sich deine Stabilität um einiges erhöht mit mehr TDC.

Wie du bereits erwähntest, schaltet die GPU im Nano-Sekunden-Bereich und da ist es sehr wohl wichtig, wie viel Amps da anliegen bei einer bestimmten Spannung / Takt. Das was HWInfo da misst, befindet sich im Intervall einer Sekunde. Die GPU nimmt sich evtl. im Peak auch mal 211 A bei mir, obwohl ich da nur 150 A messe. Ich habe den Verdacht, dass man auf den Sensorwert das PT auch anrechnen muss, bzw. auch die SoC TDC in GFX TDC integriert ist und man mit SoC TDC nur sagt, wie viel davon der SoC nehmen darf. Aber das ist nur Mutmaßung...
 
Schade:( mit 2500MhZ brauche ich leider 1.1Volt um durch den Time Spy zukommen. Naja was solls trotzdem eine schöne Karte
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh