[Sammelthread] Offizieller AMD [[ RX6700 // RX 6700XT // 6750XT // X6800 // 6800XT // 6900XT // 6950XT]] Overclocking und Modding Thread [[ Wakü - Lukü - LN2]]

Ich hab folgendes Problem mit meinr 6900XT. Mit meinem 24/7 OC/UV bin ich absolut game- und benchstable. Aber im Idle bleibt der PC inkl. Grafiktreiberreset hängen. Hat hier einer eine Idee, wie ich das lösen kann bzw. wo der Fehler liegt? In Last- und Teillastszenarien gibt es keinerlei Probleme. Nur wenn ich den PC mal für längere Zeit verlasse und aufm Desktop bleibe, hängt es sich auf.

Da es, wie gesagt, einen Grafikkartentreiberreset gibt, würde ich das Problem da verorten. Vor der 6900XT gab es das Problem auch nicht.

Hast du HWInfo 6.42 laufen?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Schon heftig die Performance inkl. Spulenfipen ;-)

1613300880481.png
 
Ich hab folgendes Problem mit meinr 6900XT. Mit meinem 24/7 OC/UV bin ich absolut game- und benchstable. Aber im Idle bleibt der PC inkl. Grafiktreiberreset hängen. Hat hier einer eine Idee, wie ich das lösen kann bzw. wo der Fehler liegt? In Last- und Teillastszenarien gibt es keinerlei Probleme. Nur wenn ich den PC mal für längere Zeit verlasse und aufm Desktop bleibe, hängt es sich auf.

Da es, wie gesagt, einen Grafikkartentreiberreset gibt, würde ich das Problem da verorten. Vor der 6900XT gab es das Problem auch nicht.
WHEA Fehler in der Ereignisanzeige?
 
Min socV oder gfxV per mpt zu gering eingestell?
 
Ich hab folgendes Problem mit meinr 6900XT. Mit meinem 24/7 OC/UV bin ich absolut game- und benchstable. Aber im Idle bleibt der PC inkl. Grafiktreiberreset hängen. Hat hier einer eine Idee, wie ich das lösen kann bzw. wo der Fehler liegt? In Last- und Teillastszenarien gibt es keinerlei Probleme. Nur wenn ich den PC mal für längere Zeit verlasse und aufm Desktop bleibe, hängt es sich auf.

Da es, wie gesagt, einen Grafikkartentreiberreset gibt, würde ich das Problem da verorten. Vor der 6900XT gab es das Problem auch nicht.
Hast du Bildschirm-Abschaltung bzw. Standby-Modus eingeschaltet?

Wenn ja, beides mal abschalten und dann erneut testen.

Ich hatte das Problem, dass mein Bildschirm nach einem Auflösungswechsel ausging und nicht wieder von sich aus anging. Nach einem Aus- und Einschalten ging es dann aber wieder. Mit HDMI und Freesync hatte ich ein Krisselbild, wenn eine 3D-Anwendung startete.

Könnte mir hier sowas ähnliches vorstellen, nur mit dem Unterschied, dass bei dir dann der Treiber crasht.

Welche Treiberversion nutzt du? Ich habe den 21.2.1 am laufen und bisher keine Probleme. Der 20.11.2-Treiber war bei mir super instabil. 3D-Spiele stürzten trotz 99% Auslastung auf 579 MHz ab und verblieben da bis zu einer Minute. VRAM-OC war auch unmöglich mit dem Hauptmonitor. Mit dem sekundären Monitor war das aber kein Problem. Der 20.12.1-Treiber hatte dann die Random-Bildschirmaussetzer. Das mit dem HDMI + FS werde ich nochmal testen.

Edit: Nope, HDMI + FS geht bei mir nicht. Krisselbild.
 
Zuletzt bearbeitet:
Wer Probleme mit Freesync-Helligkeits-Flackern hat (dürften die meisten sein), sollte es mal mit Folgendem versuchen:

1) Frame-Rate des Spiels bei den angestrebten Settings ermitteln. Ist die Frame-Rate subjektiv zu niedrig, Settings reduzieren.
2) Mit FRTC eine Frame-Rate als Maximum definieren, die zu 100 % gehalten werden kann. Hier empfiehlt es sich -5 oder -10 Hz oder so Puffer zu haben.
3) Deutlich weniger Flackern des Monitors genießen, da FreeSync-Geflacker (auch) daher kommen kann, dass die Frame-Rate variabel ist (zu große Differenzen in Frame-Times)

Ich bin es halt langsam echt leid, AMDs und Activisions Software-Fehler mit Workarounds zu beheben. Es hilft aber nichts. AMD kann da nicht unbedingt dafür, dass Warzone so sehr unter Frame-Schwankungen leidet, kriegt aber die FreeSync-Shitstorms ab. Ich schätze mal, dass jedes Spiel, was schlecht optimiert ist und keine stabile Frame-Rate halten kann, darunter leidet.

Apropos Warzone: wer unter massiven Frame-Drops leidet in dem Spiel sollte das mal an den Start bekommen:

1613309504883.png

"VideoMemoryScale" forciert danach den VRAM-Verbrauch von Warzone auf 0,5 * 16 GB = 8GB. Das Spiel hat leider einen massiven VRAM-Speicher-Leck mit dem Default-Setting von "0.85".
"RendererWorkerCount" sagt wie viele Threads eurer CPU für das Aufbereiten von Frames abkommandiert werden. Bei meinem R5 3600 waren 4 eingestellt, was zu wenig war. Bei manchen 6-Core-CPUs steht da aber einfach "12" als Default, heißt, dass die CPU keine Ressourcen für alles andere übrig hat.

Der AMD-Treiber hat auch nach wie vor so seine Problemchen:

- HDMI + FS -> keine Chance (auch bei Default-Settings).
- Radeon Overlay in manchen Games (Warzone, seufz) -> vergiss es.
- Der "empfohlene" Treiber (20.11.2) lässt weder VRAM-OC bei manchen Monitoren, noch eine stabile Frequenz zu (Drops auf 579 MHz - siehe JayZ-Two-Cents-Review oder mein Bug-Video).
- Die nachfolgenden Treiber 20.11.3 (?) und 20.12.1 (!) lassen bei manchen Monitoren beim Szenen / Auflösungswechsel den Bildschirm schwarz oder ausgehen (auch bei Default-Settings). Mit dem jetzigen Treiber 21.2.1 gerade keine Probleme.
- Video-Speicher taktet sich bei manchen Monitoren nicht runter. Abhilfe schafft CRU (VBlank-Erhöhung). Aber das ist mMn wieder Gehacke und was sind da die Konsequenzen?

Vllt. liegt alles Monitor-relevante am Monitor selbst (MSI MAG341CQ) und AMD kann da nichts dazu. Aber wieso zertifiziert man dann die Monitore als FreeSync / AMD-kompatibel?

Zum Punkt Radeon-Overlay: ich nutze mittlerweile den "Remote System Monitor" von Trigone. Damit könnt ihr HWInfos auf eurem Smartphone anzeigen lassen. Klappt nach der Installation des Windows Servers gut, auch wenn Windows Defender die Anwendung nicht kennt. Mein Smartphone ersetzt jedenfalls nun das Radeon Overlay.

Sorry für OT (ja, hat eher weniger mit OC zu tun). Aber hilft ja evtl. auch hinsichtlich der Benutzbarkeit des Systems, etc.
 
Wenn ihr noch nen Bench sucht, könnt ihr ja mal in meinen Threads (siehe Signatur) was posten.
 
Ja, da ist im Log einmal Kernel-Power.

Hab auch entdeckt, dass durch den neuen Chiptreiber der Ruhemodus aktiviert war. Habe den nunmal deaktiviert, mal schauen ob es besser wird.
Zudem noch den ganz neuen Grakatreiber installiert. Hoffentlich ist jetzt ruhe :d.
 
Hallo zusammen,

ich bin ja nun seit dieser Woche auch ein 6900 XT Besitzer.
Leider verzweifel ich aktuell noch an den MPT/Wattmann Settings. Ich habe das ungute Gefühl, dass ich ein besonders bescheidenes Stück in der Silizium Lotterie bekommen habe.

Mein Ziel ist es 6900 XT Stock Leistung zu bekommen bei deutlich weniger Stromverbrauch. Der Beitrag von @Duvar hatte mir da sehr zugesagt. Am liebsten wäre mir da das 180W Setting, da Stock Leistung bei 75W weniger Stromverbrauch: https://www.hardwareluxx.de/communi...ng-thread-wakü-lukü-ln2.1282285/post-28082204

Allerdings kann ich von den Werten, die dort eingetragen sind, nur träumen.
Da gibt es entweder direkt einen Black Screen beim Start von Time Spy oder es beendet direkt eine Sekunde nach Start.
Nun weiß ich leider nicht genau, wo ich ansetzen soll, damit ich es zum Laufen bekommen.
Ich würde ja vielleicht noch max 200W in Kauf nehmen (irgendwo zwischen 180 - 200W zu landen, wäre schon schön).
Allerdings fehlt mir leider das Wissen für MPT/Wattmann. Bei meiner RX 5700 XT habe ich damals einfach nur Igor's Tutorial befolgt und hatte deutlich weniger Stromverbrauch bei Stock Leistung - das scheint nun diesmal nicht zu klappen.

Ich hoffe ich komme gemeinsam mit euch zu perfekten Settings für meine 6900 XT. :)

Edit: Ich habe noch etwas vergessen. Auf der Ergebnisseite von Time Spy wird mein GPU Speichertakt immer nur mit 1600 MHz angezeigt.
Ich bin inzwischen sogar wieder komplett auf Stock zurück, also SPPT Tables gelöscht und Wattmann auf Automatisch und Standard. Das Taktproblem bleibt aber.
GPU-Z/HWinfo/Wattmann zeigen aber während eines Durchgangs konstant zwischen 1988 bis 1995 MHz an.
 
Neue HWInfo-Version. Da soll jetzt die Voltage korrekter ausgelesen werden...

Zudem und das finde ich cool, werden die Limits (TDP und TDC) korrekt mit dem PT im Wattman verrechnet dargestellt.
Beitrag automatisch zusammengeführt:

@Jo5hB33r Zum Duvar-180W-Setting:
Duvar hat wahrscheinlich besseres Silizium. Zudem: Duvar hat 180 W Power-Limit eingestellt (Gesamtkarte) und durch das 170 A TDC-Limit bei +0 PT und der Voltage von 0,943 V wird dieses nicht erreicht (zumindest nicht was Chip-Power angeht: 160 W). Zieht man die anderen Spannungen und Stromstärken hinzu, dürfte Duvar bei etwa 180 W TBP landen, daher ergibt es wieder Sinn. Frage ist hier, ob 20 W für SoC noch ausreichen... Speicher dürfte nach meinen Beobachtungen der Chip-Power zugeschlagen werden...

Für dich würde ich empfehlen bei 180 W | 180 A bei einem Volt Max-GFX zu starten. War das stabil: runter mit der Wattman-Spannung. Durch die 180 A wärst du dann ständig eingebremst vom TDP-Limit und TimeSpy dürfte durchlaufen, da genug Amps anliegen dürften an den krassesten Stellen.

Edit: TimeSpy's Frequenzen würde ich ignorieren. Meine macht manchmal 2500 MHz Speichertakt, xD. Geht aber nicht, da nur 2100 MHz eingestellt sind. Evtl. ein defekter Sensor, oder 3DMark hat Probleme... Bin da aber nicht der einzige. Kann auch sein, dass das absolut normal ist und 3DMark einfach "nur" den Peak-Wert nimmt, der da mal für ein paar ms anliegt.
 

Anhänge

  • new_and_awesome_hwi.jpg
    new_and_awesome_hwi.jpg
    174,8 KB · Aufrufe: 74
Zuletzt bearbeitet:
@m4looney: Danke für deine Antwort! Ich soll also in MPT erstmal nur deine 3 angegebenen Werte eintragen und den Rest auf Standard lassen, also so?
Unbenannt.PNG

Dann in Wattmann erstmal nichts ändern (Automatisch und Standard) und Time Spy probieren. Falls das klappt, dann via Wattman die Spannung weiter senken?
Hast du eine Idee warum 3DMark mir falsche VRAM Frequenzen in den Results anzeigt?
 
@m4looney: Danke für deine Antwort! Ich soll also in MPT erstmal nur deine 3 angegebenen Werte eintragen und den Rest auf Standard lassen, also so?
Anhang anzeigen 590806
Dann in Wattmann erstmal nichts ändern (Automatisch und Standard) und Time Spy probieren. Falls das klappt, dann via Wattman die Spannung weiter senken?
Hast du eine Idee warum 3DMark mir falsche VRAM Frequenzen in den Results anzeigt?
Achso: du müsstest auf manuell gehen und Min- Max-Takt im Wattman wahrscheinlich runterziehen.

Zudem habe ich keine Erfahrungen wie das Delta GFX zu SoC sein darf. Bei CPUs z. B. kann das durch die Spannungsdifferenz schon problematisch werden.

Ich würde eine Safe-SoC-Voltage bei der 6900 XT bei etwa 1075 mV vermuten. Denke da geht weniger.

Aber immer am besten nur einen Wert zu einer Zeit anpassen.

Edit: Max-Takt evtl. bei 2000 MHz???

Ansonsten hilft nur viel ausprobieren. Hier ist das etwas outdatete Sub-1V-Verfahren: https://www.hardwareluxx.de/communi...ng-thread-wakü-lukü-ln2.1282285/post-28061001
 
Zuletzt bearbeitet:
@m4looney: Ich danke dir erstmal wie verrückt für deine Hilfe! :)

Ich lande nun mit den folgenden Settings bei knapp 17300 GPU Score in Time Spy. Mit Stock lande ich zwischen 17900 - 18100. Da fehlt also nicht mehr viel, vielleicht kann man das ja noch irgendwie rausholen. Weniger als 960mV kann ich in Wattman übrigens nicht einstellen - dann stürzt Time Spy direkt ab. Zumindest nicht mit den aktuell eingestellten min. und max. Frequenzwerten. Vielleicht hat ja noch jemand eine Idee, wie ich der Stock Leistung noch näher komme. :)

Edit: Ich muss natürlich mal betonen, dass die aktuell knapp 4% weniger Leistung bei 75W weniger Stromverbrauch mich schon sehr zufrieden stimmen. :d
Aber vielleicht lässt sich das ja noch in Richtung 0% weniger Leistung bei 75W weniger Stromverbrauch optimieren.

Unbenannt1.PNG

Unbenannt.PNG
 
Zuletzt bearbeitet:
Ich würde bei 2100 MHz limitieren, da du eh nicht höher kommst. Evtl. 1800 MHz - 2100 MHz?

Probier auch mal 1025 mV SoC. Dann hast du weniger Verbrauch, den die GPU dann gebrauchen kann,

Ansonsten müsstest du es irgendwie schaffen weniger Wattman-Voltage zu fahren. Das kann dir dann die ersehnten 500 GPU-Punkte bringen. Das könntest du durch weniger Voltage (GFX-Max und SoC) schaffen. Du hängst wie bereits vermutet sehr lange im PPT-Limit, was aber erstmal nicht schlimm ist. Wie gesagt: mit weniger SoC-Spannung solltest du da an der Front etwa 3 - 5 W gewinnen und somit seltener im PPT-Limit hängen. Core Current passt vom Wert her schonmal. Aber evtl. mal schauen, ob da mit 5 A noch etwas mehr geht (hinsichtlich der nicht messbaren Leistungsspitzen).

Also als erstes SoC-Voltage auf 1025 mV. Wenn stabil: 1 V, 975 mV, etc.

Dann 175 A SoC, 180 A SoC und 185 A SoC testen.

Jeweils schauen, was der beste Wert hins. Score war. Zum Schluss versuchen mit Wattman-Spannung die Frequenzkurve zur Effizienz hin zu optimieren. 925 mV ist z.B. bei mir (RX 6800 @ 208 W | 215 A | 950 mV GFX | 1 V SoC | 2400 - 2500 MHz | +15 PT) am besten hinsichtlich Ergebnis. Interessant ist, dass meine da mehr verbrauchen darf als deine und deine dennoch stabil ist. Naja, du machst halt UV+UP (underpowering), während ich OCUV mache.
 
Falls jemand die GPU-Takt beim Graphics Test 1-2 interessieren würde, habe ich mit HWINFO64 ein Log gemacht.

Graphics Test 1
21.2.2 Driver:
gt_1-png.2478698

20.12.2 Driver:
gt_1_1-png.2478700



Graphics Test 2
21.2.2 Driver:
gt_2-png.2478699

20.12.2 Driver:
gt_2_2-png.2478701


Diese Messungen sind vom Graphicspunkte 21.200-21.277.
Diese Spannungen zeigt neueste HWINFO64, während GPU-Z 1.15V zeigt.

Die min-max. Differenz ist höher mit dem 21.2.2 Driver, ABER kein Crash bei 2760MHz! Die Minimums sind aber schlechter.

Für 21.2.2 Driver hatte ich average clock von 2715MHz auf 3dmark Webseite gesehen, mit dem 20.12.2 nie über 2701MHz.

Bei älteren Ergebnissen (und auch schlechtere) hatte ich selbe average clock Werte gehabt, was aber sicher nicht richtig war als ich das Kurz im GPU-Z ankuckte, mit kälterer "Raumtemperatur" hatte ich +10MHz sicherlich.
 
@BeZol Die neueste HWinfo-Version hat "effective Clock". Denke, dass das ein guter Performance-Indikator sein könnte. Also je näher am ausgelesenen Clock der "effective Clock" ist, desto effektiver, mehr Dampf hat die Karte dahinter... Evtl. wird dadurch das Bild klarer, was die Effektivität eurer Frequenzen angeht. Wenn da einer z. B. mit 2650 MHz schafft, was ein anderer mit 2700 MHz schafft, dürfte das Verhalten damit gemessen werden können.
 
@BeZol Die neueste HWinfo-Version hat "effective Clock". Denke, dass das ein guter Performance-Indikator sein könnte. Also je näher am ausgelesenen Clock der "effective Clock" ist, desto effektiver, mehr Dampf hat die Karte dahinter... Evtl. wird dadurch das Bild klarer, was die Effektivität eurer Frequenzen angeht. Wenn da einer z. B. mit 2650 MHz schafft, was ein anderer mit 2700 MHz schafft, dürfte das Verhalten damit gemessen werden können.

Graphics Test 2 mit 20.12.2
gt_2_clocks_20_12_2.png


Graphics Test 2 mit 21.2.2
gt_2_clocks_21_2_2.png
 
Ach... die 3500rpm sind wohl doch zu laut? Beiß einfach in den Sauren Apfel und bau das Ding um... Wasserkühler für die Karte gibt es ja. Wenn ich an dein rumgeeiere bei der CPU denke ist ein Umbau auf einen WaKü Block die einzig logische Lösung, da deine WaKü eh schon sehr potent ist.

edit:

btw. neue Herausforderung

Treiber: 20.12.2:
Bei mir stürzt dieser mesh Test (mesh aktiv) sofort ab, auch komplett stock, woran könnte das liegen?
 
Zuletzt bearbeitet:
Oder muss man für den mesh feature Test den aktuellen Treiber haben, damit es läuft?
 
Ich pack meine Frage mal hier rein:
Meint ihr ne gute Custom unter Wasser schafft mehr als ne Referenz unter Wasser?
Oder einfach nur Chiplotterie?
 
Lotterie FTW :)
 
Oder erhöhe die Chancen mit ner Custom die paar Phasen mehr hat als die Ref.
 
Stock laufen lassen?
Du hast eine 6900XT die langsamer läuft als eine 6800XT stock, supi toll gemacht^^
Aber gut, ich hab jeden Morgen irgendwelche Rentner im Benz vor mir die strikt 70 fahren obwohl unbegrenzt ist^^
Das kann ja jeder handhaben wie er will. Du kannst deine Karte gern auf Stock laufen lassen bzw. übertakten.
Ich fand es aber schon immer toller, die eigentlich gelieferte Stock Leistung bei weniger Verbrauch zu erreichen.
Selbst wenn das am Ende bedeutet, dass ich vielleicht noch auf 200W hoch muss, um die eigentliche 6900 Stock Leistung zu erreichen - es sind dann immer noch 55W weniger.
Damit würde ich dann immer noch weniger verbrauchen als eine 6800 XT, hätte aber mehr Leistung.

Also lass doch bitte jedem seine selbst gesteckten Ziele, ohne dich direkt darüber lustig zu machen.

PS: Deine Analogie passt nicht wirklich. Ich will den Benz ja ganz normal (aus)fahren - ich will nur kein Chiptuning machen, damit er noch schneller fährt und mehr verbraucht. :P
...auch wenn ich zugeben muss, dass ich genau das bei meinem Auto habe machen lassen. :d Bei GPUs denke ich aber nun mal anders und ich hoffe, du kannst das akzeptieren.
Ich wünsche euch allen einen schönen Start in die Woche. Ich werde spätestens heute Abend berichten, inwiefern ich weiter gekommen bin bei meiner 6900.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh