[Sammelthread] Offizieller AMD [[ RX6700 // RX 6700XT // 6750XT // X6800 // 6800XT // 6900XT // 6950XT]] Overclocking und Modding Thread [[ Wakü - Lukü - LN2]]

Bin wieder zurück auf 21.11.3. Neuere Spiele hab ich noch nicht, und auf so einen Score mit Standard-Gaming-Einstellungen kann ich mit Adrenalin 22.x.y lange warten. Hatte in letzter Zeit größte Schwierigkeiten, 24/7 25K zu erreichen. Mit dem richtigen Treiber geht's wieder.

25448_daily.png

Da dies das Gaming- und nicht das Benchsystem ist, liefen alle Hintergrund- und Nebenprogramme und die Windows-Energieverwaltung war auf "Ausbalanciert". Man beachte bitte den CPU-Takt in GT2. Vor allem diejenigen, die dem 9900K gern ein CPU-Limit an die Backe labern würden. :fresse2:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Vor allem diejenigen, die dem 9900K gern ein CPU-Limit an die Backe labern würden. :fresse2:
Da schaut man nach langem mal wieder hier rein und muss feststellen, nichts neues im Westen, vorallem keine Einsicht. :whistle:
 
Gibt es irgendwo einen aktuellen Test, ob die 6800xt oder 6900xt besser ist in wqhd? Aktuell deshalb, weil sich seit dem Release so einiges am Treiber getan hat und ich mich wundere, weshalb die 6900xt so gut und unter UVP zu bekommen ist.
PC Gameshardware Test PCGH ... Auch mit aktuellen Treibern kommen die Abstände ungefähr so hin, da die 6900xt immer ein bisschen schneller ist als die 6800xt oder auch die 6800...

Wie immer kommt das auf einen selbst an. Welcher Monitor wird verwendet, 144 Hertz, 240 Hertz... Welche Spiele werden gezockt... Was für ein Prozessor ist verbaut...

Zockt man eher CPU oder GPU limitierte Games... Mit einer langsamen CPU in CPU intensiven Spielen, wäre es bei einem argen CPU Limit egal ob du eine 6900XT, 6800XT, 6800 im Rechner hast. Umgekehrt ala Cyperpunk 2077 mit Raytracing in UHD ohne DLSS oder FSR zwingt man jede Grafikkarte in die Knie, als Beispiel für etwas GPU intensives...
 
Zuletzt bearbeitet:
Im Prinzip spiele ich nur Hunt Showdown auf einem 144hz Monitor und 3700x CPU.
 
All very good information..thank you...hmmm ok you say you don't really know about the spi way....I would actually be a guinea pig now if I just decided to pull the card and give it a go? It may work? 😆😆😆 what's the worse that could happen? 😆😆😆😆😆😆 or! You are saying that now it is locked...external has no chance?
I don't know the scenario of "SPI fixing SMU/SME lock"
SPI will force "Flash-ROM" to be in full accessible state, and for example software for CH341 can put "expected protection" back
But current EVC could only read and remove WP
1656647794809.png


While current CH341 Neoprogrammer, (v2.2.0.10) can only do
1656647809460.png

Up to 8C but not 9C like it's expecting
Soo if Card has removedWP, soo 0x00
Turns to 0x40 once receiving power
But SME expects 0x9C - it will refuse to run full initialization and update // even if bios is fully compatible

Yet,
If the same thing happens on same firmware, same vbios and same memory training strap
It will just lock it down again to 9C, verify firmware, bootup and everything is fine ~ but you accomplished nothing

The problem,
Replacing the brain , without the body expecting a change, only works if the replacement is compatible and doesn't force an internal update
If you updated tho, and it expects a change it doesn't get ~ of course it won't boot up with then new "different" firmware :
It may work? 😆😆😆 what's the worse that could happen?
It maybe fixes itself, as you will force remove write protect ~ before even being able to flash
But it also may as well do nothing, when initialization refuses

From my side, it makes more sense to protect you from such event vs having to dual GPU flash unlock and flash it back ~ when the card hangs in an init loop
^ which people at elmorslabs had ~ hence i'm aware of the resolve, but not about the "SPI will fix everything" topic. It can not fix everything as ROM is not fully used.
Not much different on Navi10/11
Not much different on RTX 2000/3000/4000

The worst would be, having to solder wires and prevent the rom from being locked ~ then still do vbflash recovery (IF you mess up)
Option given before, was how to be aware of what happens (or has happened) while being in a functional state. To prevent non init boot-loop :)

Soldering is option #3,
You can do whatever you please, but a warning has been given
It was bothersome to recover and i've sit through it.
I wouldn't like to solder much on a potentially given back card, as the state of vbflash is not unlocked. You can put yourself in a situation having to RMA the card.
I know this, as if you check the #support thread in ElmorLabs discord ~ i've been assisting the 3rd person that tries to recover from an rebrand or generally stupid attempted idea.

Soo my recommendation stays,
Try to follow the instructions given, or "yolo" it and it might even resolve // we might learn something new
First before doing anything ~ confirm current state of the GPU , if locked or not
As again, using 3.31 or 4.71 vbflash "with a successful operation" ~ will indeed lock it down. That's the certainty i can give you. And a certainty how you recover from this.
The rest ~ your expected methods ~ misses data.
 
Zuletzt bearbeitet:
Ok thank you! I will get back to you on the status when I get a chance to run the check lock command!!
Beitrag automatisch zusammengeführt:

?
 

Anhänge

  • 20220701_154810.jpg
    20220701_154810.jpg
    1,8 MB · Aufrufe: 76
Zuletzt bearbeitet:
Im Prinzip spiele ich nur Hunt Showdown auf einem 144hz Monitor und 3700x CPU.
Würd erstmal gucken wo es überhaupt hackt. CPU oder Graka und dann entscheiden was sich lohnt oder nicht. Um die CPU zu testen einfach die Auflösung auf ein Minimum reduzieren und die Grafiksettings auf niedrigste Stufe stellen. So belastest du die CPU am meisten, und siehst schnell wie viele FPS die CPU in Spiel X Y überhaupt schafft. Die Grafikkarte sollte hierbei eine Auslastung von deutlich unter 95% haben,....

Kannst dir ja das mal durch lesen. Ist zwar schon etwas älter, aber an der Vorgehensweise ändert sich nichts daran... Was limitiert ....

Eine 6800XT ist für WQHD eigentlich mehr als ausreichend. Klar mit Resolutionscaling oder solchen Sachen kriegt man jede Karte klein, wenn man denn möchte.... Dann mal ENDE OT, ist ja ein GRAKA OC Thread hier....
 
Zuletzt bearbeitet:
Die Cryengine nutzt net viele CPU-Cores, da wird dann wohl das Bottleneck liegen, wenns net der Ram ist.
Ob ne AMD-graka@DX11 in dem Game mehr mit Drawcalllimit kämpft als ne NV-Graka, who knows.
Evtl. hilft ja der aktuelle Treiber ein bisschen.

... vllt. hilft ja auch 3d Cache? (sah ja in dem Video net schlecht aus)
Da kommen evtl. noch interessante Modelle: 5600+5900+5950 mit 3d

Da könnte man auf altem Board noch ganz schön aufrüsten.
zwecks
passendem Ram würde ich mich in den 5800x3D-Threads schlau machen, da scheints eh net ganz so wichtig zu sein,
schnellen/teuren Ram fürs Gamen zu nutzen (man spart am Ram aber die CPU kostet ein mue mehr als ohne 3d)
 
Zuletzt bearbeitet:
Alles klar, @treib0r? Vergiss die alberne GraKa-Frage, ne neue CPU und neuen RAM brauchst du! Typisch Hardwareforum eben. :d

Aber im Ernst: Mich würde interessieren, welche 68/6900 XT-Modelle du ins Auge gefasst hast, am besten mit Geizhals-Links. Dann lässt sich vielleicht noch was Sinnvolles zur Preis-/Leistungsfrage beitragen.
 
Danke für die Rückmeldungen. Ich bin davon ausgegangen, dass dies ein allgemeiner Radeon Thread ist und nicht nur für's OC/UV. Man möge mir verzeihen.😉

Ich hatte zum Release eine 6800XT und war mit der Leistung in Hunt Showdown zufrieden. (110-125 fps) Aufgrund einer Pause habe ich damals die GPU verkauft. Es geht mir nicht darum, das letzte Maximum aus meinem System herauszuholen.
Eigentlich wollte ich mir irgendeine leise 6800xt holen. Dabei ist mir aufgefallen, dass die 6900xt zum Teil deutlich unter UVP verkauft werden. Deswegen komme ich zu meiner eigentlichen Frage, ob die 6900xt (aktuell) "viel" mehr Leistung in wqhd gibt, als eine 6800xt. Auf alte Tests möchte ich mich dank verbesserter Treiber nicht verlassen.
 
Ok, diese Fragen wurden ja bereits beantwortet. Ohne konkrete Modelle und Preise lässt sich nicht mehr als das sagen (außer, man will unbedingt). Verbesserte Treiber haben sich auf beide ausgewirkt.
 
...Ich hatte zum Release eine 6800XT und war mit der Leistung in Hunt Showdown zufrieden. (110-125 fps) ....
Verstehe schon, glaube auch ein bisschen spielt es eine Rolle das man die 6800XT schon hatte, also will man wenigstens eine Stufe drüber und ein bisschen was besseres als vorher... ;)
Da ich ebenfalls unter Luft ein Auge auf gute Kühlung und gute Performance lege wären meine Favoriten bei den Preisen momentan folgende Modelle:

Sapphire Nitro + 6900xt
Asrock OC Formula 6900xt
Sapphire Toxic Air Cooled 6900xt
 
Zuletzt bearbeitet:
Und nur eine von den dreien hat einen XTXH Chip,
.....Es geht mir nicht darum, das letzte Maximum aus meinem System herauszuholen.
Eigentlich wollte ich mir irgendeine leise 6800xt holen. ....

Klar einen XTXH hat nur die Mittlere (Asrock) ist mir bewusst, aber ich hab aufgepasst um was es treib0r geht....
Für jemanden der das letzte bisschen Maximum raus holen will sollte auf andere Dinge achten, wie z.b. Lautstärke, aber selbst XTXH ist kein Garant das man mit Sicherheit mehr Leistung hat was das betrifft.
Die Chipgüte grätscht hier gern mal dazwischen wenn die Nuancen untereinander zu gering ausfallen in Sachen OC...

Für Letzteres ist zumindest eine 6950XT im Raum um sein maximales Glück auf Maximum zu versuchen....
 
Zuletzt bearbeitet:
So I didn't force flash my card...I merely tried it with 4.71 and got the mismatch...so it never did any bios flash....in my photo...it shows 0x00...is that how it should look when I enter the check lock command? If that's the case I haven't locked my rom yet?
 
Anlässlich 22.6.1 noch mal was zu Treibervergleichen. Hier hatte ich ja schon ein Spiele-Roundup interner Benchmarks gepostet, 22.5.1/2 vs. 21.11.3.

Von den zwei DX11-Spielen, die hier im Einsatz sind, startete das gemoddete GTA V unter dem "Wundertreiber" nicht mit meinen OC-Einstellungen. Das hat sich nun geändert, entweder weil AMD in 22.6.1 gegenüber 22.5.2 was verbessert hat oder weil der Einsatz einer kleinen Mod (PackfileLimitAdjuster, :wink: @19Phil88) geholfen hat. Ergebnis: GTA V performt mit 22.6.1 besser als mit 21.11.3, 64 zu 60 FPS im Benchmark.
Das zweite DX11-Game, Dirt 3, zeigt immer noch Bildfehler (zu dunkle Farben) mit dem neuen Treiber. Weil das hier beinahe täglich gezockt wird, ist das ein Ausschlusskriterium für 22.6.1. Den kann ich also ebenso wie seinen Vorgänger in die Tonne treten.

In den Spieletests blieb Time Spy außen vor. Das habe ich nun nachgeholt und bestätige, was hier angedeutet wurde: 21.11.3 ist in Time Spy besser als die Mai- und Junitreiber 22, eindeutig und reproduzierbar. Für Bencher, die gern die letzten zwei-, dreihundert Punkte rausholen möchten, kann das einen Versuch wert sein. Ein paar Best-Runs von heute mit beiden Treibern (daily Gamesettings):

22.6.121.11.3
25141
25141.png
25520
25520.png
25217
25217.png
25574
25574.png
Settings
25553_komplett.png

Das ist übrigens nichts Neues; @Devcom hat den TS-Vorteil des alten gegenüber den neuen Treibern schon vor Wochen mal erwähnt. Bedeutet nicht unbedingt, dass 21.11.3 jetzt der TS-Treiber ist; 21.10.2/3/4 z. B. könnten genauso stark sein. Und dann gibt es ja noch den guten alten 21.8.2, der einiges mit sich machen lässt.

Eine weitere Bemerkung: In den letzten Wochen mit den Mai-Treibern ist es mir erstmals passiert, dass der Screen nach restart64.exe häufig schwarz blieb, so wie es von anderen Usern schon berichtet wurde. Das Phänomen ist mittlerweile, nach ein paar Windows-Updates* und Treibertauschs (immer mit DDU) verschwunden. Ich kann die erweiterte H-Methode wieder machen, wie ich lustig bin, sie klappt immer.

Erwähnt wird dies als Anreiz für diejenigen, die damit Probleme hatten, es ruhig mal wieder zu versuchen. Solche Probleme müssen nicht für die Ewigkeit sein. Die Automatisierung, die hier fast ausschließlich verwendet wird, ist nun leicht entschärft mit 10 statt 8 sec. Pause zwischen den Restarts, damit der Treiber länger Zeit hat, sich "zu sammeln". Dafür wird das Bestätigungsfenster zum Abschluss bereits nach 5 sec. "gekillt". Details, nur der Vollständigkeit halber.

*Windows 11-Version ist 22H2 Build 22621.169 (Insider Release-Preview-Kanal).
 
Zuletzt bearbeitet:
Sodala jetz hab ich auch ein paar Werte für GTA V zusammen

Getestet wurde mit den Treibern 21.11.3, 22.5.2 und 22.6.1
W10 Pro 21H2
Die Ingame Einsellungen waren immer identisch: Alles auf "Anschlag" ausser MSAA X2, Reflexion MSAA x4, Hochauflösende und lange Schatten auf aus
Mite jedem Treiber wurden 3 Duchgänge gemacht
Wassertemperatur zwischen 24,5° und 26°

Mit den Treibern 22.5.2 und 22.6.1 wurden jeweils die besten Ergebnisse erzielt, obwohl ich die max. Frequenz der GPU auf 2695MHz beschränken muss, da ansonsten das Game abschmiert
Der 21.11.3 ist ein bisschen dahinter, obwohl ich hier auf Anschlag mit meiner GPU gehen kann: 2800MHz
 

Anhänge

  • Benchmark-22-07-02-23-27-00 2800 MHz 21.11.3.txt
    3 KB · Aufrufe: 48
  • Benchmark-22-07-02-23-36-05 2800 MHz 21.11.3.txt
    3 KB · Aufrufe: 56
  • Benchmark-22-07-02-23-31-31 2800 MHz 21.11.3.txt
    3 KB · Aufrufe: 48
  • Benchmark-22-07-02-14-25-39 2695 MHz 22.5.2.txt
    3 KB · Aufrufe: 56
  • Benchmark-22-07-02-14-16-35 2695 MHz 22.5.2.txt
    3 KB · Aufrufe: 49
  • Benchmark-22-07-02-13-51-54 2695 MHz 22.6.1.txt
    3 KB · Aufrufe: 43
  • Benchmark-22-07-02-13-47-21 2695 MHz 22.6.1.txt
    3 KB · Aufrufe: 47
  • Benchmark-22-07-02-13-37-01 2695 MHz 22.6.1.txt
    3 KB · Aufrufe: 60
  • Benchmark-22-07-02-14-21-08 2695 MHz 22.5.2.txt
    3 KB · Aufrufe: 48
Gibt es irgendwo einen aktuellen Test, ob die 6800xt oder 6900xt besser ist in wqhd? Aktuell deshalb, weil sich seit dem Release so einiges am Treiber getan hat und ich mich wundere, weshalb die 6900xt so gut und unter UVP zu bekommen ist.
Habe mal THS Laufen lassen. 6800XT, 5800X3D WQHD Preset High
HSDnoCap.jpg

 
Manche User haben sogar nach einem fresh install W10/11 und neuen Treibern ein Problem mit MPT, die Registry wurde nicht gelesen, das Dropdown blieb leer. Mit dem neuen SDK und W11 sollte das seit 1.3.8 eigentlich nicht mehr vorhanden sein. Trotzdem berichteten einige User immer noch genau dieses Problem, es kann nicht in die Registry geschrieben werden weil nichts im Dropdown-Menü zu finden ist.

1.3.11 hatte überarbeitete Funktionen zum Zugriff auf die Registry, wobei ich nichts gravierendes fand, also keine Bugs ausbesserte, das war eher Feinschliff und Hoffnung. Und es kamen weiterhin Berichte von Usern, welche von den verschwundenen Einträgen betroffen waren. Zuverlässig war da nur der Workaround über die Registry-Datei.

Igor ist dann etwas aufgefallen, "DriverDesc", der String den ich aus der Registry lese, muss nicht immer vorhanden sein. Es gibt aber noch einen weiteren Eintrag, welcher als Binary oder String vorhanden sein kann, "HardwareInformation.AdapterString". Den lese ich nun zuerst, dann DriverDesc, falls vorhanden. Und irgendwas davon ist immer da.
Ich hoffe das hilft auch der mobilen Truppe, bei denen unter DriverDesc manchmal nur jibberish stand.
 
Hallo Leute, Faust hoch, sorry für das schlechte Deutsch, da dies mit Google Translate ist, vor ein paar Tagen habe ich mit mpt mit der Treiberversion 22.6.1 herumgespielt. Ich habe ein Saphir-Toxic 6900xt mit dem XTX-Silizium. Mir ist aufgefallen, dass ich jetzt das VRAM-Taktlimit und die GPU-Kernspannung ohne temp_dependent_vmin erhöhen kann. Ich habe mit einigen Leuten online gesprochen, aber es scheint bei ihnen nicht zu funktionieren. Ich vermute, dass das Bios des Toxic etwas anderes als die anderen hat, um mir dies zu ermöglichen. Ich habe jedoch festgestellt, dass ich selbst mit erhöhter VRAM-Spannung den VRAM nicht dazu bringen konnte, ohne großen Leistungsabfall höher als etwa 2170-2180 zu takten. Die Kernuhr war in Ordnung und funktionierte jedoch perfekt. Jegliches Feedback oder Kommentare sind willkommen.

1656972433876.png
 
Ist gerade langweilig hier. Zeit, Holzis Behauptung, meine Tests seien möglichwerweise nicht aussagekräftig, weil die "betagte" CPU limitiere, endgültig ins Reich der Fabel zu verweisen. Die bisherigen Erklärungen, obschon reichlich geliefert, haben ja nicht zu einer Einsicht geführt. Also, nächster Versuch. ;)

Da schaut man nach langem mal wieder hier rein und muss feststellen, nichts neues im Westen, vorallem keine Einsicht.

Das war die Reaktion auf meinen Hinweis, dass der 9900K @5,1 GHz allcore in Time Spy GT2 nicht mal vollständig hochtaktet, weil er es offenbar nicht muss.

Vertiefen wir das mal. Wenn die CPU in GT2 nicht ihren vollen Boost-Takt rausholen muss, kann ein vermeintlicher Flaschenhals eigentlich nur in GT1 liegen. Also hab ich dort ein CPU-Limit von der ersten bis zur letzten Sekunde erzeugt, mit einem Lauf in der internen TS-Auflösung 1280x768. Die niedrigsten CPU-FPS liegen mit 180 zu Beginn der dritten Szene an. In meinen Tests mit dem anspruchsvollen 2850-MHz-Setting schafft die GPU an dieser Stelle 150. Näher kommen sich die beiden FPS-Werte nirgends. Und am Ende von GT1, wo die Top-3-Karten in ihren High-Score-Runs 240 FPS liefern?

Screenshot 2022-07-05 132600.png

Nun ging es aber gar nicht um Time Spy und 180, 240 oder 520 FPS. In den Treibertests, auf die du, Holzmann, dich beziehst, werden weniger als 120 FPS erzeugt, weil das die Max-Hertz meines Monitors sind und ich die Grafiksettings der Spiele darauf einstelle, darunter zu bleiben. Die Auflösung von 5120x1440 px (das ist nahe an 4K) sorgt für maximale Grafikarten-Auslastung. Gibt es die geringsten Zweifel daran, dass der 9900K in meinem Games-Roundup jederzeit 120 FPS liefern kann?

Freundlicherweise geben einige Spielehersteller in ihren Benchmarks Hinweise darauf. Frisch aus der Küche:

Shadow of the Tomb RaiderThe Division 2Forza Horizon 5 (sogar mit Punktewolke :love:)
SOTTR.pngTD2.pngFH5.png

Zum Vergleich mal der FH5-Benchmark mit @GerryBs System: So sieht ein partielles CPU-Limit aus. Die blauen CPU-Punkte fallen an einigen Stellen tief in die gelben GPU-Punkte. Erhellend sind auch die Werte bei Ruckler, GPU-Beschränkung und Latenz. Das ist alles CPU/RAM.

FH5_2588-2205@921_2066FT.png
Quelle

Warum grabe ich das Thema wieder aus? Weil erst gestern @dimi0815 den Zusammenhang wunderbar erklärt hat, in einem Thread, den ich deshalb als Beispiel wähle, weil du auch darin postest. Ich zitiere aus diesem Beitrag mal ein paar Zeilen:

Eine 3090 Ti schafft in Spiel X in 4k / Ultra Settings 90 FPS im Schnitt, mit den Details heruntergeregelt vllt. 120 FPS.
Ein 5800X3D oder 12900KS schaffen im selben Spiel 190 FPS im Schnitt.
Ein 12700K schafft ein paar Prozentpunkte weniger und lander bei 152 FPS.
Ein 5700X schafft ebenfalls im selben Spiel 145 FPS.

Ankommen werden am Ende bei dir IMMER exakt die niedrigstmöglichen FPS, nämlich die 110 der GPU.

Den CPU-Vergleich habe ich Anfang letzten Jahres übrigens selbst durchgeführt, 8600K vs. 9900K, wenn auch noch mit schwächerer Grafikkarte und entsprechend niedrigeren FPS. Unterschied: gleich Null, weil GPU-Limit.

Übertragen auf 9900K vs. 12900K: Deine topaktuelle CPU wird am Ende von Time Spy GT1 sicher mehr als 520 FPS liefern. Aber was ändert das an den limitierenden 240 GPU-FPS? Richtig, nichts.

Und weil im zitierten Beitrag auch der RAM angesprochen wird:

Kaufst du dir aktuell DDR5, hängst du in Bezug auf Latenzen dem ordentlichen aktuellen DDR4 noch hinterher und büßt so an manchen Stellen auch mal ein paar FPS ein. Beim Verhältnis Durchsatz/Latenz ist es aktuell noch so, dass du massig Aufpreis für letztlich nur sehr wenig Leistungsunterschied zahlst und alles zusammen wird nur relevant, wenn du dich mal im CPU-Limit befindest, was in 4K eher selten sein wird.

Die RAM-Performance (8600K vs. 9900K) habe ich seinerzeit ebenfalls verglichen, sogar mit identischen CPU-Taktraten. Ergebnis: nur minimaler Vorteil für den 9900K.

4400-16-17_8600K.png 4400-16-17_9900K.png
Quelle

Das war der maximal geschärfte DDR4-3200@4400 CL16, wie er heute noch fast genauso hier läuft. Der Durchsatz ist mit hoch taktendem DDR5-Speicher sicher noch deutlich besser. Aber schau dir die wichtigen Latenzen an. Was schafft dein superfancy Trident Z5 RGB DDR5-6600@6800 CL32 da gleich? Zeig doch mal die Latency laut AIDA64. Die effektiven Zeiten habe ich für deinen und meinen RAM schon mal ausgerechnet: 7,3 ns hier, 9,4 bei dir. Dabei sind die Unterschiede bei sekundären und tertiären Timings nicht mal berücksichtigt; verwendet wurde einfach die Formel
Code:
CAS-Latency ÷ effektiven Speichertakt × 2.000 ns
Quelle

Um kein Missverständnis aufkommen zu lassen: Selbstverständlich ist ein 12900K schneller als ein 9900K. Und was ich heute zeige, würde in fünf Jahren mit derselben Hardware und neueren Games nicht mehr passen. Aber die geschätzte Community darf darauf vertrauen, dass die Beispiele, die ich teile, weder meine Kompetenz übersteigen noch die der verwendeten Hardware.
 
Zuletzt bearbeitet:
Rübergeholt vom UV-Thread:

Dieser Treiber wurde gerade von AMD Software heruntergeladen

Dann brauch ich ihn ja nicht zu installieren. Oder tritt die Besonderheit nur mit diesem Treiber auf?

Schreib mal bitte, was ich tun muss, um mit der 6900 XT Reference 2250 MHz VRAM-Takt einstellen zu können. :)
 
Rübergeholt vom UV-Thread:



Dann brauch ich ihn ja nicht zu installieren. Oder tritt die Besonderheit nur mit diesem Treiber auf?

Schreib mal bitte, was ich tun muss, um mit der 6900 XT Reference 2250 MHz VRAM-Takt einstellen zu können. :)
Ich bin mir nicht sicher, ich habe das gerade heruntergeladen und den maximalen VRAM-Takt und die Kernspannung geändert. Wenn es also gleich ist, sollten Sie einfach den maximalen VRAM-Takt in mpt erhöhen können, und es wird funktionieren
 
Nein, geht nicht, jedenfalls nicht per MPT. Erhöhe ich dort das VRAM-Limit und dann den Takt im Treiber über 2150, geschieht das Erwartete: Fail Safe mit 500 MHz max GPU-Takt.

Screenshot 2022-07-06 000700.png

22.6.1 weiterhin nicht deswegen installiert, weil ich mir nicht vorstellen kann, dass das ein Treiber-"Feature" ist.

Mag sich mal jemand dazu äußern, der sich mit BIOSen auskennt?
 
Kann mal Jemand mit DualBios das komische Bios von Garlic draufflashen?
(siehe Post#641 im UV-Thread)
Solange man net dasselbe Bios auf dem ROM hat, ist das Ganze schlecht nachvollziehbar.
(weil die Nr. eigentlich eher zu ner KXTX passt)

btw.
Bei Flashversuchen mit 6950-Bios gabs meist Probleme mit SAM/rBar.
(müsste man evtl. OFF lassen auf dem Motherboard. ... erstaunlich das rBar bei Garlic funzt)
 

Anhänge

  • Garlic6900_BiosVersion.png
    Garlic6900_BiosVersion.png
    16 KB · Aufrufe: 72
Zuletzt bearbeitet:
Nein, geht nicht, jedenfalls nicht per MPT. Erhöhe ich dort das VRAM-Limit und dann den Takt im Treiber über 2150, geschieht das Erwartete: Fail Safe mit 500 MHz max GPU-Takt.

Anhang anzeigen 773988

Mag mal jemand sich dazu äußern, der sich mit BIOSen auskennt?
Vielleicht ist das Bios meiner GPU etwas anders? Vielleicht kann das ein anderer TOXIC-Besitzer ausprobieren?
Beitrag automatisch zusammengeführt:

Ich kann auch mein MPT-Profil senden, wenn ich nach Hause komme, wenn ihr wollt.:unsure:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh