[Sammelthread] Offizieller AMD [[ RX6700 // RX 6700XT // 6750XT // X6800 // 6800XT // 6900XT // 6950XT]] Overclocking und Modding Thread [[ Wakü - Lukü - LN2]]

Sind die Treiber OC Settings erforderlich oder kann ich das auch mit anderen Tools machen?

Das meiste kann man zb auch mit dem MSI AB machen, aber warum noch ein tool, wenn der Wattman so gut funktionieret....
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Auch wenn ich jetzt wieder Prügel beziehe . Ich habe die Jungs aus der 3090er Oc Thread aufgemischt :ROFLMAO:

Das geschah auf eigenen Wunsch
Nachzulesen hier :
 

Anhänge

  • max oc 3000.jpg
    max oc 3000.jpg
    233 KB · Aufrufe: 92
Zuletzt bearbeitet:
Weil deine Karte stärker taktet/ leistet als die 3090?
 
also wenn ich morgen zeit und lust finde, dann teste ich die Karte mal ohne Riser im Slot. :-)
 
Einfach den Thread lesen und selber testen, in der Regel kommt man mit einer max. OC 6900 XT nicht in deren Regionen.
Daher meine Frage.
Konnte mit dem Score nichts anfangen bzw. kann es aktuell noch immer nicht.
Aber das ist ne andere Geschichte.

Setzt sich euer Watzmann auch öfters nach längerem nicht nutzen des PCS zurück? Bei mir immer wenn ich 2 bis 3 Tage nicht dran war.

Bin eh erstmal bis 19.7. frühestens raus, dann mit WaKü weiter.
 
ich bin erst mal durch für heute.
Treiber mal ohne das Slim Tool neu installiert und immer noch Taktet die GPU nicht hoch. (vorher mit DDU im safe mode deinstalliert)
Dann ULPS in der registry aus gemacht, hat auch keine Wirkung gezeigt.
Habe jetzt Doom und Far Cry 5 getestet und in beiden Spielen gammelt die die GPU so auf ~700-1200 MHz rum.
20210705231152_1.jpg


An dem Graphen sieht man es auch schön, bevor es so hoch geht läuft die Karte die ganze Zeit unter 1000 MHz und am Ende geht die bis 1200 hoch.
20210705235552_1.jpg


Kann es am Riser Kabel liegen, welches bei meiner alten GPU aber nie Probleme gemacht hat, mein X370 Chipsatz hat eh kein PCIe 4.0 :unsure:
 
in nur FHD bist Du im CPU-Limit, probier mal per VSR auf 4k zu gehen
VSR im Controlpaneel aktivieren, ....2160p sollte dann im Game als Resi anwählbar sein

oder
Lade Dir mal den GravityBenchmark runter.
Der kann evtl. auch in FHD die Graka auslasten.

dito
Wahrscheinlich wird Es auch in Games/Benchmarks mit RT schon in FHD ne gute Auslastung geben.
 

Anhänge

  • Demo@FHD.jpg
    Demo@FHD.jpg
    293 KB · Aufrufe: 56
  • BMIlow57fps.jpg
    BMIlow57fps.jpg
    246,1 KB · Aufrufe: 65
  • VSR.JPG
    VSR.JPG
    22,3 KB · Aufrufe: 55
Zuletzt bearbeitet:
Unter Luft komme ich defenitiv nicht auf 21k Punkte ohne einen Schaden der Grafikkarte in Kauf zu nehmen.

Das höchste an Punkten war 20899 Punkte war mit Hotspot max 110 bis 112 Grad.
War mir aber zu hoch und riskant bei 1,175V, PTT 365W+15% PL und TDC 300 bis 360A.


Ich komme jetzt mit 20839 knapp bisauf 60 Punkte an den max Grafikscore heran bei zusätzlich höherem CPU Score.
Mit 92 Grad Hotspot und 20 Grad weniger auch mein Limit unter Luft.

Weniger Voltage, Wattage und Amper.


Das Setup hab ich dieses mal als Profil+ Sshot gesichert ;P

Vram spielt bis jetzt keine Rolle.

1625544966954.png
 
Zuletzt bearbeitet:
Danke @pocketorc für die Erklärung. Ich find deine besser als das was Gurdi da recht knapp geschrieben hat. Und mir gehts wie @ShirKhan ich habs immer noch nicht ganz. Du schreibst da weit unten "Besser und realistisch, 1000 im Wattman, Fast Timings Level 1 oder 1030 im Wattman mit Fast Timings Level 2." - Hä? Ich denk, im Wattman stell ich die "doppelten" Takte ein, also 2000 MHz oder 2060 MHz?

Und dann noch generell: @Reous hat nen gute Artikel zu RAM Timings vs. Takte, sein Fazit ist, dass Takt schlägt Timing, also lieber hoher Takt und das Timing etwas reduzieren als Wahnsinnstiming und der Takt wird nicht geschafft. Wäre das bei GPUs anders? Warum versuchen wir Fast Timings 2, wenn wir in FT1 oder ST nen höheren Takt haben könnten?

heyho,

ich hab nur den text aus igors kopiert. bin daraus auch nicht zu 100% schlau geworden.

edit:

das wichtige im zweiten teil ist wohl:

„Im Wattman jeweils zu setzen mit 1:2 Teiler. Bsp. 2060>=1030 im Wattman (MPT?!)= Timing Level 2“

in allem danach glaub ich hatt er dauernd geschrieben : „dasunddas in wattman einstellen und diesunddas in wattman einstellen“ (könnte er vielleicht meinen: soviel in wattman und soviel in MPT ? - würde sinn machen!)

edit 2: ich hoff ich versteht wie ich das meine. 😂
 
Zuletzt bearbeitet:
@ILoveTattoo schöner Score nur kann ich diesen nicht nachvollziehen, ich komme mit höherem Takt nicht Mal annähernd in die Region von 44xx. Als ich es damals getestet hatte mit über 3ghz kam ich nur auf 39xx. Nutzt du gerade win11? Oder sind die aktuellen Treiber besser als die davor?
 
@pocketorc Da ham wir uns beide mit diesen blöden Timings wieder verzettelt. Das zeigt mal wieder, wie wichtig ne gute Erklärung wäre. Und dass die beim Igor den Artikel echt mal korrigieren könnten - oder uns hier reingrätschen und sagen, dass er stimmt - aber dann würd ich die Welt nicht mehr verstehen, wenn ich mir 1000 MHz VRAM im WM einstellen soll.
 
Das mit den Timings ist prinzipiell gut zu verstehen wenn man ein paar Sachen beachtet:

1 - Änderungen der Frequenz im Wattman ändern nichts an den Timings

2 - Ändern des Timing Levels im Wattman reduziert die Timings.
- FT 1 um 1 Stufe, FT 2 entsprechend um 2 Stufen

3 - Ändert man den Takt in DPM3 über MPT verändert das auch die Ausgangsbasis für die Timings
- Punkte 1 und 2 bleiben weiterhin wahr
- Änderungen im MPT können die Ausgangstimings verbessern oder verschlechtern
- Weniger Takt im MPT bedeutet straffere Timings, Höherer Takt bedeutet laschere Timings

Tabelle auf IgorsLab

TaktTiming Level
<18000
1800-20591
2060-21242
2125-22493

Beispiele :

1)

Nehmen wir an wir haben im MPT 1075 stehen. Bedeutet der Takt ist 1075x2 = 2150. Anhand der Tabelle sehen wir das wir bei 2150 im Timing Level 3 sind. Durch Änderung des Timing Levels in Wattman können wir jetzt die Timings auf Level 2 (FT 1) oder Level 1 (Ft 2) straffen. Mit FT 2 haben wir also am Ende Level 1 Timings bei 2150 Mhz.

2)

Wir starten im MPT mit 1040. Unser Takt ist also 1040x2 = 2080. In der Tabelle sehen wir das wir in Level 2 sind. Jetzt gehen wir in den Wattman und erhöhen den Takt auf 2150Mhz, das ändert nichts an unseren Timings, also weiterhin Level 2. Jetzt können wir das Timing Level wie gehabt über den Wattman ändern. Ft 1 bringt uns jetzt wieder eine Stufe runter, also auf Lvl 1, Ft 2 bringt uns auf Level 0. Im Falle von FT 2 wäre unser Endresultat also 2150 Mhz und Level 0 Timings.

In wie fern die Tabellen Werte richtig sind weiß ich nicht, das ist hauptsächlich der Versuch die Aussagen von Gurdis Guide etwas verständlicher zu beschreiben.
 
@ApolloX
Um das nochmals kurz aufzugreifen mit meiner CPU auf Standard und dem Effektiven Takt der GPU...
Sorry im Voraus für das komische Bild. Ich hab 2 Monitore,,... einen 32er 16:9 und einen 34er 21:9 im Pivot... Bisschen Zoomen kann ja jeder denke ich....
War nicht lange im Spiel,... Daher sind die Maxwerte beim Singlecoreboost noch nicht durchgeswitcht....

Wie man sieht takten einzelne Kerne mit ~4,65 Ghz... Wenn nötig Singlecoreboost auf ~4,95 Ghz. Sollte ein Spiel kommen was wirklich Cinebenchauslastung schafft, kann ich über mehr Powerlimit der CPU und PBO nachdenken. Wie gesagt 4,8 Ghz Allcore sind nicht einfach stabil zu bekommen für einen 5900x und für mich ist es das auch nur wenn es Primestable ist. AVX gehört eigentlich auch dazu da es mittlerweile auch Spiele gibt die das nutzen. Denke die meisten sind froh Allcore 4,7 Ghz rum bei 12 Kernen und mehr. Mit weniger Kernen ist das Ganze einfacher klar, hab aber nun mal 2 CCD´s. Von dem her halte ich es mit meiner 6800 auch nicht für nötig vielleicht für 100 Mhz mehr CPU-Takt auf Diese deutlich mehr Saft drauf zu brezeln... Klar sehen 4,75Ghz besser aus aber 4,65Ghz sind natürlich schon enorm langsamer... Dafür aber eben mal kurzerhand 20° kühler und deutlich sparsamer... Wenn PBO es schafft die letzten paar Mhz auch kühler und sparsamer rauszuquetschen als jetzt, überlege ich mir das vielleicht nochmal mit PBO...

@ShirKhan
Mit HWINFO zum Beispiel kannst du dir den effektiven Takt anzeigen lassen. Hab es rot markiert bei der GPU... Hatte ich vergessen zu erwähnen...
Doom Raytracing.jpg



Und ja ich hab so wenig FPS weil ich Raytracing an habe...:d
 
Zuletzt bearbeitet:
Mit HWINFO zum Beispiel kannst du dir den effektiven Takt anzeigen lassen.
Womit wir dann insgesamt so vier bis sechs verschiedene GPU-Takte hätten:
  1. eingestellter Minmal- und Maximaltakt im Wattman
  2. anliegender Takt unter Last
  3. "effektiver" Takt laut HWiNFO (was immer das nun sein soll)
  4. Core-Takt und Durchschnittstakt während eines Laufs laut 3DMark
Ja nee is klar. Wenn's einfach wär, würden es ja alle machen ... :fresse2:

Ich geh jetzt mal meinen 9900K köpfen. Wird doch irgendwie kaputtzukriegen sein, das System!
 
Zuletzt bearbeitet:
Womit wir dann insgesamt so vier bis sechs verschiedene GPU-Takte hätten:
  1. eingestellter Minmal- und Maximaltakt im Wattman
  2. anliegender Takt unter Last
  3. "effektiver" Takt laut HWiNFO (was immer das nun sein soll)
  4. Core-Takt und Durchschnittstakt während eines Laufs laut 3DMark
Nein, es gibt eigentlich nur 2. Den GPU-Takt und den Effektiven-GPU-Takt, ich nenne es im Nvidia-Style Videoclock. Genauso wie bei der CPU effektiver Takt..

Zu1 und 2: Der Minimaltakt ist der Takt den die GPU nicht unterschreiten darf. Der Maximaltakt ist der Takt den die GPU nicht überschreiten darf. In diesem Fenster taktet die GPU je nach Last, Verbrauch, Temperatur, Powerlimit...

Zu3: Wie gesagt im Nvidiastyle ist der Videoclock, der Effektive Takt. Gab da mal ein paar Referenz-Karten, die mit leicht weniger GPU-Takt, schneller waren als so manche Customkarten mit leicht höherem GPU-Takt.
Der Grund, der effektive Takt war höher als der der Customkarten und somit hatte die GPU auch mehr Leistung... Auf dem Papier liese sich so wenn man wollen würde etwas tricksen... Will hier nichts unterstellen...

Zu4: Der Core-Takt ist dein GPU-Takt. Der Durchschnittstakt ist der den die GPU im Durchschnitt schafft bzw der der im Mittel genommen anliegt... Schätze der 3D Mark berechnet anhand dem niedrigsten und dem höchsten GPU-Takt daraus den Durchschnittswert den die Karte Insgesamt schaffte... Da der Takt durch Limitierungen wie Powerlimit, Temperaturlimit, Last usw nie gleich anliegt. Das ließe sich zum Beispiel außer Kraft setzen mit einem OC-Bios das anders programmiert wurde... Hier würde dann der GPU-Takt immer fest anliegen. Könnte man dann vergleichen mit Energiespareinstellungen auf Höchstleistung,,... Immer Vollgas...

Ich versuch es Anhand einem alten Bios von Nvidia. Es ist alles nicht ganz so einfach hinter den Kulissen.

Die Karte hat verschiedene Booststates/Boosttable bzw viele verschiedene Stufen. Je nach dem was ich der Karte sage, welche Last, Temperatur, Watt anliegt taktet die Karte mit dem was im Bios hinterlegt ist.
Glaub auch das dass zu viel werden würde wenn wir alles durchkauen... Durch Mods Beispiel XOC-Bios konnte man so einiges umgehen wie auch das Spannungslimit usw...

Ist jetzt nur mal ein Beispiel was man früher alles im Bios machen konnte wenn man wusste was man tat....
Vielleicht hilft das ein bisschen zu verstehen das es nicht ganz so einfach ist was die Karte gerade macht und warum sie das tut....
Bios.jpg


Mittlerweile geht ja so etwas nicht mehr für uns Ottonormalsterblichen... Bios auslesen, verstellen usw ist für uns Tabu...
 
Zuletzt bearbeitet:
Wird doch irgendwie kaputtzukriegen sein, das System!
Schütt bei laufendem betrieb nen Eimer Wasser rein, geht ganz schnell :-)

@IXI_HADES_IXI ja versteh mich da nicht falsch, was du da laufen hast ist effekt ja ne Art PBO, deiner boostet ja. Ist ja nicht so, dass deiner "Allcore 3,8" läuft. Mich nerven, naja, zu hart ausgedrückt, ich finds ne verpasste Chance, wenn Leute sagen, "meine CPU lief nur 3,8 Stock, keine Ahnung, was die könnte, denn OC mache ich nicht".
 
Update von mir, Karte ist im Slot und läuft ohne Riser...

.... nicht schön aber schnell?

 

Anhänge

  • no Riser.PNG
    no Riser.PNG
    1,2 MB · Aufrufe: 54
Schütt bei laufendem betrieb nen Eimer Wasser rein, geht ganz schnell :-)

@IXI_HADES_IXI ja versteh mich da nicht falsch, was du da laufen hast ist effekt ja ne Art PBO, deiner boostet ja. Ist ja nicht so, dass deiner "Allcore 3,8" läuft. Mich nerven, naja, zu hart ausgedrückt, ich finds ne verpasste Chance, wenn Leute sagen, "meine CPU lief nur 3,8 Stock, keine Ahnung, was die könnte, denn OC mache ich nicht".
Die CPU läuft stock so. Clockstretching kannst du zum Beispiel nur mit Cinebench oder bei 100%iger Last überprüfen bzw den effektiven Takt. Meine CPU läuft so wie von AMD vorgesehen... Rein Stock gibt es bei den CPU´s nicht mehr. Die boosten halt auch je nach Last-/Verbrauch-/Temperaturszenario. Man muss halt insgesamt verstehen wie die CPU´s oder auch GPU´s mittlerweile funktionieren und dann kann man hier mit viel Mühe je nach dem mehr oder weniger viel rausholen. Die Chipgüte spielt da logischer Weise auch mit rein. Bei Ryzen CPU´s holt man eben meistens etwas weniger raus als bei den GPU´s. Zumindest noch...
 
Warum denkst du sollte sie so schneller laufen?

Weil es sein kann, dass bei mir unter Last von 16x auf 8x runter geschaltet wurde, im Idle konnte ich das einige Mahle beobachten.

Letztlich wurde es mir empfohlen zu probieren, ein weitere Versuch die Ursache für oft inkonstante Leistung zu finden.
Unversucht wollte ich diesen Punkt nicht lassen, auch wenn ich mir wenig davon verspreche....

...Tests folgen etwas später .....


Edit: im pcgh Forum hat ein Experte zum Thema Riser und pcie 4.0 folgendes Statement abgegeben, welches nachdenklich stimmt:

"Wenn PCIe.4.0 tatsächlich funktioniert gibt es keinen Leistungsverlust. Nur ist das oftmals nicht der Fall weil Riserkabel prinzipbedingt die PCIe.4.0 Spezifikation nicht einhalten können selbst wenn sies wollten (und draufschreiben) da die maximal erlaubte Leitungslänge überschritten wird." pcgh
Beitrag automatisch zusammengeführt:

Hat leider nichts gebracht, weiß der Geier wo ich die Leistung verliere :shake:


Was soll ich noch tun?
 
Zuletzt bearbeitet:
...weiß der Geier wo ich die Leistung verliere
Du solltest Dir bitte mal angewöhnen, auch die Settings MPT+WM mit zu posten! (x)

Core 2656 Durchschnitt 2597 liegen doch gut "nah" beieinander, Wo soll Da was net funzen!?
ausser die GPU-Auslastung wäre zu sehr unter 99%

(x) und wenn Du noch ein GPU-Z mitlaufen lässt, um mal die Spannungen+Watt+Takt im Verlauf anzuschauen, stört es auch net,
kostet zwar evtl. ein paar Points aber die Infos wären nützlich.
Noch besser wäre ein log per HWinfo, dann im Viewer mal richtig unter die Lupe zu nehmen. (siehe Bsp. im Anhang)


Und wie schaut Es inzwischen mit der Qualität vom Vram aus?
2150 vs. 2140
Bringt 2150 überhaupt noch Was?
 

Anhänge

  • Bsp_log_Auswertung.jpg
    Bsp_log_Auswertung.jpg
    146,4 KB · Aufrufe: 60
Zuletzt bearbeitet:
Du solltest Dir bitte mal angewöhnen, auch die Settings MPT+WM mit zu posten!

so sieht das Setting aktuell aus
Beitrag automatisch zusammengeführt:

, Wo soll Da was net funzen!?

Kann einfach nicht verstehen, warum dort bei anderen mit fast gleichem Takt so viel mehr Punkte raus kommen, selbst ich hatte gestern 2 Läufe mit knapp 22.8K dabei??
 

Anhänge

  • setting.PNG
    setting.PNG
    78,6 KB · Aufrufe: 80
@Holzmann
Ich gehe mal davon aus, das Du heute durch den Offset net soviel Watt gezogen hast. (z.Vgl.gestern war der Offset=0! )
Der Offset hat auch den effektiven max.CoreTakt von 27xx auf 26xx gedrückt.

Du könntest jetzt im WM von 1115mV auf 1122mV gehen und den maxTakt schrittweise anheben.

Im Prinzip ist Es sogar wunderbar, das Du denselben maxTakt 2765@1115 vs. 2768@1175(gestern) einstellen konntest.
Das lässt noch Spielraum erahnen.
Zusätzlich hast Du maxSOC auf 1125mV senken können. Hast Du auch etwas am maxSOC-Takt im MPT geändert?
 
Zuletzt bearbeitet:
Noch besser wäre ein log per HWinfo, dann im Viewer mal richtig unter die Lupe zu nehmen.


Von diesem Lauf mal alle GPU Werte von HW, danke für die Analyse
Beitrag automatisch zusammengeführt:

Stell VRAM auf 2100 ein und schau, ob das mehr oder weniger Punkte bringt. Oder bist Du sicher, dass das dein VRAM ohne Fehlerkorrektur auf 2150 läuft?

Bin da sicher. mit weniger VRAM Takt gehen die Punkte weiter runter.
Beitrag automatisch zusammengeführt:

Hast Du auch etwas am maxSOC-Takt im MPT geändert?

nein
 

Anhänge

  • hwinfo.PNG
    hwinfo.PNG
    34,5 KB · Aufrufe: 66
Von diesem Lauf mal alle GPU Werte von HW, danke für die Analyse
Der SOC hat max 1063 mV gebraucht. Ich glaube die mV-Werte bei HWInfo sind nicht immer ganz stimmig, aber probiert mal die Soc noch weiter abzusenken auf 1100 mV und schau, ob das noch was bringt. Kann aber auch instabil werden. Wie sah die Kurve der GPU-Auslastung in TS aus? Wenn die nur 1-2 Dips auf 95-97% hat ist der Lauf fürn Mors.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh