[Sammelthread] Offizieller AMD [[ RX6700 // RX 6700XT // 6750XT // X6800 // 6800XT // 6900XT // 6950XT]] Overclocking und Modding Thread [[ Wakü - Lukü - LN2]]

Ok, dann mache ich hier in einem etwas langen Post mein RX-6800-MPT-OCUV-Tutorial (erfahrungsbasiert):

Einleitung

Zur Referenz. Hier sind die optimierten Ergebnisse "24/7"-OC und dem 21.3.1-Treiber. Mit diesen Einstellungen erreiche ich 8011 GPU-Score in TimeSpy Extreme. Mit dem ersten für mich stabilen Treiber 20.11.3 schätze ich mal, wären es etwa 120 GPs weniger.:

TSX_210_217_24_7_OC_SoC_37_8011_GPs.jpg


Hier die Referenzwerte:

MPT-Default.jpg


Methodik

Zunächst sollte man sich das Ziel klarmachen:

- mehr Leistung zu jedem Preis (a.k.a. High-OC, Holzmann-Methode),
- UV zu jedem Preis und mit Rücknahme von Power (a.k.a. Underpowering, Duvarsche-Methode),
- moderate Settings mit Fokus auf eine dieser Richtungen: OCUV oder UVOC.

Ich persönlich wollte eine ausreichend leise Karte bei deutlich mehr Leistung unter Luft, quasi eine "Schrödinger-Karte": gleichzeitig schnell und "vernünftig". Ich muss dazu sagen, dass ich eine gute Karte erwischt habe, die Werte sind also nicht sehr repräsentativ, aber das Vorgehen sollte für das OCUV ähnlich sein.

Nun gibt es mehrere Ansätze dafür, wie man vorgeht:

- Zielloses Setting-Kopieren: leider glücksbedingt, ob es klappt, aber zumindest schnell. Nicht empfehlenswert.
- Zunächst die höchste Leistung ausloten für die jeweilige Karte und dann eine Wunschfrequenz ermitteln ((High-)OC). Daraufhin die Spannung reduzieren. Vorteil: man erarbeitet sich nebenbei das konkrete Ziel oder den konkreten Wunsch mit. Nachteil: frustrierender Start, da nach oben hin der Rechner oft crasht und es auch nicht einfach ist ein hohes OC zu ermitteln. Sehr zeitaufwendig.
- Zunächst die Spannung und / oder das Power-Limit setzen / limitieren / maximieren und sich dann nach oben hocharbeiten und die Limits bei Bedarf immer wieder anpassen. Vorteil: man lernt viel dabei. Nachteil: dauert auch schon lange. Ob das zeiteffizienter ist als die obere Methode, kA.

Historie

Ich veranschauliche ab jetzt mit meiner eigenen OCUV-Methode (also der zweite Ansatz, s.o.):

Da ich von Anfang an MPT am Start hatte, habe ich mich zunächst an die Igor'sche Empfehlung gehalten das XT-Bios reinzuladen. In TimeSpy Extreme gab es da aber schon Crashes mit Max-OC. Max-OC bezeichnet hier die Werte "alles auf Anschlag". Übrigens ging Max-OC mit den meisten Spielen und Benches (SuperPosition und FireStrike), wenn ich mich richtig erinnere. Ja, die Empfehlung Igor's war ja auch nur das Power-Target von + 15 % zu setzen und sonst nichts, was ich aus Gründen ausschlug (wollte da evtl. manuell steuern, kA).

Ab etwa 220+ W Power Limit (GPU) a.k.a. "TDP-Limit" crashte die Karte reproduzierbar im TimeSpy Extreme. Das ist was ich damals maximal erreichte:

1617202225177.png


Wie man im Nachhinein und nach etlichen Wochen gesehen hat, ist dieses Ergebnis suboptimal, da zwar viel höhere Frequenzen als mittlerweile maximal anliegen, aber TimeSpy Extreme's Frequenz-Kurve ungerade ist, also die Frequenzen sehr stark schwanken.

Etwas später konnte man sehen, dass mit weniger Wattman-Spannung mehr Score ging trotz weniger Frequenz:

1617202583082.png


Hier ist zu beachten, dass die TDC-SoC auf 37 angehoben ist, was nach heutigem Wissen auch etwas Leistung brachte. Dann erarbeitete ich mir ein vorläufiges 24/7-OC, womit ich mich wohler fühlte:

1617203071019.png


Mit ein paar Score-Verlusten bin ich dann sogar hinsichtlich Power-Limit heruntergegangen:

1617203239846.png


In den nächsten Iterationen habe ich meinen Score von 7860 wieder mit weniger Max-Spannung Core und weniger Max-Spannung SoC und etwas weniger TDP-Limit übertreffen können. Die Frequenzkurve wurde auch immer glatter:

1617203581802.png


Und nochmals weniger Spannung:

1617203741905.png


Auch ging nun an sich weniger Power-Limit, weniger TDC-Limit und mehr Frequenz:

1617203936747.png


Ich erreichte also reproduzierbar mit niedrigerer Frequenz den 7900 GPs-Bereich, der vorher mit Max-OC möglich war. Der 8043er Score war halt durch weniger Wattman-Spannung möglich. Den zu erreichen mit deutlich niedrigerer Frequenz war dann mit etwas höheren Werten und einem neueren Treiber wieder möglich:

1617204869690.png

Im Vergleich zum 8043-Score fällt auf, dass bereits mit 30 MHz weniger durch MPT-UV (und etwas Treibermagie, da dürfte der Einfluss aber nicht allzu groß gewesen sein), ein höherer Score möglich wurde trotz niedrigerem Power-Limit.

Eine lange Zeit "fuhr" ich folgendes 24/7-OC:

1617206003038.png


Dann kam vor kurzem der neue Wundertreiber 21.3.1, der die Scores stark anhob:

1617206127471.png


Da ich zwischenzeitlich die TDC-SoC auf 30 A gesenkt habe, dachte ich mir: da geht bestimmt auch noch was und erhöhte die zusammen mit dem TDP- und dem TDC-Core-Limit leicht:

1617206358085.png


Das hat sich nun als optimal erwiesen bisher für mein 24/7-OC. Wie bereits erwähnt, hat das alles sehr lange gedauert. Mein Max-OC hat davon auch profitiert. Ich komme zwar nur noch auf 2560 MHz Max-Takt, aber dieser ist effizienter geworden:

1617206507238.png


Erkenntnisse

1) Weniger Spannung (selbst in Wattman) bringt mehr Spielraum für mehr Leistung oder je nach eingestellter Frequenz und Power-Limit mehr Stromersparnis.

2) Ein höheres TDP-Limit macht an sich höhere Clocks möglich, aber hierbei ist zu beachten, dass die TDP eben von Spannung und Stromstärke abhängig ist.

3) Wird die Spannung heruntergesetzt, kann man auch mit der TDP heruntergehen und immer noch stabile Ergebnisse bekommen.

4) Man kann das TDP-Limit auch als Bremse nutzen, die Benchmark-Runs erst dadurch ermöglicht, dass Frequenzen eingebremst werden und keine allzu hohen Spikes entstehen, die den Benchmark sonst abstürzen lassen würden.

5) Das selbe gilt auch für das TDC-Limit. Zum TDC-Limit ist zu sagen, dass es bei weitem zu klein werden kann, da die Karte eine gewisse Stromstärke braucht. Nach oben hin macht das Erhöhen des TDC-Limits Sinn, wenn es eben nicht ausreicht, um bestimmte Frequenzen stabil zu erreichen. Geht man mit der Spannung runter, wird besagte Schrödingers-Karte ermöglicht: in Low-Current-Bereichen (Current ^= Stromstärke) wie in den meisten Stellen der meisten Games wird der Verbrauch deutlich minimiert (~170 - 210 W bei ~2440 MHz) ggü. Default + 15 % PT. Da das TDC-Limit hoch genug ist, ist die Karte mit ausreichend hohem TDC-Limit für High-Current-Bereiche wie Benchmarks geeignet (~240 W bei ~2400 MHz).

6) Zum SoC lässt sich sagen, dass zu wenig SoC-Spannung zu Problemen wie langsam reagierendem Display und Blackscreens etc. führt. Zu niedrige SoC-TDC führt je nach Spannung zu Performance-Rückgang. Findet man eine niedrige stabile SoC-Spannung und eine ausreichende TDC (SoC), lässt sich durch den SoC-UV massig Strom sparen, den man der GPU zuführen kann (je nach Wunsch und anderen Werten wie Core-Frequenz, Power-Limit und Core-Spannung in Stromersparnis oder in Mehrleistung).

7) Temperaturen sind natürlich auch nicht zu unterschätzen. Hier sollte man nach den jeweiligen Präferenzen gehen und dann die jeweilige Zielsetzung anpassen, oder eben die Lautstärke erhöhen. Der Boost fällt halt bei etwas über 95 ° Hotspot ab und die Karte sollte ab etwa 110 °C stark drosseln.

MPT-Bebildert.jpg

Beitrag automatisch zusammengeführt:

@Erdnussbrot Du hast die Frequenz ja auch gesenkt. Bitte auch mal in beiden Fällen in Wattman das Power-Target auf 15 % stellen. Das Power-Target ist gefühlt auch ein "bis zu"-Wert, bringt aber massig Stabilität. Zudem ist deine Spannung ja nun tatsächlich viel niedriger als davor (irgendwann ist zu wenig...). Probier auch mal weniger Wattman-Spannung, sollte evtl. wieder mehr Leistung bringen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@ShirKhan Effektiv ist das hier alles Quatsch für meine Hoffnung, ne richtige fette Datenbank aufzuziehen - die CB für Nvidia haben ja auch nur 30 Stück pro Modell. Die einzig ernstzunehmende Datenbankhat 3DMark. An die müsste ich ran. Die haben sicher soviele Daten dass du richtig gute statistische Auswertungen machen kannst und über sowas wie Regressionsanalysen schaun kannst, welcher Faktor (z.B. Core Spannung oder auch Testdatum -> Rückschluss auf Produktionsdatum?) was genau und wie beeinflusst. Mei, wär das schön. @m4looney würd auch im Dreieck springen und käme seinem Reverse-Engineering Ziel der GPUs auch näher ;-)

Das mit den 25 extra-Watt hat mir mal einer so erklärt: dafür einmal im Jahr eine TK-Pizza weniger aufwärmen... Aber mich hats auch gestört, wegen der unnötigen extra Leistung sowie dem zugehörigen Lüften meiner 57XT, weil diese alle zwei Minuten lüften musste - wegen des zu warmen Speichers.

@ILoveTattoo du hast einen neuen Treiber installiert - und nichts aufs Board geflasht, denn das geht so nicht und aktuell eigentlich garnicht.
 
Kann das es das die OC/UV Werte oder das 3D Mark manchmal schwanken?

Als ich heute angefangen habe mit Wattmann lief 3D Mark bei 1100mV nicht mehr Stabil:

Als ich dann MPT ausprobiert habe (Maximum Voltage GFX 1150 und bei Maximum Voltage SoC 1100) lies sich 3D Mark nicht starten.

Anschließend habe ich mich bis Maximum Voltage GFX 1025 und bei Maximum Voltage SoC 1050 durchiteriert mit 18888 Punkten:

Bei GFX 1000 war das System nicht mehr stabil und als ich wieder hoch auf 1025 und 1050 bin habe ich fast 1000 Punkte weniger im Benchmark (auch nach Neustart vom Betriebssystem).


Solche plötzlichen Abweichungen habe ich jetzt heute zum zweiten mal erlebt.
 
Effektiv ist das hier alles Quatsch für meine Hoffnung, ne richtige fette Datenbank aufzuziehen - die CB für Nvidia haben ja auch nur 30 Stück pro Modell.
Ja, ok. Du hättest gern Stoff für eine Datenbank mit statistischer Relevanz, das wäre toll. Ich denke an das, was machbar ist: Rennlisten, um dem Sportsgeist zu frönen. ;) Völlig unterschiedlicher Ansatz.
 
Zuletzt bearbeitet:
Mach mal bitte DDU im Safe-Mode @silram @Holzmann hatte diese Issues auch. DDU hatte dann geholfen. Zudem: wenn Freesync an ist, ausschalten. genau das selbe gilt für jegliche Overlays. Hatte auch solche Schwankungen. Freesync im Monitor ausgemacht und Radeon Overlay aus hat aus Gründen geholfen.
 
Mach mal bitte DDU im Safe-Mode @silram @Holzmann hatte diese Issues auch. DDU hatte dann geholfen. Zudem: wenn Freesync an ist, ausschalten. genau das selbe gilt für jegliche Overlays. Hatte auch solche Schwankungen. Freesync im Monitor ausgemacht und Radeon Overlay aus hat aus Gründen geholfen.
Danke,

was meinst du mit DDU im Safe-Mode? Die alten Nvidia Treiber in meinem Fall oder komplett AMD neuinstallieren?

Radeon Overlay fragt mich jedes mal ab das ich mit ALT + R das starten kann, kann man das auch ausschalten?

RivaTuner deaktiviere ich

Freesync nur fürs Benchmark aus oder lieber generell?



Edit: Ich habe festgestellt das Radeon mich auf Default Einstellungen runtergesetzt hatte, also kein VRAM oc, PowerLimit und so.
 
Die einzig ernstzunehmende Datenbankhat 3DMark. An die müsste ich ran.
Sicher schwierig, aber lass mal spaßeshalber durchspielen.

Ende 2019 hatte ich im Rahmen eines Beta Search Feedbacks Mailkontakt mit einem Marketing Manager von UL. Es ging um meinen Vorschlag, in 3DMark eine Bestenliste zur Verfügung zu stellen, die nicht alle, sondern nur das jeweils beste Ergebnis pro User ausweist. Wurde geprüft und für gut befunden, und so entstand die Auswahl "Leaderbord". Der Kontakt war sehr nett und wurde Ende 2020 erneuert, als ich eine weitere Frage hatte. Zum letzten Mal haben wir im Januar kurz geschrieben.

Die Leute von UL sind also prinzipiell kooperationswillig. Trotzdem werden die ihren Datenschatz nicht einfach hergeben. Vielleicht wenn wir eine bekannte Uni mit einer groß angelegten Studie wären, die auch bereits finanziert ist ...

Wenn es stattdessen gelänge, UL davon zu überzeugen, dass sie selbst eine solche Auswertung machen und sie veröffentlichen sollten, weil es in in ihrem eigenen Interesse ist. Dann vielleicht.
 
Zuletzt bearbeitet:
Mit DDU alles wegmachen im abgesicherten Modus und den neuesten Treiber installieren.

Oh, das mit dem Alt-R-Dialog versuche ich auch herauszufinden. Ne, ich meinte Strg + Shift + O. Das dann nicht anhaben.

Freesync kannst du für Games nutzen. Sollte kein Problem sein. In Benches kostet es halt Leistung. Am besten im Monitor ausschalten.

Edit: Ich habe festgestellt das Radeon mich auf Default Einstellungen runtergesetzt hatte, also kein VRAM oc, PowerLimit und so.
Wie meinen? Konnte der Rechner wegen MPT-Settings nicht starten?

Danke @ShirKhan . Ich nutze fast nur das Leaderboard und ohne macht die Seite nicht wirklich Sinn ;-). Wenn du schon in Kontakt mit denen bist, kannst du bitte das standardmäßige Ordnen nach Graphics Score durchsetzen und nicht nach Gesamt-Score? Mit dem Argument evtl., dass, wenn jemand einen besseren GPU-Score hat und eine schwächere CPU das ja eigentlich belohnt werden sollte, statt bestraft zu werden (, da da viel mehr Effort dann von Nöten ist).

Beispiel: wenn jemand mit einem Intel i5 6600 mehr GPU-Score schaffen sollte (und somit mehr FPS) als jemand mit einem R9 5950x, sollte das wenigstens nicht bestraft werden durch einen niedrigen Gesamtscore. Der sagt ja nur aus, dass der R9 5950x-User reicher ist ^^.
 
Zuletzt bearbeitet:
@ShirKhan Ja, interessant!
Wobei ich bei keiner Uni, sondern nem recht großen Elektronikonzern bin. Also persönlich wär ich da wohl raus. Und ob UL Data Scientists haben, weiß ich nicht, Aber den Vorschlag könntest ihnen mal machen. Es würde ja auch für die mit solchen Auswertungen ein Potential für Premiumfunktionen liefern, oder einfach nur um versierte Nutzer wie wir, anzusprechen.
Aber wenn die jetzt ihre Daten so auswerten, wie wir das gerne hätten, dann ginge das schon auch in Richtung Reverse-Engineering. Ich weiß nicht, welche Partnerschaften und ggf. Vereinbarungen die mit den verschiedenen Hardware-Hersteller haben und ggf. sowas auch garnicht dürfen oder wollen. Spannendes Thema.
Für uns im dem Thread hier wärs natürlich mega, wenn wir mal von tausenden Karten genau wüssten, auf welche Parameter die wie wirken, oder auch obs diese ASIC Unterschiede irgendwelche praktische Bedeutung haben, etc.
 
Wenn du schon in Kontakt mit denen bist, kannst du bitte das standardmäßige Ordnen nach Graphics Score durchsetzen und nicht nach Gesamt-Score? Mit dem Argument evtl., dass, wenn jemand einen besseren GPU-Score hat und eine schwächere CPU das ja eigentlich belohnt werden sollte, statt bestraft zu werden (, da da viel mehr Effort dann von Nöten ist).
"Durchsetzen," ja? :fresse2:

Du wirst lachen, aber das war ziemlich genau der Grund für meine erneute Kontaktaufnahme. Hier der Schriftwechsel:

<<Hello again,

while exploring the nice 3DMark Leaderboard again, I noticed a peculiarity in behavior, maybe a bug which I would like to bring to your attention.

If a user is interested only in the graphics score and filters from benchmark to benchmark, "Score" every time switches from "Graphics score" to "Overall score" while all the other selected filters remain unchanged (which is expected and probably intended).

Maybe you like to fix this little issue. Thank you again for providing the Leaderboard to your users.

Best regards
...>>


<<...
Nice to hear from you again.

If I understand your message, you're asking why the score filter (overall, graphics score, cpu score, etc) resets to overall score when changing the benchmark filter, (for example from Time Spy to Port Royal), while other filters remain as previously set.

The reason it works this way is that each benchmark has a different set of tests. For example, if you were filtering by Time Spy CPU scores then changed the benchmark filter to Port Royal, we wouldn't be able to keep the CPU score filter because Port Royal doesn't have a CPU test, only graphics tests. Another example, Fire Strike benchmarks are the only tests that produce a combined score, so we wouldn't be able to keep that filter either when changing tests.

To avoid these issues, we reset the score filter to overall when you change benchmarks. I hope this explanation makes sense.

Best wishes,
...>>
 
Zuletzt bearbeitet:
Mit DDU alles wegmachen im abgesicherten Modus und den neuesten Treiber installieren.

Oh, das mit dem Alt-R-Dialog versuche ich auch herauszufinden. Ne, ich meinte Strg + Shift + O. Das dann nicht anhaben.

Freesync kannst du für Games nutzen. Sollte kein Problem sein. In Benches kostet es halt Leistung. Am besten im Monitor ausschalten.


Wie meinen? Konnte der Rechner wegen MPT-Settings nicht starten?

Nur aus Interesse, warum sollte man den aktuellen Treiber entfernen und neuinstallieren? Nur um die Hintergründe zu verstehen.

bei GFX 1000mV ist mir der Treiber wohl komplett abgeschmirrt und der hatte sich auf die Standart Werte zurückgesetzt. Das hatte dafür geführt das ich meine manuellen OC Settings nicht mehr drin hatte und deswegen ca 1000 Punkte kleiner war.

Ich hab jetzt mit Luft nach unten mich für 1000mv und 1000mv entschieden, das läuft stabil...ich könnte denke auch ca 50mv runtergehen aber ich will nicht das im Zweifel die Games crashen.

Die Freq Werte im Wattmann sind für mich irrelevant da ich ehe nicht so hoch komme oder?

1617215306746.png


 
Nur aus Interesse, warum sollte man den aktuellen Treiber entfernen und neuinstallieren? Nur um die Hintergründe zu verstehen.
Weil sich da über Zeit kaputte Settings in der Registry ansammeln können. Scheint hier ja nicht der Fall zu sein.

Die Freq Werte im Wattmann sind für mich irrelevant da ich ehe nicht so hoch komme oder?
Versuch macht klug. Ansonsten evtl. 15 - 25 W mehr TDP-Limit versuchen? Oder wäre dir das schon zu viel?
 
@ShirKhan Ja, interessant!
Wobei ich bei keiner Uni, sondern nem recht großen Elektronikonzern bin. Also persönlich wär ich da wohl raus.
Die Schlagworte "bekannte Uni" und "bereits finanziert" waren nur Synonyme für "jemand", während wir hier gewissermaßen "niemand" sind. Ich hätte auch "großer Elektronikkonzern" schreiben können. ;)

Und ob UL Data Scientists haben, weiß ich nicht, Aber den Vorschlag könntest ihnen mal machen. Es würde ja auch für die mit solchen Auswertungen ein Potential für Premiumfunktionen liefern, oder einfach nur um versierte Nutzer wie wir, anzusprechen.
Genauer bitte, wenn möglich. Was könnten das für Premiumfunktionen sein? Welchen Nutzen hätte UL?

Aber wenn die jetzt ihre Daten so auswerten, wie wir das gerne hätten, dann ginge das schon auch in Richtung Reverse-Engineering. Ich weiß nicht, welche Partnerschaften und ggf. Vereinbarungen die mit den verschiedenen Hardware-Hersteller haben und ggf. sowas auch garnicht dürfen oder wollen.
Guter Punkt.

Spannendes Thema.
Für uns im dem Thread hier wärs natürlich mega, wenn wir mal von tausenden Karten genau wüssten, auf welche Parameter die wie wirken, oder auch obs diese ASIC Unterschiede irgendwelche praktische Bedeutung haben, etc.
Ich schreibe "James" noch mal, wenn du Rennlisten à la CB-Forum für die 6000er erstellst. :d Ich helfe auch bei der Pflege.
 
Zuletzt bearbeitet:
Versuch macht klug. Ansonsten evtl. 15 - 25 W mehr TDP-Limit versuchen? Oder wäre dir das schon zu viel?

Ich meinte das ich aktuell 2450 eingestellt habe aber nur 2.324 MHz im Durchnitt anliegt.

Du meinst über die +15% PT? Quasi dann 310W oder?
 
Wo im MPT halt 255 W steht, 280 W oder so setzen. Bei 280 W * 1,15 = 322 W. Wie viel verbrauchst du jetzt tatsächlich? Das sind halt auch nur "bis zu" 15 % mehr Verbrauch. Bzgl. Clocks: du hättest aber ein paar Stellen, wo mehr ginge.
 
Wo im MPT halt 255 W steht, 280 W oder so setzen. Bei 280 W * 1,15 = 322 W. Wie viel verbrauchst du jetzt tatsächlich? Das sind halt auch nur "bis zu" 15 % mehr Verbrauch. Bzgl. Clocks: du hättest aber ein paar Stellen, wo mehr ginge.
Komisch, mit dem 280W verbrauche ich bis zu 322W (HWINFO) und oft wars so 300-310 in der Visualisierung.
Ich komme trotzdem auf die gleichen Werte:

Wie meinst du das bzgl der Clocks?
Die Werte im MPT (GFX und SoC) oder die Freq im Wattmann?
 
165w ts 5.png


Mein eigentliches 24/7 UV Setting ist rund 8% schneller, verbraucht dabei aber rund 23% mehr, hmmm schwierig schwierig^^
 
Zuletzt bearbeitet:
Hast du die Max-Frequenz im Wattman hochgesetzt? Mach mal 2550 - 2650 (?) MHz.

Im MPT sollte es keinen Unterschied machen, oder sogar das OC verhindern. Also die Frequenzen lassen sich nur mittels WM setzen.
 
Verstehe net warum GPU-Z 100 Punkte wegluchst...
Hier auch 165W Profil:

165w ts 6.png


Jetzt müsste ich nur wissen, was meine alte Karte geschafft hat...
 
Hast du die Max-Frequenz im Wattman hochgesetzt? Mach mal 2550 - 2650 (?) MHz.

Im MPT sollte es keinen Unterschied machen, oder sogar das OC verhindern. Also die Frequenzen lassen sich nur mittels WM setzen.

Danke,

bei den 280W in MPT, da muss ich das Limit für TDC aber nicht verändert oder?

hab geschafft mit 2400-2550 (19142)

Bei 2450-2600 stürzt 3D Mark wieder ab.

Was genau bringt eigentlich min und max freq?
Bzw was würde passieren wenn er außerhalb dieser Range wäre
 
Danke,

bei den 280W in MPT, da muss ich das Limit für TDC aber nicht verändert oder?

hab geschafft mit 2400-2550 (19142)

Bei 2450-2600 stürzt 3D Mark wieder ab.

Was genau bringt eigentlich min und max freq?
Bzw was würde passieren wenn er außerhalb dieser Range wäre
Hast also rund 322W max Verbrauch dabei falls du +15% PL eingestellt hast.
Bist verglichen mit meinem UV run satte 10% schneller und jetzt halte dich fest, verbrauchst dabei rund 94% mehr.
Komm lieber mit mir auf den UV Zug, der ist schöner :d
 
@ShirKhan Effektiv ist das hier alles Quatsch für meine Hoffnung, ne richtige fette Datenbank aufzuziehen - die CB für Nvidia haben ja auch nur 30 Stück pro Modell. Die einzig ernstzunehmende Datenbankhat 3DMark. An die müsste ich ran. Die haben sicher soviele Daten dass du richtig gute statistische Auswertungen machen kannst und über sowas wie Regressionsanalysen schaun kannst, welcher Faktor (z.B. Core Spannung oder auch Testdatum -> Rückschluss auf Produktionsdatum?) was genau und wie beeinflusst. Mei, wär das schön. @m4looney würd auch im Dreieck springen und käme seinem Reverse-Engineering Ziel der GPUs auch näher ;-)

Das mit den 25 extra-Watt hat mir mal einer so erklärt: dafür einmal im Jahr eine TK-Pizza weniger aufwärmen... Aber mich hats auch gestört, wegen der unnötigen extra Leistung sowie dem zugehörigen Lüften meiner 57XT, weil diese alle zwei Minuten lüften musste - wegen des zu warmen Speichers.

@ILoveTattoo du hast einen neuen Treiber installiert - und nichts aufs Board geflasht, denn das geht so nicht und aktuell eigentlich garnicht.

So noch mal von vorne

Ich hatte bis gestern Mittag eine 2080 Ti verbaut .
Und zwar auf einem
Asus X299 Apex Vi
7980xe
Das Bios 3202 hatte noch keine Sam Unterstützung.
Die 6900 Xt gestern Abend gehollt. Eingebaut und den neusten Treiber Installiert, in dem falle 21.3.2
Keine Änderung im Wattman getan.
Mal ne runde Timespy durchlaufen lassen

Dann das passenden Bios für das Apex Vi mit Sam geflasht , und alles gleich eingestellt. Nur eben SAM On.
Wieder ein Rum Timespy
 
Hast also rund 322W max Verbrauch dabei falls du +15% PL eingestellt hast.
Bist verglichen mit meinem UV run satte 10% schneller und jetzt halte dich fest, verbrauchst dabei rund 94% mehr.
Komm lieber mit mir auf den UV Zug, der ist schöner :d

Ich wollte an sich alles ausprobieren aber es kam mir zumindest vor das meine GPU kein gutes UV kann.
unter 1000mv im GFX kam ich leider nicht, außer ich hab irgendwas nicht beachtet
 
@Duvar Noch etwas weniger und du holst zu meiner RX 6800 nach unten hin auf.

Ja, jeder wie derjenige mag. Stock-Performance bei deutlich weniger Verbrauch ist auch nice oder halt mehr Performance und etwas weniger Verbrauch.

Die Holzmann-Methode wäre mir evtl. etwas viel, aber solange das Netzteil und die GPU mitmachen, warum nicht? Ist ja auch eine interessante OC-Richtung.

Je nach Game reicht mir die Leistung schon wieder nicht ganz aus. Aber gut, kommt ganz auf die Zielsetzung an und womit man zufrieden ist.
 
@Duvar Noch etwas weniger und du holst zu meiner RX 6800 nach unten hin auf.

Ja, jeder wie derjenige mag. Stock-Performance bei deutlich weniger Verbrauch ist auch nice oder halt mehr Performance und etwas weniger Verbrauch.

Die Holzmann-Methode wäre mir evtl. etwas viel, aber solange das Netzteil und die GPU mitmachen, warum nicht? Ist ja auch eine interessante OC-Richtung.

Je nach Game reicht mir die Leistung schon wieder nicht ganz aus. Aber gut, kommt ganz auf die Zielsetzung an und womit man zufrieden ist.

Ja, einen Porsche kaufen und dann nie über 2500 u/min die Gänge ausfahren, weil man ja Sprit sparen will, ist halt echt so eine Sache.

Ich habe für mich halbwegs ein Setting gefunden wo ich die 300W nicht übersteige, aber dennoch zwischen 19k und 19,5k im TimeSpy mache.

Wenn die Kiste die Tage wieder zusammengeknüppelt ist, will ich da aber noch Feintuning machen.
 
Ja, einen Porsche kaufen und dann nie über 2500 u/min die Gänge ausfahren, weil man ja Sprit sparen will, ist halt echt so eine Sache.

Ich habe für mich halbwegs ein Setting gefunden wo ich die 300W nicht übersteige, aber dennoch zwischen 19k und 19,5k im TimeSpy mache.

Wenn die Kiste die Tage wieder zusammengeknüppelt ist, will ich da aber noch Feintuning machen.
Na ja bist halt 10% schneller bei fast doppelten Verbrauch, lohnt sich vorne und hinten nicht, die Karte ist undervoltet auch noch sehr sehr schnell.
Man muss es ja vllt nicht so sehr übertreiben wie ich, 165W rum ist halt in etwa der Sweetspot der Karten.
 
Na ja bist halt 10% schneller bei fast doppelten Verbrauch, lohnt sich vorne und hinten nicht, die Karte ist undervoltet auch noch sehr sehr schnell.
Man muss es ja vllt nicht so sehr übertreiben wie ich, 165W rum ist halt in etwa der Sweetspot der Karten.

Ich spiele hier und da mal. Und wenn ich dann 100 oder 110 FPS bekomme und dafür für die 2h Gaming 3 Cent mehr Strom bezahle, nehme ich die 10 FPS mehr 😉

Nicht falsch verstehen, UV finde ich bei den derzeitigen GPU Generationen klasse, aber wenn ich da das Flagschiff habe, will ich auch ordentlich Performence.
Ich habe gerne weniger Verbrauch bei in etwa Stock Leistung. Bei Nvidia fiel mir das aber leichter ... da habe ich einfach 1890@850mV eingestellt, ca 40W weniger Verbrauch bei etwas mehr Leistung. Das war klasse. Bei AMD ist das doch alles deutlich komplizierter 😫

PS: machst du mit deinem extremen UV Setting nicht nur 17k? Denn 17k vs. 19,5k wäre mehr als 10% 😛
 
Wenn Duvar jetzt die Karte immer soweit runterwürgen würd, hätt er sich echt die falsche Karte gekauft. Wenn ers meistens macht, aber halt mal für Cyberpunk + RT die Stromzufuhr wieder aufmacht, dann macht das auch Sinn.
 
Ich habe für mich halbwegs ein Setting gefunden wo ich die 300W nicht übersteige, aber dennoch zwischen 19k und 19,5k im TimeSpy mache.

Ich mach die 19,5k mit ~ 230W 8-) Also gutes Gelingen beim Tuning :)

Ich mach jetzt mal eben nen 165W Bench aus Spaß :d

edit: also 230W in Schnitt....Peak ist 251W gewesen
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh