[Sammelthread] Offizieller AMD [[ RX6700 // RX 6700XT // 6750XT // X6800 // 6800XT // 6900XT // 6950XT]] Overclocking und Modding Thread [[ Wakü - Lukü - LN2]]

@Holzmann: Schaden kann das nicht. Aber geh doch erst mal zurück auf 21.3.1 oder oder 21.3.2. Vielleicht heitert dich das ja auf.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Resette mal deinen Shader Cache. Eventuell bringt es was...

Das mach ich mal ...
Wenn nicht Treiber per DDU nochmal runterfegen und neu installieren...

Hatte ich ja vor der Installation des 21.5.1 schon gemacht.
Schaden kann das nicht. Aber geh doch erst mal zurück auf 21.3.1 oder oder 21.3.2. Vielleicht heitert dich das ja auf.

Mal sehen, ich werde später nochmal einen SuPosi run machen und den hier posten, dann kann man sich nochmal ein Bild machen.
 
@Holzmann timespy ist sehr CPU gebunden wenn man die Karten an ihr Limit treibt. Ist irgendeine Einstellung die vorher anders war bei CPU oder RAM? Evtl auch ein anderes BIOS mit dem du dein Highscore hattest?
 
Ist irgendeine Einstellung die vorher anders war bei CPU oder RAM? Evtl auch ein anderes BIOS mit dem du dein Highscore hattest?

Eigentlich nicht, musste zwar das Bios einmal resetten und alles wieder neu einstellen, aber die CPU Leistung passt und ist in etwa auf dem Niveau wie zu meinen besten Ergebnissen.
 
Kann mir wer von euch helfen?
Ich wollte mit Hilfe von @G.Bär's Setings mit UV mehr Effizienz aus meiner 6900XT Referenz holen - auch wegen Spulenrasseln. Bin jedoch ein Neuling im UV Bereich.
Aber bei mir bricht TimeSpy schon mit Stock Settings ab (glaube bei Grafik Test 2). Das gleiche mit UV Settings. SuperPosition 4K-Bench läuft immer durch!?
Woran kann das liegen? System siehe Signatur.
 

Anhänge

  • error.PNG
    error.PNG
    146,4 KB · Aufrufe: 71
  • error2.PNG
    error2.PNG
    32 KB · Aufrufe: 70
Zuletzt bearbeitet:
Zudem weiß man ja nie was kommt. Gib es für bestimmte Karten doch mal ein OC-Bios ist man froh etwas mehr Watt auf der Kante zu haben insofern es mit seiner Karte funktioniert...

Ich erinnere mich als meine alte 1080 TI knapp 500 Watt gezogen hat mit XOC Bios... Nur als Beispiel! ;)
Das ist schon wahr. Insgeheim hab ich mich auch schon gefragt, ob mit 850 Watt nicht noch ein Ticken mehr Score drin wäre. Werd aber deshalb nicht das aktuelle (und neue!) Teil ersetzen, nicht in der aktuellen PC-Konfiguration. Ich vertraue da auch ein bisschen auf die Produktqualität von be quiet! und auf das "Platinum" im Modellnamen.
 
Hier schaut euch das an, das ist doch für die Einstellung ein völlig miserables Ergebnis 🙈
 

Anhänge

  • nn.JPG
    nn.JPG
    208,5 KB · Aufrufe: 92
Aber bei mir bricht TimeSpy schon mit Stock Settings ab (glaube bei Grafik Test 2).
Hi, welcher Treiber? 21.4.1+ ist dafür berüchtigt nicht Timespy-stabil zu sein. Daher und da ja so eine Belastung auch an sich in Spielen vorkommen kann, empfehle ich den 21.3.1-Treiber und sehe die neuen als instabil an.

Was du mal versuchen könntest, wäre der 21.4.1 von NimeZ. Der von NimeZ ist halt home-modded und laut Changelog ggü. dem offiziellen Treiber auch an wichtigen und richtigen Stellen verbessert (z.B. Dithering oder besseres Threading der CPU ggü. dem offiziellen Treiber). Ob Timespy dann damit durchläuft, kann ich dir nicht sagen, denn ich habe den Treiber nicht ausprobiert.

Ich lasse den Rechner gerade rechnen und jede Stunde verliere ich dann etwa 25 Cent Profit, wenn dieser halt mit nichts beschäftigt ist. Hört sich nicht nach viel an, aber mit möglicher (und in ein paar Jahren sogar wahrscheinlicher) ver10bis20fachung von ETH und der Tatsache, dass das quasi ohne mein Zutun und ständig geschieht und nicht nur 8 Stunden am Tag, ja auch nicht schlecht.

Zudem ist "gutes" Wetter gerade... Mögt ihr evtl. nicht so sehen, xD. Nichts schlimmeres als übertriebene Hitze und Helligkeit. Lieber bewölkt und einigermaßen warm (also in der Jacke jedenfalls erträglich) für mich. Chille und höre Reggae. Da habe ich gerade mehr Bock drauf als auf Benches oder Games. Ich habe mir aber vorgenommen abends die GPU für solche Zwecke zu nutzen.
 

 
Hättest du dort mal einen Link!

@Darkne$$ Nunja, Coreteks hatte schon mit einigem Recht, aber lag schon paarmal echt krass daneben...
Beitrag automatisch zusammengeführt:

Bzgl. Coreteks-Leak (SuperResolution):

Sollte das aber stimmen und die bringen mehr Performance ganz ohne Einsatz von Machine Learning, dürfte die Bildqualität tendenziell besser sein als bei DLSS, da iirc bei DLSS ein FullHD-Bild vorgesetzt wird und das neuronale Netz sich dann ein 4k-Bild "herhalluziniert" (siehe auch Gigapixel AI z.B.). Daher kommt es dann doch auch zu einer gewissen Zahl von Unstimmigkeiten im Bild, nehme ich an.
 
Zuletzt bearbeitet:
@ShirKhan
Furmark alleine: ca. 430W, 10191 Punkte, 170 FPS avg
Prime alleine: ca. 180 W
beide zusammen: ca. 400-570W schwankend, Furmark macht dann 6900 Punkte und 116 FPS avg

@Holzmann
an den 21.5.1 hab ich mich wegen gemischter Gefühle mit dem 21.4.1 nicht gewagt bisher.
 
Danke @m4looney. Oh Wunder mit 21.3.1 läuft TimeSpy sauber durch (15707 Punkte).
Wenn später nach dem UV noch Zeit ist probiere ich noch den NimeZ
 
Furmark alleine: ca. 430W, 10191 Punkte, 170 FPS avg
Prime alleine: ca. 180 W
beide zusammen: ca. 400-570W schwankend, Furmark macht dann 6900 Punkte und 116 FPS avg
Ich würde das eher so machen:

1) Idle-Verbrauch CPU (mittels HWInfo) ermitteln. Dann Idle-Verbrauch Gesamtsystem mittels Watt-Meter ermitteln. Dann, ungefährer Verbrauch P(Rest, min) = Gesamtverbrauch - CPU-Idle.

2) Prime laufen lassen. CPU-Verbrauch (HWInfo) ermitteln und Gesamtverbrauch (Watt-Meter) ermitteln. Dann P(Rest, max) = Gesamtverbrauch - CPU-volle-Möhre.

3) Dann Furmark-Verbrauch (ohne CPU-Last) ermitteln. Gesamtverbrauch(min) = Furmark-GPU-Only-Verbrauch (HWInfo + ~ 35 W) + Prime-Verbrauch (HWInfo-CPU_only) + P(Rest, min); Gesamtverbrauch(max) = Furmark-GPU-Only-Verbrauch (HWInfo + ~ 35 W) + Prime-Verbrauch (HWInfo-CPU_only) + P(Rest, max). Dazwischen wird auch der echte Verbrauch liegen. Je nach Gaming-Last und CPU lässt sich ziemlich genau sagen, wie viel Watt dann benötigt werden müssten. Ist etwas kompliziert und ungenau, aber denke das kann man sonst nicht viel besser approximieren.

Das momentane Problem, was du hast: durch Prime kannst du die GPU nicht voll auslasten und verfälschst dadurch die Metrik Gesamtverbrauch. In Games würde es leicht anders aussehen: mittlere CPU-Belastung (bei meinem ungeocten R5 3600 z.B. Idle: 35 W - volle Möhre Belastung: 88 W, typische Gaming-Last: 60 W, laut HWInfo) und volles Pfund GPU-Last (ohne Frame-Limiter: zw. 160 und 220 W (TGP), je nach Game und Belastung, dann TBP (total Board Power: Lüfter und Radeon-Logo und Wandler-Verluste): TGP + [25..40] W). Ich habe leider kein Watt-Meter zur Hand.

Ist halt schwierig. Was du machen kannst, wäre z.B. Prime auf die Hälfte oder ein Viertel der Threads zu stellen, um die GPU da noch voll auslasten zu können und somit die maximale Gaming-Last ermitteln zu können.
Beitrag automatisch zusammengeführt:

Danke @m4looney. Oh Wunder mit 21.3.1 läuft TimeSpy sauber durch (15707 Punkte).
Wenn später nach dem UV noch Zeit ist probiere ich noch den NimeZ
Mit einer 6900XT?
a035.gif
Ich nehme stark an, dass hier der Gesamt-Score gemeint ist. Nur so macht es Sinn. Aber der Gesamt-Score macht für uns keinen Sinn, :ROFLMAO:. Sollte es sich dennoch um den Grafik-Score handeln, wäre das dann nur mit verstellten Settings (wie Frame-Limiter von 100 z.B.) erklärbar. Auch öfters drüber geärgert, dass ich da nicht dran gedacht habe bei so manchem TimeSpy, xD.
 
...
Ich nehme stark an, dass hier der Gesamt-Score gemeint ist. Nur so macht es Sinn. Aber der Gesamt-Score macht für uns keinen Sinn, :ROFLMAO:. Sollte es sich dennoch um den Grafik-Score handeln, wäre das dann nur mit verstellten Settings (wie Frame-Limiter von 100 z.B.) erklärbar. Auch öfters drüber geärgert, dass ich da nicht dran gedacht habe bei so manchem TimeSpy, xD.
Ja sorry, es sind 19.100 Graphics Score, hab in der ersten Freude dass es Durchläuft den falschen Wert abgelesen.
 
Zuletzt bearbeitet:
Je nach Gaming-Last und CPU lässt sich ziemlich genau sagen, wie viel Watt dann benötigt werden müssten. Ist etwas kompliziert und ungenau, aber denke das kann man sonst nicht viel besser approximieren.
Genau:

etwas ungenau, aber sollte ziemlich nah dran sein.
 
Hi, welcher Treiber? 21.4.1+ ist dafür berüchtigt nicht Timespy-stabil zu sein. Daher und da ja so eine Belastung auch an sich in Spielen vorkommen kann, empfehle ich den 21.3.1-Treiber und sehe die neuen als instabil an.

Ich hatte anfangs auch 2.575 - 2.675 Mhz, was in Port Royal auch durchlief und auch mit mehr Punkten (11.083), aber in Timespy wurde der Benchmark ziemlich schnell immer abgebrochen. Was ich nicht verstehe, in Port Royal läuft der Benchmark durch und die Karte zieht sich ihre 370w, aber Timespy läuft überhaupt nicht und in Firestrike zieht sich die Karte gerade mal 230-240w, was sich natürlich auch in den Punkten niederschlägt. Kann mir jemand sagen, woran das liegen mag?

Ok, das erklärt vielleicht mein Problem. Vielleicht sollte ich es wieder mit 21.3.1 probieren, so wie es vorher der Fall war. Aktuell ist 21.4.1 (noch) drauf.
 
Ok, das erklärt vielleicht mein Problem. Vielleicht sollte ich es wieder mit 21.3.1 probieren, so wie es vorher der Fall war. Aktuell ist 21.4.1 (noch) drauf.
Oder den Nimez-Treiber (21.4.1). Wie gesagt: untested. Aber mit etwas Glück hat der das Problem nicht und nur die guten Treiberfeatures, die ich schon gerne hätte (da gab es von offizieller Seite den ein oder anderen Bugfix, der mich direkt betrifft) und zudem bekämpft der Nimez auch das Banding in dunklen Bereichen mittels HDMI/DP-Dithering (was mir zwar nie richtig störend auffiel, aber so ist es dann doch nochmal besser, sollte der Treiber taugen). Werde den heute Abend auch mal testen.
 
Da bin ich froh um mein Messgerät bei solch einem Aufwand... :haha:
Hilft nur nicht. Man kann die volle-Möhre-Last nur approximieren (und darum geht es ApolloX ja). Siehe 2te Hälfte des Posts.

Für den aktuellen Echtverbrauch natürlich super und unersetzlich...
 
Hilft nur nicht. Man kann die volle-Möhre-Last nur approximieren (und darum geht es ApolloX ja). Siehe 2te Hälfte des Posts.
Da hilft dann nur ein Multimeter wenn man auf Nummer sicher gehen möchte. Schon öfters gehabt das Tools und real gemessene Werte sich teilweise relativ deutlich unterscheiden können...
 
Ja sorry, es sind 19.100, hab in der ersten Freude dass es Durchläuft den falschen Wert abgelesen.

Was denn nun? Was bitte ist dein 6900XT GPU Score?
19100 ist genauso schlecht?
 
Eben eine full stock 6900er liegt dort so um 18500 Punkte.
 
Genau, das ist mein Startwert, also komplett Stock ohne irgendeine Optimierung oder Speichertuning.
 
Eben eine full stock 6900er liegt dort so um 18500 Punkte.

? Meine Stock 6900XT die ich hier habe, macht 20200 und das finde ich so wenig, dass ich sie weg schicke xD

Meine 6800XT macht Stock 18600?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh