[Sammelthread] Offizieller AMD [[ RX6700 // RX 6700XT // 6750XT // X6800 // 6800XT // 6900XT // 6950XT]] Overclocking und Modding Thread [[ Wakü - Lukü - LN2]]

Ich habe gestern Abend noch mal eine kleine Bench-Session gemacht und einiges ausgetestet. Erstmal flog der aktuelle Radeon Treiber (21.4.1) runter und wurde auf die Version 21.3.1 aktualisiert. Dieser hat sich zumindest in 3D-Mark als stabil und brauchbar erwiesen. Mit 21.4.1 hatte ich massive Probleme in Timespy und Firestrike. Port Royal lief noch einigermaßen gut durch. Dann habe ich mich wieder erneut am MPT versucht und glücklicherweise diesmal mit etwas mehr Erfolg. Folgendes Setting habe ich bei den Benchmarks benutzt:

MPT-Setting.jpg 3D-Mark Setting.jpg

Die Ergebnisse sind wie folgt ausgefallen:

3D-Mark Fire Strike.jpg 3D-Mark Time Spy & Port Royal.jpg

3D-Mark Overview 1.jpg


Keine Ahnung wie gut oder schlecht das Ergebnis jetzt insgesamt ist, aber ich habe mich doch schon stark gewundert wie einige hier ihre 6900XT unterhalb von 1100v durch den Benchmark prügeln können. Ich hatte alle möglichen Einstellungen ausprobiert, aber stabil waren nur die oben in der Tabelle. Vielleicht muss ich noch an anderen Stellschrauben drehen, weiß nicht. Immerhin weiß ich jetzt, dass der 21.4.1 Treiber für 3D-Mark nichts taugt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Kurios.
Ich habe mit dem 24.4.1 durchweg bessere Werte als du. Völlig ohne OC.
Mit OC dann deutlich besser.
 
Kurios.
Ich habe mit dem 24.4.1 durchweg bessere Werte...
eigentlich net, weil erst der 21.3.2 besser in TS ist
(der 21.3.1 war etwas langsamer)

Warum "aktualisieren" die Leute immer auf den komischen 21.3.1 zurück?
(Der war nur evtl. für TSX bei m4looney besser.)
 
eigentlich net, weil erst der 21.3.2 besser in TS ist
(der 21.3.1 war etwas langsamer)

Warum "aktualisieren" die Leute immer auf den komischen 21.3.1 zurück?
(Der war nur evtl. für TSX bei m4looney besser.)
Was schreibst du denn da für unbelegtes Zeug? Sprich doch bitte nur für deine persönlichen Erfahrungen und stell nicht scheinbar allgemeingültige Behauptungen auf.
 
Ich habe gestern Abend noch mal eine kleine Bench-Session gemacht und einiges ausgetestet. Erstmal flog der aktuelle Radeon Treiber (21.4.1) runter und wurde auf die Version 21.3.1 aktualisiert.
Vom 21.3.1 sprach ich auch nie?
Du vergleichst aber gerne Deine Ergebnisse mit denjenigen Usern.

Bevor man Irgendwas vergleicht, sollten wenigstens ähnlich performante Treiber drauf sein.

Was schreibst du denn da für unbelegtes Zeug?
Geh halt ein paar Seiten im Thread zurück bis zum Wechsel von Treiber 21.3.1 zu 21.3.2.
(ab 21.3.2 hatten gute Sys mit SAM mehr GPU-Score... kann sein das m4looney@3600 net ganz so profitiert wie XYZ@5800x) )
 
Zuletzt bearbeitet:
Du vergleichst aber gerne Deine Ergebnisse mit denjenigen Usern.

Bevor man Irgendwas vergleicht, sollten wenigstens ähnlich performante Treiber drauf sein.

? ich schreibe doch: Kurios (was übrigens ein anderes Wort für Merkwürdig ist ;) )
Mein System läuft mit dem 4.1 stabiler und besser als mit dem 3.1

Also genau gegenteilig zu dem, was er schrieb.
Auf Scores bin ich nur zweitrangig eingegangen.
 
Interessant finde ich die Fehlermeldung von dem einen User und die Antwort von UL, das Es auch mal an nem korrupten File liegen kann bzw. an RamOcen(z.Bsp. auch XMP-Profil). --> revalidieren des DLC wäre ja quasi neue Install o.ä. vom TS.
Steam überprüft die Dateien auf die richtige Größe und ersetzt dann fehlerhafte, bzw. fehlende Dateien. Korrekt erkannte Dateien werden dabei nicht geändert. Eine vollständige Neuinstallation ist nur über vorheriges Deinstallieren möglich.

Muss net nur CP2077 sein, auch einige olle UE4-Games sind empfindlich.(x)
Da lasse ich meist minTakt=500 und Vram-Tuning=Off.
(x) gerade für irgendwelche Demos und Hobby-Games gibts ja meist keinen gameready-Treiber, so das man
schwer sagen kann woran Es liegt.
Ich passe die Spiele individuell an wenn sie nicht auf meinem Standard OC laufen, bisher hatte ich da aber überhaupt keine Probleme außer das ich bei Control ein wenig mit dem Takt runter mußte. Da muß ich AMD auch ein riesen Lob für ihr Treiberpaket aussprechen. Die Software ist deutlich besser als ich es erwartet habe, und meiner Meinung nach sehr viel entspannter als NVidia's Experience. nach den Gruselgeschichten der letzten Jahre hatte ich das nicht erwartet.

Na ja. Bei CB wurde gerade erst wieder die (vermeintliche?) DX 11-Schwäche der AMD-Karten thematisiert.

Wenn wir nicht alle wieder Crysis spielen oder Nvidia kaufen wollen, können wir bei Problemen ja erst mal schauen, ob eine Änderung der eigenen Settings hilft, anstatt gleich mit dem Finger auf AMD zu zeigen. Experienced guess.
Ich kann mich nicht erinnern das ich eine vermeintliche DX11 Schwäche thematisiert hätte. Ganz im Gegenteil, ich bin mehr als zufrieden mit meinem Kauf und das obwohl ich "nur" eine 6800 abbekommen habe. Die Annahme das es mit DX12 zu tun haben könnte beruht auf persönlichen Beobachtungen und auch da habe ich mit keinem Wort gesagt das es ein Fakt sei. Ich habe sogar trotz dieser Vermutung die Leistung der DX12 Spiele die ich gerade beacker gelobt und wenn die Leaks stimmen und FiFX-Super Resolution tatsächlich im Juni erscheint hat es sich mit der Jagd nach noch 3 FPS mehr vielleicht bald eh erledigt. :-)

Das Timespy sich mir widersetzt geht mir trotzdem auf den Sack! 😛
 
ob eine Änderung der eigenen Settings hilft, anstatt gleich mit dem Finger auf AMD zu zeigen
Andererseits: mal angenommen, ich wäre Dieter Horst und möchte alles gut zocken, habe genug Geld, baue GPU ein, zocke Spiel -> ruckelt. Ich habe keine Ahnung, wieso, weshalb, warum und frage das halbe Internet, ohne eine gute Antwort zu bekommen und die 14-Tage-Frist endet bald und ich gebe die GPU entnervt zurück und kaufe nie wieder von diesem Hersteller.

Kann bei NV auch immer passieren, aber da stolpert man häufig über diesen "prefer maximum performance"-Modus und dann taktet die GPU auch nicht mehr "doof" hin und her. Das Internet ist voll jener Leute, denen diese Treibersetting auch scheinbar hilft. 🤷‍♂️ . Was war da ausschlaggebend, dass AMD dieses Feature nicht oder nicht mehr hat? Die blöde Umweltzertifizierung? Wieso darf ich meine GPU nicht takten, wie ich will? Selbst das Argument "Stromsparen" zieht nicht mMn. Die Belastung macht den Unterschied und nicht so krass die Frequenz. Vllt. sind es ja 20 W Ersparnis auf 200 W gerechnet, die da durch niedrige Frequenzen möglich wird.

Ich möchte bald sowas sehen: GPU: 3D-Last -> ich takte so hoch ich kann. Mir doch egal, dass ich theoretisch auch mit 1200 MHz das hinbekommen würde. Weil ich das zuvor falsch eingeschätzt habe, hätten die 1200 MHz aber eh nicht gereicht, um ein durchgängiges Bild zu erzeugen.

Naja, jedenfalls ist das leider mMn kein Plug-n-Play, sondern jedes Mal Settings suchen, ist ja auch nicht so das Wahre. Ich hole mir also eine GPU, die 100 FPS bei Ultra-Settings liefert und dann läuft das unrunder, als hätte ich eine halb so teure GPU im System, die nur 70 FPS liefert (CPU-Limit, etc...). Aber nichtsdestotrotz: war ein guter Tipp die Grafiklast hochzudrehen und ich als einigermaßen versierter Nutzer sehe da für mich nicht so ein riesen Problem. Jedenfalls besser als die GPU downzugraden oder die CPU upzugraden ist das allemal.
 
Mein System läuft mit dem 4.1 stabiler und besser als mit dem 3.1
Was man natürlich net genau einschätzen kann, ist das ganze kb-Gerassel Was dummerweise in den letzten Wochen
immer mit gestört hat. Wenns stabil läuft=wunderbar!
(wollte jetzt Nichts gegen den 4.1 sagen, .... nutze Den ja schließlich selbst für Games. Beim 5.x warte ich auf WHQL)
 
@ShirKhan
@Holzmann

So, kurzes Fazit. (wird gleich noch ergänzt. Game-Benchmark läuft...)
Der Netzteiltausch von 700W auf 850W auf 1000W hat bei mir keine Veränderung hervorgerufen.
Scores sind beinahe immer Gleich geblieben.

7.1.PNG
Lastaufnahme ist im Max immer so bei etwa 570-585Watt.
97CD5C7B-20EE-4800-8692-8998073A10B7.jpeg

was sich aber wirklich geändert hat.
Ich habe nun überhaupt kein Spulenfiepen mehr ab 850 Watt?

So, anbei nun noch der Benchmark.
Watt stieg auch hier nicht über 580 Watt nach Resett.
Score ist 2 FPS Punkte höher als vorher. Aber ob das am Netzteil liegt?

Benchmark im Game wurde Nun übrigens komplett ohne OC gemacht!
5C4C36D7-937B-4182-863B-173D5EABAA9F.jpeg9513FDCA-CBCE-464B-B0EB-869AA6387934.jpeg
 

Anhänge

  • 81DA7845-630C-4219-8C3B-7838D559985F.jpeg
    81DA7845-630C-4219-8C3B-7838D559985F.jpeg
    1,6 MB · Aufrufe: 96
Zuletzt bearbeitet:
Kurios.
Ich habe mit dem 24.4.1 durchweg bessere Werte als du. Völlig ohne OC.
Mit OC dann deutlich besser.
Was heißt denn deutlich besser und unter welchen Bedingungen? Meine Karte läuft ja auf Luft. Weiß nicht, aber Platz 13 in Time Spy Extreme, dicht gefolgt bis Platz 10 (Holzman) wird vom Setting jetzt nicht so schlecht gewesen sein, zumindest wenn man dieses Ergebnis betrachtet. Wenn ich es 20 durchprobiert hätte, wäre der Score wahrscheinlich noch ein Tick besser gewesen. Wenn deine Ergebnisse durchweg besser sind, hättest ja wenigstens ein paar Informationen preisgeben können. Einfach zu behaupten, dass deine Ergebnisse durchweg besser sind, hilft mir herzlich wenig. Dass es bessere Ergebnisse gibt, ist klar.


eigentlich net, weil erst der 21.3.2 besser in TS ist
Ich teste das heute Abend mal vielleicht. Mal gucken.... Ansonsten zum Zocken nehm ich den aktuellen.
 
Ich habe sogar trotz dieser Vermutung die Leistung der DX12 Spiele die ich gerade beacker gelobt
Jup. Resi 8 -> super. Metro Exodus -> super. Eigentlich alles, was "vernünftig" an der GPU-Leistung zieht. Alles über 100 FPS doof, außer Forza Horizon 4 (auch gut) oder halt gut optimierte Spiele. Ich verstehe auch nicht, wieso Welt-Streaming überhaupt, z.B. lasst da bitte meine HDDs und SSDs da raus. Haut alles in die 64 GB RAM rein und gut. Auch den Shader-Cache da rein. Wird das Game beendet, dann und nur dann den gesamten Shader-Cache auf Platte speichern.
 
Was heißt denn deutlich besser und unter welchen Bedingungen? Meine Karte läuft ja auf Luft. Weiß nicht, aber Platz 13 in Time Spy Extreme, dicht gefolgt bis Platz 10 (Holzman) wird vom Setting jetzt nicht so schlecht gewesen sein, zumindest wenn man dieses Ergebnis betrachtet. Wenn ich es 20 durchprobiert hätte, wäre der Score wahrscheinlich noch ein Tick besser gewesen. Wenn deine Ergebnisse durchweg besser sind, hättest ja wenigstens ein paar Informationen preisgeben können. Einfach zu behaupten, dass deine Ergebnisse durchweg besser sind, hilft mir herzlich wenig. Dass es bessere Ergebnisse gibt, ist klar.



Ich teste das heute Abend mal vielleicht. Mal gucken.... Ansonsten zum Zocken nehm ich den aktuellen.

ups. Hier kurzes sorry!
Mein PC Rennt gerade Benches, weshalb ich am Handy bin.
Hatte mich verlesen!

Du hast ja 21230 GPU Punkte.
Hatte versehentlich die 19 iwas als GPU Score gelesen gehabt.
Mein Fehler.
Passt soweit ja dann.

Daher bleibt nur noch die Aussage, auch mit dem 4.1 laufen die Benchmarks bei mir sauber durch und zum 3.1 und 3.2 habe ich je Bench (selbe Settings) etwa 500-1000 GPU Punkte mehr.

Belegen kann ich es heute aber nimmer.
Da ich gleich in die Heimat fahre.
 
Zuletzt bearbeitet:
Jup. Resi 8 -> super. Metro Exodus -> super. Eigentlich alles, was "vernünftig" an der GPU-Leistung zieht. Alles über 100 FPS doof, außer Forza Horizon 4 (auch gut) oder halt gut optimierte Spiele. Ich verstehe auch nicht, wieso Welt-Streaming überhaupt, z.B. lasst da bitte meine HDDs und SSDs da raus. Haut alles in die 64 GB RAM rein und gut. Auch den Shader-Cache da rein. Wird das Game beendet, dann und nur dann den gesamten Shader-Cache auf Platte speichern.
Das sage ich seit Jahren... JAHREN! Leider ist das aus verschiedenen Gründen nicht sehr praktikabel und die Erklärung würde wahrscheinlich schnell Offtopic gehen. Einer der wichtigsten Faktoren ist aber sicherlich eine möglichst gleiche Erfahrung für die Käuferschaft.
 
@ShirKhan
@Holzmann

So, kurzes Fazit. (wird gleich noch ergänzt. Game-Benchmark läuft...)
Der Netzteiltausch von 700W auf 850W auf 1000W hat bei mir keine Veränderung hervorgerufen.
Scores sind beinahe immer Gleich geblieben.

Watt stieg auch hier nicht über 580 Watt nach Resett.
Score ist 2 FPS Punkte höher als vorher. Aber ob das am Netzteil liegt?
Nein, Messtoleranzen würde ich sagen. Gar nicht mal so schlecht für eine 6900XT + 5900X vom Verbrauch her... Hätte mir das schlimmer vorgestellt.

Würdest du mal Prime und Furmark gleichtzeitig laufen lassen mit offenem Powerlimit? Würde mich interessieren was da dann auf dem Messgerät steht... Bin nämlich am überlegen ob ich nicht doch mal auf einen AMD aufrüste... 5800X rentiert sich wahrscheinlich nicht wirklich, wenn dann gleich 12 Kerne...
 
Irgendwie verblüffen mich die Einstellungen vieler Bencher hier, wo 1150 mV auf die GPU gegeben werden.
Ich geb 990 mV auf die GPU, hab im Vergleich zu @Zaudi ca. 200 MHz weniger aber bin beim Graphics Score nahe dran. Wenn ich bei mir die Regler voll aufziehe, dann läuft kein Time Spy durch.
 
Der Wert ist vollkommen Banane, Es zählt nur der Offset.
1175-1150=25mV Offset.
oder
1075-1050=25mV Offset.
 
Offset/Differenz zwischen was? Sorry, stehe auf dem Schlauch.
Zwischen WM und MPT?
 
Yes,
der erste Wert ist maxGFX im MPT und der zweite Wert = maxV im WM.
(die Differenz ist der Offset, der auf die Kurve angewandt wird)
 
Geh halt ein paar Seiten im Thread zurück bis zum Wechsel von Treiber 21.3.1 zu 21.3.2.
Und weil einige das berichten, machst du einfach eine Regel draus? Wäre schön, wenn sich die Treiberwelt so einfach erklären ließe. Was, wenn ich meine Bestscores mit 21.3.1 erzielt habe?

(ab 21.3.2 hatten gute Sys mit SAM mehr GPU-Score... kann sein das m4looney@3600 net ganz so profitiert wie XYZ@5800x) )
Aha, "gute Sys mit SAM". Die nächste unbelegte Behauptung. Das stimmt so einfach nicht.
 
Mein lieber ShirKan,
Es geht net nur immer um die Cracks, die schon länger im Thread sind. (Die/Du können mich gerne auf I setzen)
aber
Es gibt genug Neueinsteiger, die halt net wissen, was 20-30S. vorher war.
Gehe mal davon aus, daß die Neueinsteiger sich dann selbst ne Meinung bilden.
Ich zwinge Niemandem etwas auf... informiere nur über die Erfahrungen von z.Bsp. dem Threadstarter EagleOne.
 

Anhänge

  • 21_3_2.JPG
    21_3_2.JPG
    28 KB · Aufrufe: 54
Zuletzt bearbeitet:
Es geht net nur immer um die Cracks, die schon länger im Thread sind. (Die/Du können mich gerne auf I setzen)
Und führe mich nicht in Versuchung ... ;)

Es gibt genug Neueinsteiger, die halt net wissen, was 20-30S. vorher war.
Und genau die sollten dann nicht mit "Regeln" gefüttert werden, die du dir zurechtgereimt hast.

Gehe mal davon aus, daß die Neueinsteiger sich dann selbst ne Meinung bilden.
Genau. Gib ihnen doch die Möglichkeit dazu, indem du nur von deinen Erfahrungen und Beobachtungen schreibst und insgesamt ein wenig vorsichtiger formulierst. Niemand hat die Weisheit mit Löffeln gefressen. Du klingst aber manchmal danach.
 
Also was ich definitiv (für mein System) bestätigen kann, ist:

- Version 21.3.1 lief sowohl bei der ersten Bench-Session, als auch gestern problemlos.
- Version 21.4.1 lief so lala. Time Spy crashte entweder direkt oder nach ein paar Sekunden. Fire Strike hat sich lediglich 230w GPU Power gegönnt, egal was ich eingestellt habe. Und das alles trotz gleicher OC-Profile.
- Version 21.3.2 teste ich mal demnächst. Wenn's diese besagte 5% sind, nehme ich die gern mit.

edit, außerdem erzeugt die Version 24.4.1 bei mir in der Debug-Anzeige den Code d3 ("Some of the Architectural Protocols are not available."). Hat zwar keine negativen Auswirkungen, nervt mich aber trotzdem irgendwie, weil dort normalerweise immer A0 bzw. 40 steht.
 
Niemand hat die Weisheit mit Löffeln gefressen. Du klingst aber manchmal danach.
- Version 21.3.2 teste ich mal demnächst. Wenn's diese besagte 5% sind, nehme ich die gern mit.
Auch wenn S gleich wieder schimpft wie ein Rohrspatz:
SAM macht evtl. 200+Points in TS aus. Soll mit den 5000er besser skalieren als mit den 3000er CPU`s.
(Das liegt nach m.E. an den stabileren Frametimes)
 

Anhänge

  • B3-RX-6800.png
    B3-RX-6800.png
    13,8 KB · Aufrufe: 62
Zuletzt bearbeitet:
Die Bench-Tabelle ist halt auch mit ähnlichen Settings gefüllt. Ergebnis: auch in Games war der 21.3.1 bisher am schnellsten (bis ~3 FPS mehr in Game-Benches). Ob 21.4.1+ schneller oder langsamer ist, kann ich nicht beantworten. Ich werde mir noch etwas NimeZ-21.5.1-Treiber geben und schauen, was ich da als Vorteil rausziehen kann. Denke, dass der Treiber relativ gleich zum AMD-Treiber ist, aber halt wie eine Custom-ROM halt an der ein oder anderen Stelle (hoffentlich zum besseren) angepasst. Besseres Threading und kein Color-Banding in der Display-Ausgabe durch Dithering war da schonmal das Versprechen.

Da gab es teils auch Presseberichte darüber iirc, dass 21.3.1 schneller war als 21.2.x- . Ich würde den Gain daher als objektiv und außerhalb der Messtoleranz sehen. Übrigens: 21.3.1 vs 21.3.2: schwierig. Habe da zu wenige Erfahrungen. Denke gibt Leute, die mit Treiber X bessere Erfahrungen in Anwendung Z machten mit Treiber Y. Kommt da auf ganz viele Faktoren an. Aber auf die Gesamtheit der Anwendungen gesehen: 21.3.2+ ~= 21.3.1 > alles darunter...
 
meine gute XTX da die im HTPC / VR-PC verbaut ist
Hast du hier so ein HTPC mit madVR und HDR Optimierung?
Beitrag automatisch zusammengeführt:

1175-1150=25mV Offset.
oder
1075-1050=25mV Offset.
Grundsäzlich ja, allerdings ist ein niedriger Wert in MPT schon nicht schlecht, da die Karte weniger Spannung benötigt (UV), wenn sie den damit läuft. So kannst bei gleichem Powerlimit mehr für den hohen Takt ausnutzen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh