[Sammelthread] Offizieller AMD [[ RX6700 // RX 6700XT // 6750XT // X6800 // 6800XT // 6900XT // 6950XT]] Overclocking und Modding Thread [[ Wakü - Lukü - LN2]]

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Luxx hatte auch schon berichtet:
Das war aber nur eine Momentaufnahme, oder? Der Test ist doch nicht durchgelaufen, oder gab es da mal ein valides TS Ergebnis?
 
Der Test ist doch nicht durchgelaufen, oder gab es da mal ein valides TS Ergebnis?

Leider nicht aber darauf hat es der 8Auer auch nicht angelegt, ging wohl nur um einen Taktrekord unter gaming Last. 🤷‍♂️
 
nein weil die ultimate sich in timespy komisch verhält. entweder bekommt man einen guten Run im Ersten Test dann stürzt aber der zweite Test ab oder im ersten Test lässt man 100 Mhz auf der Strecke und der zweite Test läuft mit dem Takt durch den die Karte im guten Run bei Test 1 hatte.
 
war der dafür? hat man da nähere infos? finde das verhalten meiner karte im ts nämlich irgwie strange. hab da nur die info vom 20.4. bzgl. 3dmark update gefunden, aber nix rauslesen können was das verhalten erklären könnte. (treiber ist via ddu fresh installed)
 
habe jetzt alle treiber durch von 21.3.1 bis 21.4.1 Timespy ist mit der Karte zum verzweifeln... Und ich habe aufgehört damit ist frustrierend
 
Das hat mit ihnen nichts zu tun es ist die Takt Spannungs Last Kurve die die Karte hat. und die ändert sich mit den Treibern auch noch extrem. Gut die Karte ist aktuell noch nicht mal freigeschaltet und wird als unbekannte Gpu geführt. Warten wir mal ab was noch so kommen wird. Die Karte performt ja außerordentlich überall außer in Timespy.
 
@L!ME

Welche Taktraten konntest du mit deiner LD 6900XT ohne Austausch der Wärmeleitpaste erreichen?

Wie waren die Temperaturen der GPU und die des Kühlwassers?

Wollte vorab schon mal wissen worauf ich achten muss, wenn meine morgen kommt.

Grüße
 
@Patrick9286

Taktraten ändern sich nicht wirklich nur die Temperatur und somit erhält man einen höheren Takt im selben Einstellungsbereich
Meine Karte läuft mit 2950min Takt 3050 max Takt durch Superpostion egal welche Auflösung.

Bei Timespy kann ich aktuell nicht wirklich ne Aussage treffen. Aber bei timespy extreme komme ich durch den ersten Test mit 2880 2980 durch was real 2930mhz sind.

Meine Wassertemperatur bewegt sich von 20 -26 Grad. GPU hatte vorher bis 60grad und 106 Grad Hotspot erreicht nach dem LM umbau ca 50gpu und ca 80hotspot beim benchen und zocken
 
@Patrick9286

Taktraten ändern sich nicht wirklich nur die Temperatur und somit erhält man einen höheren Takt im selben Einstellungsbereich
Meine Karte läuft mit 2950min Takt 3050 max Takt durch Superpostion egal welche Auflösung.

Bei Timespy kann ich aktuell nicht wirklich ne Aussage treffen. Aber bei timespy extreme komme ich durch den ersten Test mit 2880 2980 durch was real 2930mhz sind.

Meine Wassertemperatur bewegt sich von 20 -26 Grad. GPU hatte vorher bis 60grad und 106 Grad Hotspot erreicht nach dem LM umbau ca 50gpu und ca 80hotspot beim benchen und zocken
Alles klar danke. Dann werde ich morgen mal testen, was bei mir so geht.
 
Hat sich denn bei irgendwem mit einem älteren Treiber durch das 3DMark Update die "im TimeSpy nötige" Spannungskurve geändert? Sprich, gibt es hier jmd, bei dem es vor dem Update rund lief und danach dann Änderung in der Spannung o.ä. nötig wurde, um da überhaupt noch durchzukommen?
 
Mein Eindruck ist, dass die nötigen Spannungsunterschiede ausschließlich durch das Treiberupdate und nicht durch das 3DMark-Update verursacht wurden. Hab mit 2.17.7166 mehrmals zwischen den Radeon-Treibern gewechselt und mit anspruchsvollen Settings nur bei 21.4.1 ein stehendes Time Spy-Bild gesehen.
 
zwischen den Radeon-Treibern gewechselt und mit anspruchsvollen Settings nur bei 21.4.1 ein stehendes Time Spy-Bild gesehen.

Sieht also ganz so aus, als brauchen wir einen neuen Treiber! :d
 
Der nächste Winter Treiber kommt bestimmt. Bis dahin genügt mir der alte.
 
Bin gespannt auf das Mai Release, denn wie heißt es doch so schön, Alles neu macht der Mai. 😜
 
So toll das Tempo auch ist beim Radeon-Treiber so viele Baustellen kommen jedes Major-Release dazu, so sehr wünscht man sich, dass alles harmoniert, anstatt dass Zeugs immer wieder unausgegoren in den Treiber kommt. Die Radeons sehe ich sehr wohl als konkurrenzfähig an, was Features und Funktionen angeht, aber so ein paar Sachen stören dann doch auch im Rückblick betrachtet:

1) ich halte es für ein Gerücht, dass FreeSync bei jemandem jemals problemlos funktioniert hat. "Damals" 2018 (2017 eine RX 56 bei Release gekauft) einen Samsung 28" 4k60 FreeSync-Monitor geholt. Eigentlich eine super Sache gewesen. 50 FPS fühlten sich genauso rund / unrund an wie 60 FPS und ohne FreeSync war das Erlebnis gefühlt auch mit über 60 FPS weniger fluffig als 50 FPS mit FreeSync.

Dennoch war eine Sache halt immer wieder nervig: Helligkeitsflackern in Abhängigkeit von FPS. Gibt es da außer Frame-Limitern eine akzeptable Lösung? Der Frame-Limiter hilft halt nur "oben rum", aber falls FPS schwanken oder unter die Freesync-Range fallen, wird es halt optisch störend. Mit dem jetzigen Monitor MSI 34" UWQHD 100 Hz fällt das störender auf, sodass ich mich sogar entschloss FreeSync auszustellen. Und ich denke jeder Bildschrim falckert. Beim einen fällt das mehr und beim anderen weniger auf. Das ist evtl. auch super subjektiv und stört evtl. nur die besonders empfindlich Wahrnehmenden.

2) beim OC: alles super, gut einstellbar mit den Vegas damals. Heute alles etwas komplexer auch durch das MPT und den Verzicht auf die Spannungskurve bei BN. Ok, fragwürdige Entscheidung und vllt. gibt es tatsächlich nur den Min- und Max-State in Hardware (?) oder es war technisch nicht anders möglich als es so abzubilden (?). Auch finde ich abseits der immensen Zeitinvestition das OC besser als das von NVidia.

Da scheiden sich evtl. die Geister. Evtl. macht der Vergleich "manuelle Schaltung vs. Automatik" da Sinn. Das Erstere stellt höhere Anforderungen an die Bedienung, aber nachdem man es raushat, hat man mehr Kontrolle und das Ergebnis lässt sich "besser" steuern mit mehr Vorteilen.

Das OC-Problem was ich mit dem Treiber damals hatte war, dass das OC von der Radeon VII treiberseitig kaputt war. Wenn ich ein OC eingestellt habe sagen wir mal von 2 GHz, hatte die GPU auf einmal heftige GPU-Utilization-Drops. Als Lösung nutzte ich eine Zeitlang die Min-Frequenz vom MPT (2 GHz). Die GPU lief also ständig auf 2 GHz. Mehr Verbrauch gab es im Idle aber nicht sonderlich. Das Problem tauchte auf als Navi10 rauskam. Irgendwann habe ich aus "Spaß" die Lüfter auf 100 % gestellt, obwohl keine angeschlossen waren, da die Karte wassergekühlt war. Ihr glaubt es nicht, aber danach lief die Karte wie eine 1. Interessanterweise konnte Cracky von Rawiioli das dann bei sich reproduzieren. Das war durch Zufall aber ein unabhängiges Ergebnis. Ich hatte den Fix selbst herausgefunden und keinem Bescheid gesagt und Cracky ebenso.

Das ist halt etwas, was in meinen Augen irgendwo symptomatisch ist für den Treiber. Viele Bugs tauchen bei vielen Nutzern reproduzierbar auf. Seltsamerweise (eigentlich nicht verwunderlich) oft nach Major-Releases. Danach wird versucht alles monatelang i.O. zu bringen. Dabei werden Sachen gefixt und wie bei der meisten Software entstehen Bugs an anderer Stelle. Da bleibt manchmal tatsächlich nur der Neuanfang vs. wir machen Jahrzehnte lang mit einer Flickenteppich-Software weiter. Denke, aufgrund der vielen AMD-Karten, die supported werden wollen mit den vielen kompatiblen Spielen, gestaltet sich der Neuanfang als schwierig. Eigentlich wäre das beste Konzept gewesen mit BigNavi einen Navi-Treiber von grundauf für Navi+ neu zu schreiben, alle alten Zöpfe abzuschneiden und zwei Treiber anzubieten: vor und nach Navi-Treiber. Aber ich bin nicht Lisa Su. Die wird schon einen guten Plan haben.

3) nächste Baustelle: Spiele-Einstellungen. Es wird immer noch dringend empfohlen "Enhanced Sync" auszuschalten (da gab es Probleme mit Navi10-Blackscreens und das einzuschalten will ich dann halt auch nicht). Problem war dabei auch (oder ist es immer noch ?), dass das mit bestimmten Start-Settings beim ersten Start standardmäßig aktiv war. Verstehe halt nicht, wieso das Feature da nicht zumindest für Noobs versteckt worden ist. Da hätten es "Profi-Einstellungen" getan. Wer von sich behauptet hätte, Experte zu sein, hätte einen Toggle umlegen können und dann alles mögliche verstellen können. Für die "Noobs" gäbe es dann weniger "experimentelle" Einstellungen und alle wären super glücklich gewesen. Die Noobs hätten nicht viel falsch verstellen können, mit der Konsequenz, dass der Treiber in den höchsten Tönen gelobt werden wäre von allen, anstatt, dass man NVidia höhere Sales ermöglichte, da es irgendwann hieß: "AMD ist schrott, denn die Treiber taugen nichts".

Ist halt leider nicht ganz unrichtig, aber auch nicht ganz richtig. Die Treiber sind prinzipiell besser als die von NVidia, was Features und Nutzbarkeit, Design, etc. betrifft. Nur leider funktionieren Features oft auch in Kombination nicht richtig miteinander.

Beispiel: Anti-Lag führt bei mir zu random-Stuttering in manchen Games. Ob das schon mit dem 21.4.1 gefixt wurde, weiß ich nicht, da ich aus der Diskussion mitgenommen habe, dass es besser ist mit "Schön-Wetter"-OC(UV) auf dem alten Treiber zu bleiben. Auch hier: vllt. nutze ich das nicht richtig. Vllt. geht das nicht gut, wenn gleichzeitig Bildschärfe aktiviert ist, aber leider brauche ich zumindest in Warzone die Bildschärfe.

Weiter: Ich wollte in Cyberpunk die Framerate massiv steigern mit Raytracing. Ansatz: ich schalte Radeon Boost auf 66 %. Dann sind die Bewegungen flüssig(er) ohne großen Qualitätsverlust -> war auch so. Dann schalte ich RIS hinzu, um die Schärfe zu erhöhen und die Reduzierung der Auflösung abzudämpfen -> soweit so gut. Dann machte ich im Spiel adaptives Resolution-Scaling mittels CAS -> massive Bildfehler. Problem dabei: ich hätte schon gerne was Frame-Rate-adaptives gehabt an der Stelle, da je nach Frame-Rate mehr Fidelity möglich gewesen wäre. Normales Down-Scaling habe ich auch probiert, dann war aber entweder die Qualität zu niedrig oder die Frame-Rate nicht hoch genug. Das ließe sich halt durch das Adaptive-Zeugs vermeiden, vor allem da Bewegungen ja eh mit Radeon-Boost gepusht wurden hins. FPS und mit Down-Scaling. Selbst während Bewegungen wurde die Auflösung optisch zu niedrig.

4) Treiberabhängige Display-Probleme (habe da einen Thread dazu). Ich hoffe die Probleme sind seit 21.3.1 endgültig Geschichte. Ein besseres DP-Kabel brachte spürbar Besserung.

5) Utilization-Drops, die angeblich mit dem neuen 21.4.1-Treiber Geschichte sein sollten, untested -.-. Wie wäre es mal gut gewesen, wenn der 21.4.1 nur Fixes und keine OC-Problemchen gehabt hätte -.-?

6) AMD-Link gibt es endlich für PC. Da warte ich solange drauf. Wäre ja eine super Sache gewesen, gäbe es einen Windows-App dafür. Gibt es aber nicht, denn stattdessen möchte AMD grundlos einen zweiten Rechner mit einer AMD-Karte, auf dem der 21.4.1 läuft 🤦‍♂️ . AMD, jetzt mal ehrlich: wieso gibt es seit Jahren eine AMD-Link-App für Android und für iOS und für Android-Smart-TVs, aber weder für Windows noch für WebOs. Ich wäre einer der wenigen, die das tatsächlich gerne nutzen würden auf dem 4k-TV ohne den Rechner schleppen zu müssen oder mir neues Zeugs zu kaufen.

Also: wieso keine Microsoft-App und wenn, das aus Gründen nicht geht, wieso keinen übergreifenden Client? Steam-In-Home-Gedöns ist entweder nicht gut genug aufgelöst, oder laggy leider. Einmal kurz eine NVidia GTX 1060 gehabt und das war ein erstaunlich unkompliziertes Erlebnis das Streaming auf dem Lappi zu zocken, akzeptable Qualität, gute Frame-rate und wenig Lag. Warum kocht jeder Entwickler hier eine eigene Suppe? Moonlight nur NVidia, AMD-Link nur AMD, NVIdia-Shadowplay nur NVidia und Steam-Gedöns einfach nur schlecht... Möglich, dass mein Router blöd ist und ich mit einer Fritz-Box keine Probleme hätte, aber das sind schon wieder Kosten und mit NVidia auf NVidia läuft es doch auch prima. HW-Decoding sollte ja schnell genug für alle Hersteller sein und das Encodieren übernehme die jeweilige GPU in HW. Steam kriegt es ja so prinzipiell hin, aber die Verbindung oder die Kompression ist doof.

So, genug geschimpft. An sich ist der Treiber absolut brauchbar in Hinsicht auf Gaming, wenn man nur Gaming betreibt und sonst nichts OCed oder einstellt. Sry für den langen Text, aber vllt. habt ihr da ähnliche Erfahrungen?
 
Kurz und knapp: Der Radeon-Treiber funktioniert bei mir genauso gut wie der Nvidia-Treiber bis März. Der einzige Unterschied ist, dass der Nvidia-Treiber beim OC im Grenzbereich seltener abstürzte.

Freesync (vorher G-Sync) am Freesync-Monitor ist ebenfalls okay. Der kann 120 Hz und kriegt deshalb per RTSS ein Framelimit bei 118 verpasst. Da flackert auch nichts, keine Klagen hier. Die "Link"-Sachen sind mir schnurz und Bildverbesserer im Treiber bleiben aus, bis auf Vsync und Anti-Lag, das hier kein Bildstottern verursacht.
 
Zuletzt bearbeitet:
Das mit "Anti-Lag" Teste ich heute mal mit BF5, das bleibt tatsächlich ab und zu stocken, weiß aber nicht ob es daran liegt.

Lustig, gestern meinte der neue Treiber mein Monitor wäre nicht Freesync kompatibel^^ plötzlich geht's dann doch^^
 
Eben war wieder ein drop bei amd aber leider keine Karte mit xtxh Chip dabei.:xmas:

 
All die schönen Karten jetzt mit dem XTX´H Chip...
aber ich werde stark bleiben und nicht schwach werden. :d

Habe übrigens gestern noch gehört, dass die XTXH chips nur an die Partner gehen, es wird also keine Ref. Version damit geben.
 
Hat sich denn bei irgendwem mit einem älteren Treiber durch das 3DMark Update die "im TimeSpy nötige" Spannungskurve geändert? Sprich, gibt es hier jmd, bei dem es vor dem Update rund lief und danach dann Änderung in der Spannung o.ä. nötig wurde, um da überhaupt noch durchzukommen?
Der neue 21.4.1 läuft bei mir beschissen. Im TS von 16.476 GP auf 16.099 GP zurückgefallen. Mit mehr/weniger Volt/Frequenz/Leistung komm ich nicht mehr durch den TS - und es wird nicht nur an den leicht wärmeren Außentemperaturen liegen.

Schöne Generalabrechnung, @m4looney
- FreeSync läuft bei mir gut
- die Adrenalin-Treiber sind leider keine fertige Baustelle sondern irgendwo mittendrin
 
Ja gut, wir sollten denen Fehlermeldungen senden. Eine Sache ist, dass die selber wohl auch merken, dass es bei denen Systeme gibt, die weniger Performen. Aber ne andere Sache sind sich beschwerenden Kunden - das mag keine Firma gerne.
 
All die schönen Karten jetzt mit dem XTX´H Chip...
aber ich werde stark bleiben und nicht schwach werden.
Ja, aber bitte! :hmm: Als ob du ein Performanceproblem hättest mit deinem Brett von einem Chip.

(Edit: Und man male sich das Geheule aus, sollte die neue dann nicht so gut gehen wie die alte! :d Die Show würde ich gerne hier lesen! :haha:)
 
Zuletzt bearbeitet:
Jungs Was sollte so eine Wurst 6900Xt sicher packen das die Olle als gut bezeichnet werden kann ?
2,7ghz
 
(Edit: Und man male sich das Geheule aus, sollte die neue dann nicht so gut gehen wie die alte! :d Die Show würde ich gerne hier lesen! :haha:)

Das wäre ein Drama :fresse:

Aber wieviel Brett am Ende tatsächlich in meinem Chip steckt, werde ich wohl erst mit dem Block erfahren, der nicht lieferbar ist. :rolleyes2:
 
der nicht lieferbar ist. :rolleyes2:
:oops: Und nun? Oder meinst du "noch nicht"?
Beitrag automatisch zusammengeführt:

Jungs Was sollte so eine Wurst 6900Xt sicher packen das die Olle als gut bezeichnet werden kann ?
2,7ghz
Ich hoffe, die Kollegen, die im Hintergrund daran arbeiten, steigen mir jetzt nicht auf's Dach: Aber wenn das noch ein paar Tage (mindestens!) Zeit hat, wirst du auf die Frage eine fundierte Antwort erhalten.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh