[Sammelthread] Offizieller AMD [[ RX6700 // RX 6700XT // 6750XT // X6800 // 6800XT // 6900XT // 6950XT]] Overclocking und Modding Thread [[ Wakü - Lukü - LN2]]

Musst nur ins Manual PDF des kühlers bei ALC schauen.
Danke hatte ich nicht gefunden aber nun hab ich den link entdeckt..
Screenshot_20211111-114848_Drive.jpg

Übertrieben was wird denn da alles gekühlt 🤣. Die 3mm werde ja wohl für die Backplate sein oder?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Resolution: Na, wenn das stimmt, purzeln ja bald neue Rekorde! Dann mal schnell, damit ich noch einen WR-Screenshot machen kann! :d
Super das das jetzt angesprochen wird hier nachdem ich eine Woche verzweifelt bin :devilish:
4k kostet jedenfalls 300-400 GS Punkte zu Wqhd, 800x600 hat mir jetzt noch keinen Vorteil gebracht ging aber auch noch nicht viel durch, hab jetzt auch mal den Slimmer benutzt, aber keine Zeit zum testen.
 
Für mich ist 3dmark damit erstmal beendet!
 
what!

SOC=1000Mhz was enough with the 6800xt
this let me raise FLCK , this is what Snake say when He get over 27K
Beitrag automatisch zusammengeführt:

Das wird keiner von dir

alles, auf Discord Findest du Bilder von der Montage 😄
That's why I was thinking about thermal putty, I would grease the whole card like bread with butter under the backplate and everywhere behind the core on the block side :fresse2:
for 1000% it would improve the temperature of all components on the card
 
Thats not so good to provide the tricks to everyone, may be the cry baby is spying today.
 
edit: some months ago my vram clock wants the low link speed at the desktop, to prevent stay high at the
4k-60hz moni during tests with the DS at some values
I talked with hellm at the pcgh thread about my finding, that 1080p@60hz was a problem but 59,93hz solved this.
This happens if blanking times are too short and can be solved by manually lifting the blanking time via CRU. I am running WQHD 120hz + WQHD 60Hz Fullhd 60Hz with custom blanking times and the vram clocks down fine with 8W at idle.
 
Ihr bencht mit niedrigeren Auflösung und habt mehr Punkte? Sollte wohl Mal meine Auflösung runterstellen :fresse:
 
ich benche mit nativer auflösung mit drei monitoren und hab auch kein extra bench os. :fresse:
 
Danke hatte ich nicht gefunden aber nun hab ich den link entdeckt..
Anhang anzeigen 690620

Übertrieben was wird denn da alles gekühlt 🤣. Die 3mm werde ja wohl für die Backplate sein oder?
Ja schau Mal in die Aufbau Anleitung. Bei mir ist nur 1-4 für Speicher usw.. der Rest backplate. Ich brauche bei dem alc nur 1mm Pads für die wichtigsten teile
 
Ihr bencht mit niedrigeren Auflösung und habt mehr Punkte? Sollte wohl Mal meine Auflösung runterstellen :fresse:
Bloß wie hinderst Du den Moni dann am Umschalten auf 1440p?

Evtl. hilft ja schon Fenster ala Johnson.
alternativ
hilft nur ein Gang zum A+V, da werden die kleinen Monis gerade knapp
 
ShirKhan
than try in 800x600 i check results :fresse2:
I review all Your test results , it was obvious to me
Denk bitte dran, dass mit dem Displaywechsel auch das Rausstellen des Systems auf den Balkon einherging. Das hat noch mal einen Temp-Schub gebracht. Außerdem waren die besseren Scores genau die ersten Benchversuche, die mit deinem genialen Feature Control Tweak gemacht wurden. Vorher wurde die Karte in GT2 massiv eingebremst.

Auf dem großen Display hatte ich vor Monaten schon mal testweise die Auflösung halbiert, auf WQHD. Hat exakt Null Mehrwert gebracht. Aber natürlich teste ich als nächstes 800x600 auf dem 22-Zöller. Der hängt btw mit einem DVI-auf-HDMI-Kabel an der Karte.
 
everybody now about this !!!

24478-jpg.690206

look at System information > display #1
Holzi you disarm me completely :wall:
Haha, i literally run the same SOC, FCLK, DPM, GameCache Last Level access xD
Try to push PhyClk to 970 (you should pass it) and see if this does anything
Might also want to increase SOC to 600 min ~ atleast to test :)

Good to see your card likes 2719 GFXmax
 
According to AMDs presentation of RDNA 1 & 2 (read now a bit into it but still not enough)
After a certain frequency region ~ L3 + 128mb infinity cache *, starts to be the bottleneck in how fast & effective data can even reach the compute cores.
* this is the main difference between batches and it was expected that lower tier versions lower this cache for cost saving measures, as they don't need it on a low buswidth, when cores can not boost high
** also the reason AMD doesn't need to use 256 or 384bit wide bus (that costs a lot ~ NVIDIA and draws too much power)
Which also goes for passing through RT accelerators

SOC seems at 1000-1200 to not affect much about it, as Infinity Cache is still "too slow" to handle effective frequency beyond 2600 ~ at it's 2200 Freq
(something before/after it throttles high FCLK shining through)
Near 2600 core, it requires by AMD defined 1940Mhz Infinity Cache Freq ~ and according to them "the more load you put on it, the faster it gets as frequency straps max out, soo transfer happens faster"

Which also means
That after a certain point, FCLK does affect negatively Vclk + Dclk is required to be pushed
Vclk pushing seems to fail quite fast on GT2 with a hangup/crash (no artifacts) , while Dclk is not 100% clear as of now but does artifact

I was silent for a bit till i have a proper scale, but it's funny ~ as you run nearly perfectly identical settings to me @Sylwester. :d
Just the difference that i try to understand the power tables, while you go all in ^^
We'll get this soon, but test please PhyClk range, just be cautious with min frequency on SOC
As when this one is too high, it messes up boosting straps (gear shifting)
(970 Phyclk was the max i could push before it started to autocorrect throttle)
 
Zuletzt bearbeitet:
Nur Interesse halber, um den Bug zu provozieren, braucht man einen screen, nativ nur eine geringe Auflösung hat zb. 800x600, richtig?
 
Du warst ja lange raus :LOL:
 
Hab noch nen 19" 1024*768
Ich hab genau so einen fün Balkon, weil ich mir nicht jedesmal das gesamte Setup am Schreibtisch zerreissen will. Geht dann per VGA-DP Adapter in die Karte rein.

Die Diskussion geht jetzt ja in die richtigen Richtung:
- wir benchen und schaun, dass alles passt - Tess braucht man zu nichts und wiedernichts anfassen
- wenn wir bissl Wissen haben, dass wenn X passiert wir ggf. den Treiber neu DDU-installieren müssen, dann ist das zusätzlich gut
- generell vertrau ich den Benchern, ob die sich jetzt LUXX oder OCN nennen
- ansonsten seh ichs auch wie @Veii und wie ich auch schon früher gepostet hab: UL muss nen zuverlässigen Test haben; XOC ist zudem so crazy, dass ich mich immer frag, warum wir alles zulassen, nur und periodisch bei Tess so verrückt machen - ich will mich da auf die Validierung von UL verlassen und von irgendwelchen workarounds garnichts wissen.
 
Du warst ja lange raus :LOL:
Das mit der auflösung ist kein Bug, die Karte hat halt weniger arbeit.
Der einzige bug war ist das man irgendwie ohne Tess verifizieren kann, aber das will ich erhlichgesagt garnicht wissen wie das geht.
 
das geht auch mit cru.
Löscht Du dann die Auflösung, damit Er zwangsweise Kleiner bleiben muss?
und
Würde W10 net über inf o.ä. auch ein Wörtchen mitreden? (plug+play erkennt doch trotzdem den Moni)
 
genau
der monitor teilt dem system mit, was er denn so kann und das kannst du windows seitig mit cru bearbeiten.
 
Klar ist das ein Bug, 3dmark muss doch erkennen können, dass durch eine geringere Auflösung als vorgeschrieben, mehr FPS generiert werden.
 
Der bench läuft intern ja immernoch mit der auflösung die vorgesehen ist. nur die Karte hat drumerum halt weniger zu tun.
TimpeSpy Extreme ist ja 4k, ich habe aber keinen 4k Monitor, bench lauft intern mit 4K.

Also kein Bug.
 
Der bench läuft intern ja immernoch mit der auflösung die vorgesehen ist. nur die Karte hat drumerum halt weniger zu tun.
TimpeSpy Extreme ist ja 4k, ich habe aber keinen 4k Monitor, bench lauft intern mit 4K.
Das kann man ja noch nachvollziehen aber dann ist der bench als Leistungsvergleich halt Schrott und warum fällt das erst jetzt auf TS gibt es schon viele Jahre, ich verstehe das irgendwie nicht.
 
Das kann man ja noch nachvollziehen aber dann ist der bench als Leistungsvergleich halt Schrott und warum fällt das erst jetzt auf TS gibt es schon viele Jahre, ich verstehe das irgendwie nicht.
Anders kann man ( UL ) es halt nicht lösen, du kannst den leuten ja nicht vorschreiben was sie für einen Monitor haben.

Wie groß ist den der unterschied von 800x600 zu WQHD oder 4K?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh