[Sammelthread] Offizieller AMD [[ RX6700 // RX 6700XT // 6750XT // X6800 // 6800XT // 6900XT // 6950XT]] Overclocking und Modding Thread [[ Wakü - Lukü - LN2]]

... und beim Abkühlen wieder fest.


Vielleicht könnt ihr mich erhellen. Ich frage mich nämlich immer, warum PTM 7950 für GPU-Wasserkühlung empfohlen wird. Denn wenn der Schmelzpunkt 45 °C beträgt, gibt es ja quasi keine Chance, die GPU-Temp unter diesen Wert zu bekommen. Die bei meinen Karten angestrebten 40 Grad (oder darunter bei niedriger Leistungsaufnahme) wären damit nicht zu erreichen. PTM7950 für Luftkühlung, ok. Aber unter dem Wasserblock?

Mach ich einen Denkfehler? Muss vielleicht der Hotspot Referenzwert sein und nicht die GPU-Temp? Aber der tritt doch nicht flächig auf und wird allein das Pad nicht schmelzen?
Ne, da hast schon Recht. Performt trotzdem super. Vielleicht sollte man es am Anfang mal kurz anschmelzen lassen ( pumpe aus ) .
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja, aber es bleibt doch trotzdem nicht flüssig? :)


Wenn einem 45 bis 50 Grad GPU-Temp reichen. Lass mich aber gern eines Besseren belehren.
Nein, es ist dann aber schon einmal schön an die Oberfläche angeschmolzen.
Beitrag automatisch zusammengeführt:

Will das auch gar nicht als LM ersatz sehen, aber besser wie die Pasten.
 
Wenn einem 45 bis 50 Grad GPU-Temp reichen. Lass mich aber gern eines Besseren belehren
Bei welcher Karte und welcher Leistungsaufnahme bleibt deine Karte den unter 40 Grad?
Ich habe hier eine rx6900xt die mit 360 Watt im Timespy bei 66 Grad GPU, 30 Grad Wassertemperatur und 20 Grad Raum läuft. Alles an einem Mora 360 mit 9x Arctic P12
 
Bei welcher Karte und welcher Leistungsaufnahme bleibt deine Karte den unter 40 Grad?
Ich komme gelegentlich darauf zurück, versprochen. Lass mich dann ein paar alte Screenshots von der 6900 XT und den 7900 XTX rauskramen. Ganz grob: Bei rund 30° Wasser und 300 W war ich mit etwa 10 K Delta unterwegs. Allerdings immer mit LM.

Derzeit läuft hier eine kühle Luftkarte, deren Temps mit Block weiß ich erst irgendwann. Obwohl die nicht so heiß wird wie die AMD-Karten, hab ich nach langem Überlegen (Kryosheet? PTM7950?) entschieden, auch bei der 4080 S wieder Liquid Metal einzusetzen. Bis mich jemand vom Gegenteil überzeugt, bleibt das die optimale Kühllösung.
 
Zuletzt bearbeitet:
Liquid Metal wäre meine letzte Option, hat bei meiner Vega64 wunder gewirkt.
Ist halt wenn es mit dem Kupfer/Nickel legiert mühsam zu entfernen….
 
Ist halt wenn es mit dem Kupfer/Nickel legiert mühsam zu entfernen….
Ja, aber nicht auf dem Chip, nur auf dem Kühler. Und dort kann man schadlos mit Polierwatte draufrumrubbeln. 😅

Fun fact: Die Reaktion des LM mit dem Kühler scheint von der vom Hersteller verwendeten Legierung abhängig zu sein. Alphacool war hier ok, Bykski schwierig, Barrow weiß ich nicht mehr. Bin gespannt, wie es sich mit dem sauteuren EKWB Quantum Vector² verhält. Sofern ich da überhaupt Erkenntnisse gewinnen kann. Denn LM bleibt sehr lange performant. Im ersten Jahr muss man an so was keinen Gedanken verschwenden, im zweiten nur vielleicht. Ob es neu aufgetragen werden muss, hängt somit auch von der Haltedauer der Karte ab.
 
Zuletzt bearbeitet:
@Bimer Ne, ich sehe gerade das Arctic und Arcticsilver zwei unterschiedliche Firmen sind. Hast du da mal einen genauen Link zu deiner Paste?

Geizhals listet die seit 2004.
2024-3-6 16-0-32.png
 
Zuletzt bearbeitet:
Hab die AS 3 und 5 auch lange genutzt, hat auch tatsächlich Silber drinnen.
Ist aber schon 'ne weile her ^^
 
Fun fact: Die Reaktion des LM mit dem Kühler scheint von der vom Hersteller verwendeten Legierung abhängig zu sein. Alphacool war hier ok, Bykski schwierig, Barrow weiß ich nicht mehr. Bin gespannt, wie es sich mit dem sauteuren EKWB Quantum Vector² verhält.
Ohja, 3 Jahre Watercool Kupferblock ohne Vernickelung ist danach quasi verschweißt. 🙈 was hab ich da geschwitzt beim auseinander bauen… 😅
 
Gibt es bei dem MPT eine Möglichkeit irgendwie den Speicher zu regulieren? Oder ist sie bei den Treibern festgetackert? Ziel soll sein, dem Speicher das Hochtakten zu verbieten. Soll ausserhalb von Spielen bei seinen 200 MHz bleiben. Auch die Spannung sollte möglichst runter. Unten im Bild läuft ein FHD Video:


Video
ID : 1
ID in the original source medium : 4113 (0x1011)
Format : AVC
Format/Info : Advanced Video Codec
Format-Profil : High@L4.1
Format-Einstellungen : CABAC / 4 Ref Frames
Format-Einstellungen für CABAC : Ja
Format-Einstellungen für RefFrames : 4 frames
Codec-ID : V_MPEG4/ISO/AVC
Dauer : 2 h 10 min
Bitraten-Modus : variabel
Bitrate : 5 981 kb/s
maximale Bitrate : 40,0 Mb/s
Breite : 1 920 Pixel
Höhe : 1 080 Pixel
Bildseitenverhältnis : 16:9
Modus der Bildwiederholungsrate : konstant
Bildwiederholungsrate : 23,976 (24000/1001) FPS
Color space : YUV
Chroma subsampling : 4:2:0
Bit depth : 8 bits
Scantyp : progressiv
Bits/(Pixel*Frame) : 0.120
Stream-Größe : 5,52 GiB (77%)
verwendete Encoder-Bibliothek : x264 core 116 r2074 2641b9e
Kodierungseinstellungen : cabac=1 / ref=4 / deblock=1:-2:-1 / analyse=0x3:0x113 / me=hex / subme=7 / psy=1 / psy_rd=1.00:0.15 / mixed_ref=1 / me_range=16 / chroma_me=1 / trellis=2 / 8x8dct=1 / cqm=0 / deadzone=21,11 / fast_pskip=0 / chroma_qp_offset=-3 / threads=3 / sliced_threads=0 / nr=0 / decimate=1 / interlaced=0 / bluray_compat=0 / constrained_intra=0 / bframes=3 / b_pyramid=2 / b_adapt=2 / b_bias=0 / direct=3 / weightb=1 / open_gop=0 / weightp=2 / keyint=250 / keyint_min=23 / scenecut=40 / intra_refresh=0 / rc_lookahead=40 / rc=2pass / mbtree=1 / bitrate=5981 / ratetol=1.0 / qcomp=0.70 / qpmin=10 / qpmax=51 / qpstep=4 / cplxblur=20.0 / qblur=0.5 / ip_ratio=1.10 / aq=1:0.7
Sprache : Englisch
Default : Nein
Forced : Nein
Originales Source-Medium : Blu-ray

GPU unter 100 MHz mit 3 W Verbrauch. Vram bei 2 GHz und frisst, was das Zeug hält. Dabei wird der gar nicht gebraucht. 40 W für anspruchsloses Video schauen, obwohl die Speicherleistung absolut ungenutzt ist. Die wird nicht gebraucht. Der Treiber ist 23.8. Bei 24.2 zwar das Gleiche, nur bei wirklich gar nichts tun, liegt der Verbrauch doppelt so hoch, nämlich bei 14 W.

Bild 17.png
 
Nein, die gibt es so nicht.
 
Also Versehen kann das seitens AMD nicht gewesen sein. Nvidia kriegt und kriegte das problemlos hin. Gewollt, kann das ja auch nicht gewesen sein. Also haben die das einfach nicht hinbekommen?
Gibt es Aufschlüsselung zu den Werten im letzten Tab von MPT unter "More"?
 
Bei welcher Karte und welcher Leistungsaufnahme bleibt deine Karte den unter 40 Grad?

Ich komme gelegentlich darauf zurück, versprochen. Lass mich dann ein paar alte Screenshots von der 6900 XT und den 7900 XTX rauskramen. Ganz grob: Bei rund 30° Wasser und 300 W war ich mit etwa 10 K Delta unterwegs. Allerdings immer mit LM.
Vielleicht hatten bei der XTX aber auch die Sensoren einen Schlag, wer weiß. Das sind schon extrem gute Temps ... :LOL: Wir werden es nie erfahren, R.I.P.
 
Zuletzt bearbeitet:
Also beim normalen Gamen bleibe ich auch oft unter 40°C Edge mit der XTX.
 
Habe den Wasserkühler von Alphacool heute bekommen und bereits drauf montiert. Zum Testen die maximal mögliche Einstellungen gewählt. GPU Hotspot 87 Grad. Verstehe nicht, woher das kommt? Vor allem der viel zu grosser Unterschied zwischen normalen und Hotspot Temperatur. Luftkühler und jetzt Wasserkühler machen keinen Unterschied. Die alte Paste auf der GPU war hellgrau und in Ordnung, nicht trocken.
TimeSpy durchlaufen lassen und es hat sich zu vorherigen Messungen mit Luftkühler nichts verändert.

Bild 20.png
 
I tend to use google Lens on my phone.
The Live Translation does work like a charm on pictures and Greek or Chinese packaging:)
No need to type letter after letter from a picture.
O thanks alot for this information was not aware. This is the PC for the Kid. It maybe the Second last PC I will ever build in my life (because of health irl problem) and I wanted to do the maximum for him + the fun of the challenge for the flashing. 13700K have been delided + LM on the 6950 XT as well.
 

Anhänge

  • 20240309_162506.jpg
    20240309_162506.jpg
    866,2 KB · Aufrufe: 54
  • 20240309_164912.jpg
    20240309_164912.jpg
    1,1 MB · Aufrufe: 71
  • 20240309_162200.jpg
    20240309_162200.jpg
    908,5 KB · Aufrufe: 70
Hi, ich habe Probleme mit meiner HotspotTemp. Ich habe jetzt eines der besten Thermal Pads gekauft (GC-Ultimate), benutzte LM, und habe einen 1080mm radiator. Trotzdem wird meine Karte 86c heiß, während einem Timespy run. Ich habe einen PPT von 550W / TDC 530 GFX und 90A. Während dem Timespy wird aber nur 450W verbraucht. Hat jemand noch eine Idee was man machen kann? oder soll einfach meine Power Limits niedriger stellen?
 

Anhänge

  • Timespyrun.PNG
    Timespyrun.PNG
    29,3 KB · Aufrufe: 48
Die Temps sehen für mich absolut normal aus bei der Wassertemperatur und über 500w.

Auf die ASIC Power kannst du nochmal etwas drauf rechnen ,das ist nicht der komplette Verbrauch der Karte.
 
Ja, da stimm ich zu, bei mir (LM, WaKü) geht das Delta auch auf 30 Grad und mehr unter Volllast wenns mal so um die 500W und mehr geht.
Vielleicht könnte man das wieder bissl eindämmen, wenn ich die Karte mal zerleg und alls sauber und neu mach - aber wozu?
Im Time Spy bleib ich auf dem HS nur unter 70, wenn der Rechner im Winter draußen steht.
 
Die Temps sehen für mich absolut normal aus bei der Wassertemperatur und über 500w.

Auf die ASIC Power kannst du nochmal etwas drauf rechnen ,das ist nicht der komplette Verbrauch der Karte.
TimeSpy Score liegt bei 23000
Für ne xtxh schon eher im unteren bereich
(Hab ja auch noch keine Frequenzen erhöht)

Ist es sinnvoll die Karte auf 550W zu stellen wenn man einfach nur hohe TimeSpy Scores möchte / und stabiles gaming?

Ein weiteres Problem ist dass fast jedes mal nach dem restarten die Karte auf 500mhz gelockt ist, dann muss ich jedes mal ins MCT gehn und das wieder selbst umstellen, meine GPU ist aber zu 100% stabil, es sind ja nur die Pwr Limits eingestellt...
 
Wenn dich das Maximum deiner Karte im time spy interessiert, schau Mal mein Tutorial in der Signatur durch. Zum Spielen würd ich eher unter 400W bleiben, dafür aber auf Effizienz trimmen.
Und zunächst genannte Abstürze anschauen.
 
Ein weiteres Problem ist dass fast jedes mal nach dem restarten die Karte auf 500mhz gelockt ist, dann muss ich jedes mal ins MCT gehn und das wieder selbst umstellen, meine GPU ist aber zu 100% stabil, es sind ja nur die Pwr Limits eingestellt...
Stell mal den FastBoot im BIOS und im Windows aus.
 
Ja richtig, der Schnellstart im Windows ist meist für die Treiber resets verantwortlich. Und den im BIOS auch gerne Mal aus.
 
Hat geholfen, vielen Dank :) Was ist denn eine sichere Spannung für GFX und VRAM? Ist 1250mv gfx für daily usage zu hoch?
 
Ich sag, die GPU hält 1250 aus - aber natürlich ohne Gewähr. Müstest hier mal fragen, da gibts ein paar, die das dauerhaft nutzen.
1250 für VRAM sind deutlich zu wenig, ich glaub in seinem höchsten State haut der doch 1350 oder 1400 durch. Wenn du SOC meinst, dann braucht der vermutlich garnicht mal soviel, 1150 - 1200 könnten da reichen. Alles unter der Annahme, dass du die Karte schon deutlich belasten willst. Man muss natürlich jetzt auch sagen, die Karten sind jetzt bald bis zu 4 Jahre alt und gebraucht nicht mehr sehr teuer. Sollte dir jetzt eine im heftigen jahrelangen Betrieb Platzen, dann kaufst dir in 2-3 Jahren wieder ne 6900 XT für denn vielleicht 250 Euro.
 
Ich sag, die GPU hält 1250 aus - aber natürlich ohne Gewähr. Müstest hier mal fragen, da gibts ein paar, die das dauerhaft nutzen.
1250 für VRAM sind deutlich zu wenig, ich glaub in seinem höchsten State haut der doch 1350 oder 1400 durch. Wenn du SOC meinst, dann braucht der vermutlich garnicht mal soviel, 1150 - 1200 könnten da reichen. Alles unter der Annahme, dass du die Karte schon deutlich belasten willst. Man muss natürlich jetzt auch sagen, die Karten sind jetzt bald bis zu 4 Jahre alt und gebraucht nicht mehr sehr teuer. Sollte dir jetzt eine im heftigen jahrelangen Betrieb Platzen, dann kaufst dir in 2-3 Jahren wieder ne 6900 XT für denn vielleicht 250 Euro.
ja meinte SOC, ich glaub ich probier 1220mv SOC aus, will 2100fclk stable kriegen ^^

Hast Recht, die 6900xts werden immer billiger, aber für 1080p competetive gaming reicht die aufjedenfall aus
 
Ich informiere mal die Runde hier:


Ebenfalls jetzt in meiner Signatur. Ich hab mal zusammengetragen, was man in Linux tun könnte, um die RDNA2 und frühere dort im Stile des MPT zu tunen. Ich glaub, theoretisch hab ich ziemlich alles zusammengetragen. Ind er Praxis bekomm ichs nicht hin. Wenn einige von euch, die auch ein Linux betreiben Lust haben, dort mitzuwirken - dann auf! Hauptsätzlich gehts da jetzt noch um die Umsetzung, wie man die Power Play Table editiert und anwendet.
 
Hallo, zusammen.

Eine Frage an euch OC-Cracks:

Mit dem Leistungshunger aktueller Titel hadernd, habe ich mal im Adrenalin die Leistungsaufnahme meiner 6800 XT aufgemacht und den Max.-Takt auf 2700 MHz gestellt (bei 2800 MHz wird Horny leidlich), neben max. VRAM-Takt mit schnellen Timings.
In aktuellen Spielen wie NfSU oder H:FW habe ich dann auch einen Takt von 2600+ @4k anliegen. So weit, so zufriedenstellend.

Im 3DMark kommt die GPU jedoch nicht über 2360MHz (Standard-Takt). Wieso ist das so? Und wie mache ich Horny auch dort Feuer unter'm Schweif?


Danke schon einmal für konstruktiven Input. Ach ja: Und Frohe Ostern in die Runde.
Sinush
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh