[Sammelthread] Offizieller AMD [[ RX6700 // RX 6700XT // 6750XT // X6800 // 6800XT // 6900XT // 6950XT]] Overclocking und Modding Thread [[ Wakü - Lukü - LN2]]

Anhänge

  • Screenshot (115).png
    Screenshot (115).png
    427,2 KB · Aufrufe: 107
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Falls da eine Liste ensteht, melde ich mich mal mit 100/150/200/250W...die ~250W sind für eine RX 6800 eigentlich schon zu viel. Die einzige Einstellung die ich jeweills im MPT gemacht habe, war die Begrenzung auf die jeweilligen Watt. Das 250W Ergebniss ist ohne MPT....mit komme ich irgendwie nicht über 18000.

100W
100W.png


150W
150W.png


200W
200W.png


250W
250W.png
 
Zuletzt bearbeitet:
@ShirKhan kurze Frage in die Runde bezüglich Testen mit TS.

1. Für die Testläufe einfach nur das Powerlimit im MPT anpassen und let's go?

2. Im Wattman irgendwelche Settings vornehmen? Wenn ja, was ist gewünscht?

3. Wie sieht's mit Mem aus? Alles Stock oder doch FT/ Sweetspot?

4. Treiber-Angabe?

Kühlung teste ich mal beides, spricht mit 100% (3.300 RPM) und mit 1.000 RPM. Mal gucken, wie weit der Score abweicht.
 
kurze Frage in die Runde bezüglich Testen mit TS.
Du kannst einstellen was du willst nur das Powerlimit auf die gewünschte Einstellung.
Ansonsten geht es darum möglichst viele PKT im Powerlimit zu bekommen mit UV usw.
 
Solang du keine Krüppelkarte hast sollte sich UV sehr gut bemerkbar machen.
Beitrag automatisch zusammengeführt:

Hat jemand von euch aktuell Windows Fastboot an und Probleme mit zurückgesetzt Wattmanneinstellungen nach einem Start/ Neustart?
 
@ShirKhan kurze Frage in die Runde bezüglich Testen mit TS.
Für eine noch nicht existierende Effizienz-Rangliste, deren Erschaffung noch nicht feststeht, meinst du? :)

1. Für die Testläufe einfach nur das Powerlimit im MPT anpassen und let's go?
Das Powerlimit muss nicht zwingend ans gewünschte Limit angepasst werden; das ist nur die schnellste Variante, um in der Leistungsklasse zu bleiben. Ich nehme aber an, dass so auch die höchsten Scores erzielt werden, weil nicht nach Durchschnitts-, sondern nach Maximalverbrauch eingeteilt werden wird. Da GT1 weniger Leistung aufnimmt als GT2, wird es sich wahrscheinlich lohnen, GT1 voll auszulasten und GT2 per Limit abriegeln zu lassen (erkennt man dann im Graphen an der geringeren Kartenauslastung). Ob diese Annahme stimmt, werdet ihr rausfinden.

2. Im Wattman irgendwelche Settings vornehmen? Wenn ja, was ist gewünscht?
Die den höchsten Score bringen.

3. Wie sieht's mit Mem aus? Alles Stock oder doch FT/ Sweetspot?
Was den höchsten Score bringt.

4. Treiber-Angabe?
Ja, gerne.

So hatte ich gedacht:
Um voneinander zu lernen, würde ich in einer Rangliste neben dem HWiNFO-Screenshot auch um den Treiber-Screenshot bitten sowie alle MPT-Tabs, in denen Änderungen vorgenommen wurden. Außerdem das 3DMark-Result. ;)

Beispiel

HWiNFO soll bitte den gesamten GPU-Bereich (und am liebsten nur den) zeigen. Den Grafikscore außerdem bitte hinschreiben und mit dem 3DMark-Online-Ergebnis verlinken.

Es sei denn, es gibt andere, bessere Vorschläge.
Beitrag automatisch zusammengeführt:

Solang du keine Krüppelkarte hast sollte sich UV sehr gut bemerkbar machen.
Die Undervolter haben alle Krüppelkarten. Sonst wären sie Overclocker. :asthanos:

SCNR 🙈
 
Zuletzt bearbeitet:
OT, aber was würde es sich denn noch lohnen zum EVC dazu zu bestellen?
Bios flashen klingt ja auch nicht schlecht.
 
Ein wenig schade dass der Focus auf W/h gelegt wird, anstelle Amperage
Aber man kann damit arbeiten
d1kRAKlzM6.jpg
explorer_x0quJgvouO.jpg
200-250W möchte meine soweit nicht, dropt auf 810mV für 2300 & crasht
Hat noch Arbeitsspielraum (no time)
* sind alles FT2

Driver auf -50% Powerlimits stürzen nicht ab :) ~ praktisch
 
Zuletzt bearbeitet:
Ein wenig schade dass der Focus auf W/h gelegt wird, anstelle Amperage
Ampere stehen nicht auf der Stromrechnung. Ampere tauchen in keinem Review, keinem Vergleichs- oder Verbrauchstest und in keiner Produktbeschreibung auf. Der Wert ist keine gängige Einheit zur Beschreibung der Kartenleistung. Warum findest du das schade?
 
Zuletzt bearbeitet:
Ampere stehen nicht auf der Stromrechnung. Warum ist das schade? Erklär mal.
Da ein Wattage cap auf der Karte ein spike cap ist
in einem Szenario wo average wattage draw nahe 280W liegt, kann die Karte bei niedrig-amperage Szenen kurz auf 380W spiken und wieder zurück zu dessen 280W gehen
Dieser spike würde aus den average-pro-h etwa 282W machen
Ein niedriges cap hingegen, wird frequency throttlen und verschenkt Leistung, ohne dass dies sogar sich als abwärme übersetzt

Strom ist nun mal eben nicht linear, und die Karten powergaten sehr stark
Den Fokus darauf zu legen das gating "weg zu smoothen" ruiniert nur das Boosting System // worin das geschehen wird, wenn man sich auf powerdraw und nicht auf heat/current draw konzentriert
Die Rechnung mag womöglich in kW/H stehen, aber Partlimits sowie Stecker sind auf Amperage per Heat , rated

Bei 2 identisch konstruierten 240W Heating elements (identischer Kühlung & Oberfläche)
Kann eines der beiden dennoch mehr oder wenigere ziehen, je nach Spannungsstärke und Voltage
Und um das Beispiel umso verwirrender zu gestallten ~ kann ein 240W heating element für 10min gemessen worden sein , das andere für 3h
Bei der Abmessung wäre dann mindestens ne delta von 10-15W zwischen beiden, aber laut Specs identischer Target Wattage Zahl

So eben auch die GPUs
Es ist nicht unüblich dass diese 300W karten gerne auf 400W spiken
und mit offenen limiters auch gerne 30% mehr ziehen, selbst wenn zb:
~ bei einem Loading screen als low-amperage load anstelle 300W die 500W anliegen, kurzzeitig.
Im average wären es mit einem 300W cap , die 285W
Und mit einem 500W cap , die 290W
Einfach da dieser Wert nicht minutig zu gebrauchen ist ~ für eine Stunde ja,
~ bloß was wir hier austesten ist stability und substrate margings, aber nicht Leistung und Effizienz

Ich kenne den Fokus nicht um mitreden zu können,
Allerdings laut meinen Ansichten, macht es eher Sinn es Kühlertechnisch zu limitieren , welches boosting stability beibehalte
Bei einem Emergency Powersuply/Powerdraw Limiter (PPT)
// [worin der designfehler eher an AMDs Schulter gehe, welche sie endlich dank SVi3.0 nun änderten ~ dessen öffentlicher Vorstellung was nun TDP sei]
Werde die Freqenz limitert, allerdings nicht die Spannung
Der PPT limiter schlägt zwar bei Amperage x Voltage aus ~ aber wenn der Limiter selber nicht die Spannung limiert um weniger zu ziehen, macht dieser als "Target" sehr wenig sinn

Ein Amperage limiter
jZP2tlK.png

Mache hingegen Sinn bei dem Thema "heattaming, und powerdraw"
Wattage als solches ist nur ein byprodukt und je nachdem wie gemessen auf welcher Zeitframe , nun mal anders gelistet
Amperage hänge von Resistatence, Impedance & Voltage ab ~ und befolge nicht nur die Substrate limits (boosting throttle korrektt) sondern auch die Kühler limits#
Die Resultierende Wattage am Schluss auf der Rechnung dann, wäre generell um ein vielfaches weniger als das Powerlimit das man "momentan" auslese

TL.;DR:
Mit einem Amperage limit capst du im Grundegenommen den Average Wert
Mit einem Wattage limit capst du nur den Spike Wert
Und sollte man den Fokus blind auf den Wattage limit legen, ruiniert man nun eben die efficiency
Aber das Thema ist zu lange und ich kein Engineer um es einfacher zu Erklären

Hitze ist nun mal eben nicht Wattage oder Voltage
Und powerdraw ist resultierende-Wattage langgezogen , aber nicht Wattage als Spike Limiter
Wattage ≠ average powerdraw = efficiency ~ amperage is

Ein Limit als Amperage, würde im Average den selben Powerdraw beibehalten = identisch in der Rechnung stehen
Die nahezu selbe Hitze erstellen
Und auch Leistung/Amperage zeigen = efficiency
Die "efficiency" wäre dann capped, denn auch ein A-Hardcap mache wenig Sinn bei RDNA ~ aber die Leistung zu average-powercap (TDC) wäre ein Richtwert
/ wer kann besser Undervolten & mehr Leistung rausdrücken ~ was zwar auch eine binning sache ist, aber so sei es eben

Was im Grundegenommen resultiert als ~ "Efficiency to Powerdraw within same Heat margins" .... Ich denke genau das suchen wir ja, oder nicht ?

Ein Wattage cap ist einfach nur suboptimal und nicht mal Netzteil Hersteller gehen darauf. Netzteile sind rated als 24/7 Average Power limit W/24h ~ aber nicht als Spike limit
Das PPT cap hier ist ein Spike limiter (Meltdown Limit), und auf Amperage was wörtwörtlich "average-power" & "heatsource" ist, lege man keinen Wert :-)
 
Zuletzt bearbeitet:
Danke. Ich habe nicht erwartet, deine Erklärung zu verstehen und bin diesbezüglich nicht enttäuscht worden. No offense, ist halt so, und ich bin da lieber ehrlich. :)

Wenn du möchtest, mach gern einen Vorschlag, wie eine Effizienz-Benchmarkliste aussehen könnte, die auf Ampere beruht. Ich halte das allerdings für exotisch bis nicht vorstellbar. "FPS pro Watt" ist ein gängiger Maßstab für Grafikkarteneffizienz, die Suchergebnisse im Web sind da eindeutig.

Screenshot 2022-07-26 011339.png
Quelle

Aber FPS pro Ampere? Dass ich das noch nie gehört habe, muss nicht viel heißen, aber Google sollte zumindest was damit anfangen können. Oder wie sollte die Effizienz mit Ampere sonst gemessen werden? Der TS-Grafikscore ist basically ja nichts anderes als FPS.

Screenshot 2022-07-26 004928.png
Quelle
 
Zuletzt bearbeitet:
Danke. Ich habe nicht erwartet, deine Erklärung zu verstehen und bin diesbezüglich nicht enttäuscht worden. No offense, ist halt so. :)

Wenn du möchtest, mach gern einen Vorschlag, wie eine Effizienz-Benchmarkliste aussehen könnte, die auf Ampere beruht.
Es ist ein schwieriges Thema, man braucht beides
Thermal Design Current
Electrical Design Current
Package Power Tracking.

TDC is the amount of current supplied to the VRM when thermally limited
EDC is the maximum amount of current supplied by the VRM to the CPU under any circumstance
PPT is is the maximum amount of power that can be supplied to the socket.
^ Quote reddit
Amperage = Current density ~ TDC limit = long term average current limit.
Current limit = heat limit und powerdraw limit

EDC = electrical substrate limit & spike heat limit
outside of THM (Temperature Limit) = average limit

PPT = Package Power & Peak Power Target ~ for X frame


Ein Wattage limit ruft hervor dass egal bei welcher Spannung (1.1v oder 1.2v) die 290A gezogen werden von der Karte
Man untervolted aber der Strain und die Hitze sind fast identisch. Der Powerdraw ebenso, da nur spikes gefiltert werden aber average Amperage dank mehr clock nun mal höher sein wird

Ein Amperage [current] Limit ~ (Voltage divided by Resistance in ohm)
Würde nur weniger werden wenn:
~ hitze weniger ist und resistance dropt
~ impedance load = stärke des loads tiefer ist
~ Input voltage weniger ist

Ein Wattage limit [power but not current] ~ (Voltage * Amperage)
würde weniger werden wenn:
~ Voltage weniger wird
~ amperage weniger wird
~ zeit vergeht

Nur das Problem:
Wattage hängt davon zusammen wie das wichtigste von allem "Current = A" steht
Und Wattage varriert nicht nur pro Zeit sondern auch pro Hitze
Eine Karte karte wird immer weniger watt ziehen, weil Amperage weniger sein wird. Selbst wenn Voltage gleich hoch ist
Und wenn Voltage nun mal eben gleich hoch ist, ist es kein Undervolting sondern eine "Cooling" & eine underclocking Competition :P
Den lower Frequency = lower amperage . . . wobei lower A nur rauskommt, wenn auch weniger Spannung verwendet wird.

Man braucht beides
Aber ein Wattage limit ist auf zu vielen Ebenen Flawed
Genau so wie das TDP Limit unserer Hersteller ~ das komplett identische Thema.
mach gern einen Vorschlag, wie eine Effizienz-Benchmarkliste aussehen könnte
Ich würde sagen Amperage / Voltage (Hitze würde wieder eine rolle spielen) :(
Ich bin mir nicht sicher. Aber Wattage ist es definitiv nicht
Zumindest "nur Wattage" macht keinen Sinn

Gehe man vom Voltage Wert aus, ist es eine Binning Competition
Wobei auch Voltage irrelevant ist sondern Amperage // auch im memOC, also generell bei allen ist Amperage der Richtwert

Ja im Grundegenommen genau das
Irgendein Electrical Current limiter / durch MHz
Die community muss selber eine Formel erstellen, den FPS/Watt ist halt auch sehr "fragwürdig"
Eine erstellte Norm heißt nicht eine korrekte Norm ~ bloß eine sich einfach-machende Norm

MHz Pro Watt könnte nützlich werden, solange man nicht vom Average-Current (A) limit und nicht vom (W) timebased-power limit ausgehe
Vlt bekommt man ja das EDC limit hin (das ist ein spike limit) und das dann * average voltage = average wattage = wattage pro Mhz
Dann habe man "average time voltage for X test * peak amperage" ~ Sowas in der Art 🤔
// würde immernoch nicht Real World darstellen, denn alles andere wäre mehr effizient, bei weniger harshem load als TS ~ aber genau genug + Karten-Verhalten respektierend

Im Grundegenommen:
~ keine Average limiters für die Rechnung außer "Zeit"
~ Aber average limiters ! für die Karte :)
 
Veii könnte sein 300W - Setting auf 300A trimmen, aber das braucht noch etwas Feintuning, weil man SOC+Vram(2x)
noch dazunehmen müsste, damit net Vram2388@FT2 nen Vorteil ggü. 2150FT1 hat.
Momentan hat das Setting noch 310A.

sprich TDC GFX+SOC+Vram(2x) müsste schon als Gesamtwert ausgewiesen und addiert werden
 

Anhänge

  • Veii@300W.jpg
    Veii@300W.jpg
    96,6 KB · Aufrufe: 51
Ich denke die Lösung wäre irgendwo in der Mitte @ShirKhan
Man capt die Karte beim Amperage Load ~ so wie es sich gehöre
Und warte auf eine Möglichkeit den HWinfo log zu übersetzen als "average voltage X testtime"
Erst dann kann man sich eine Watt pro Mhz Rechnung erstellen ~ aber die normalen Watt limiter sind keine gute Idee

Man sollte den Leuten kein PPT limit erzwingen und die efficiency rechnung via Amperage machen
// bis man uns keinen EDC limiter erzwingen kann ~ wird die Rechnung quasy unmöglich und braucht einen Timeframe
Den Wattage ist timeframe based und Automatisch fehlerhaft.
Nutzbar als peak limiter, aber es gibt eine falsche Sicherheit dass die Karte gut booste ~ man ruiniert das Boosting verhalten damit :)
// weswegen ich es nichts anderes als "falsch" auffinden kann, aber man "damit arbeiten kann"

Möchte man das Richtig tracken,
So schreibe man bitte ein tool welches entweder GPU-Z oder HWinfo logs starte, ende und auslese nachdem 3D mark starte oder einfach nur "load anliege und load verschwinde"
Erst dann hat man time-based Metrics um einen Efficiency Wert erstellen zu können ~ ohne lästige PPT caps welche das Boosting System limitieren
Beitrag automatisch zusammengeführt:

Veii könnte sein 300W - Setting auf 300A trimmen, aber das braucht noch etwas Feintuning, weil man SOC+Vram(2x)
noch dazunehmen müsste, damit net Vram2388@FT2 nen Vorteil ggü. 2150FT1 hat.
Momentan hat das Setting noch 310A.

sprich TDC GFX+SOC+Vram(2x) müsste schon als Gesamtwert ausgewiesen und addiert werden
Danke :)
WJ640MW1v7.png

Ich hab leider immer noch keine Lösung für Dynamic VRAM gefunden
Es gehe nur auf HDMI
Noch hab ich nicht beobachten können, ob das TDC limit nur dem Kern gehört
Aber es sieht danach aus

Wenigstens wäre es aber korrekt mit Amperage zu Arbeiten oder uns einfach das PPT limit freilassen und leute sollen in etwas TDC cappen um in dem Limiter zu bleiben
(solange MPT kein EDC limit value bekommt)
Ah ich denke PPT1 ist eine Art fuse limit ~ liegt bei mir nahe 950-999W :)
Beitrag automatisch zusammengeführt:

Der TS-Grafikscore ist basically ja nichts anderes als FPS.

Screenshot 2022-07-26 004928.png
Dann macht es doch umso mehr sinn
Average Amperage / Graphics score
// TDC ist longterm average, EDC ist peak-maximum ~ aber EDC nimmt mem und SOC mit
Beides Average Werte, und in dem Graphics score wäre schon die "Time Value/Zeit" integriert, in der Rechnung
Wattage dann habe seine eigene Time value welche fehlerhaft ist

Wenn du dann diesen Wert * Avg-Voltage nimmst, dürfte es eine score pro Wattage Zahl rausbringen
Average Voltage bekommen wir nur nicht raus, somit kann man einfach keinen korrekten score abgeben . Die Zeit Variablen fehlen und Wattage ist nun mal eine Zeitliche Sache

Ja entweder man erzwinge nutzer ein Amperage Limit oder man erzwinge denen keines und rechne wie GerryB alles zusammen dann durch den GraphicsTest score :giggle:
Das müsste so in etwa korrekt hinhauen
Um es aber "richtig" zu machen, muss man leider die Zeit variablen beachten. PPT bei den GPUs ist schw....ierig :)
 
Zuletzt bearbeitet:
Eine künftige Time Spy Effizienz-Rangliste sollte einfachen, leicht verständlichen Regeln folgen. Für die Teilnehmer und den TE/Hausmeister muss es einfach sein zu überprüfen, ob diese Regeln eingehalten werden. Und eine solche Liste sollte attraktiv sein, damit überhaupt jemand mitmacht. Zum Beispiel, indem die Wettbewerbsbedingungen nahe an der Alltagserfahrung der Teilnehmer sind.
 
Zuletzt bearbeitet:
@Veii Du musst die blanking Time anpassen, dann taktet der Speicher runter.
 
@Veii Du musst die blanking Time anpassen, dann taktet der Speicher runter.
Bei dem main 1440p75 war sie etwas zu wenig, aber wurde angepasst
beim, 2560p60 war sie schon auf 90
brave_ATDxK32ENp.png

Ich weiß nicht ob beide höher müssen bei dual screen Setups
Aber sobald ich irgend einen DP anstecke lockt er es auf DPM 3
Ich müsste es verkehrt rum testen, ob es eine EDID sache ist. Aber eigentlich nicht
Könnte eine GOP Sache sein
Der 4K monitor gehe nur nicht wenn GOP fehlerhaft sei
Aber ich persöhnlich denke es ist eine I/O sache , oder irgendwas mache ich falsch 🤔
Beitrag automatisch zusammengeführt:

Ich spiele mal etwas weiter rum, aber soweit kein Ergebniss
~ danke nochmals - mal schauen, womöglich muss mehr her
Beitrag automatisch zusammengeführt:
War wohl doch der 75hz, mmmm
Man nehme den aktiven, exportiere die Config und stecke es pro Port 1x durch ~ dann Import
Danke :) @Techlogi
YKzwYzL.png

Das würde ein paar andere VRAM powertable Probleme erklären & beseitigen


Naja soweit bei dual monitoren noch das gleiche Verhalten
Ich finde es raus~
 
Zuletzt bearbeitet:
Ist zu warm zum Schlafen. Ich steuere deshalb mal ein vorläufiges 300-Watt-OVUV-Effizienzsetting bei.

300W_23653_ovuv.png

Edit: und vorläufige 250 W. Im Verhältnis zu 300 nicht so doll. Da fehlt Luft zum Atmen ...

250W_22151_ovuv.png

@DaHell63: Laut dem vorhin geposteten Chart von CB ist die 6800 die effizienteste Karte von allen. Was ist da los bei dir?! :d

Nur Spaß. ;) Natürlich sind 18K mit einer 6800 gut. Der Score ist am oberen Ende der Skala, Effizienz hin oder her.
 
Zuletzt bearbeitet:
Naja soweit bei dual monitoren noch das gleiche Verhalten
Ich finde es raus~
Soweit hab ichs aber die Suche bleibe bestehen,
alle DP ports respond'n akkurat ~ aber sobald ich auf 75+60hz gehe, bin ich zurück auf DPM 3

Es ist definitiv mal nicht:
~ kabel art
~ 8 oder 10bit-depth
~ 1440p oder 2560p
~ freesync oder Vertical/Horizontal Range limits
~ HDMI/DP pixel clock
~ 4:4:4 oder 4:2:0 bzw RGB oder YCbCr
~ Main / Slave Monitor
~ Radeon VSR oder Freesync
~ Custom Resolution & Blanking
~ Windows Gamemode, Win VRR oder Win Optimize Windowed Games
// (welche übrigens 2-3ms input delay cutted, also es funktioniert wirklich, da ich rhythm games nur windowed spiele und audio-de'sync man sofort erkennt) :-)
~ CRU 60hz wipe dass es nur auf einer "gefixten reso" bleibt

Ich bin ratlos
Es muss der driver sein oder irgendwas mit 22H2 (22621.105)
Gleichgültig ob man 60Hz durch Monitor EDID, oder Radeon Suite erzwingt ~ alles drüber haut mir MCLK DPM wieder hoch
Es sieht einfach nach einem bug aus, allerdings komplett ideenlos soweit @Techlogi bzw thread-chat
 
effko
Soweit hab ichs aber die Suche bleibe bestehen,
alle DP ports respond'n akkurat ~ aber sobald ich auf 75+60hz gehe, bin ich zurück auf DPM 3

Es ist definitiv mal nicht:
~ kabel art
~ 8 oder 10bit-depth
~ 1440p oder 2560p
~ freesync oder Vertical/Horizontal Range limits
~ HDMI/DP pixel clock
~ 4:4:4 oder 4:2:0 bzw RGB oder YCbCr
~ Main / Slave Monitor
~ Radeon VSR oder Freesync
~ Custom Resolution & Blanking
~ Windows Gamemode, Win VRR oder Win Optimize Windowed Games
// (welche übrigens 2-3ms input delay cutted, also es funktioniert wirklich, da ich rhythm games nur windowed spiele und audio-de'sync man sofort erkennt) :-)
~ CRU 60hz wipe dass es nur auf einer "gefixten reso" bleibt

Ich bin ratlos
Es muss der driver sein oder irgendwas mit 22H2 (22621.105)
Gleichgültig ob man 60Hz durch Monitor EDID, oder Radeon Suite erzwingt ~ alles drüber haut mir MCLK DPM wieder hoch
Es sieht einfach nach einem bug aus, allerdings komplett ideenlos soweit @Techlogi bzw thread-chat
hier bei meinem monitor ist das freesync / VRR abhängig, laienhaft betrachtet (nur darauf geachtet, keine weiteren investigations). wenn ich 50, 60 oder 100hz einstelle, taktet der speicher nicht mehr 'runter. bei 120hz passt alles, der verbrauch und takt sinkt und verhält sich so wie man es eigtl. erwartet.
wohlgemerkt: nur ein monitor, du hast ja zwei. müsste zum weiteren testen vllt. mal den zweiten (3. und vierten) anschließen. da ich die aber nicht benötige bin ich eigtl. zu faul dazu :d :)
 
Soweit hab ichs aber die Suche bleibe bestehen,
alle DP ports respond'n akkurat ~ aber sobald ich auf 75+60hz gehe, bin ich zurück auf DPM 3

Es ist definitiv mal nicht:
~ kabel art
~ 8 oder 10bit-depth
~ 1440p oder 2560p
~ freesync oder Vertical/Horizontal Range limits
~ HDMI/DP pixel clock
~ 4:4:4 oder 4:2:0 bzw RGB oder YCbCr
~ Main / Slave Monitor
~ Radeon VSR oder Freesync
~ Custom Resolution & Blanking
~ Windows Gamemode, Win VRR oder Win Optimize Windowed Games
// (welche übrigens 2-3ms input delay cutted, also es funktioniert wirklich, da ich rhythm games nur windowed spiele und audio-de'sync man sofort erkennt) :-)
~ CRU 60hz wipe dass es nur auf einer "gefixten reso" bleibt

Ich bin ratlos
Es muss der driver sein oder irgendwas mit 22H2 (22621.105)
Gleichgültig ob man 60Hz durch Monitor EDID, oder Radeon Suite erzwingt ~ alles drüber haut mir MCLK DPM wieder hoch
Es sieht einfach nach einem bug aus, allerdings komplett ideenlos soweit @Techlogi bzw thread-chat
Stell mit CRU 76Hz oder 74Hz ein. oder halt 59Hz oder 61Hz.
 
Ich habe zwei 1440P Monitore dran. Sobald ich einen der beiden auf über 60Hz stelle (über Windows Einstellungen), geht VRAM-Takt und Verbrauch hoch.
 
War wohl doch der 75hz, mmmm
Man nehme den aktiven, exportiere die Config und stecke es pro Port 1x durch ~ dann Import
Danke :) @Techlogi
Mach es nicht so kompliziert. :) Sprich einfach nur für deine config einstellen und dann nix mehr umstecken..
Bei mir hat das selbst mit folgender config funktioniert:
WQHD 60Hz per USBC-DP
WQHD 120Hz per DP
FullHD 60Hz per DP-DVI
Den FullHD musste ich dabei auch anpassen. Ob VRR/Freesync einen Einfluss darauf hat, weiß ich nicht, kann ich im Laufe des Tages aber nochmal testen.
 
Zuletzt bearbeitet:
Immerhin mal meinen Referenz Run geschafft.

Alles Stock nur MPT PL auf 200W. Sobald ich Zeit finde mal schauen was man da mit Optimieren so hinbekommt.

Stock_PL_200W.PNG
 
Alles Stock nur MPT PL auf 200W.

Gemacht.

19438
200W_19438_stock.png

Sobald ich Zeit finde mal schauen was man da mit Optimieren so hinbekommt.

Gemacht. Zusätzlich RAM-OC. Bringt hier interessanterweise wenig. Mit offenem PL waren das noch 500 pts.

19634
200W_19634_VRAM.png


Ein paar MPT-Tweaks und Soc-Spannung erhöht, damit der Fclk keinen Blackscreen erzeugt. Kaum Zuwachs. Bis hierhin scheint GPU-OC den Score übrigens zu verringern.

19662
200W_19662_MPT_stock.png


Aber jetzt: OVUV. GPU-OC, Treiberspannung runter auf 1034 mV, ausgeglichen durch +75 mV GFX-Spannung per EVC2.

20904
200W_20904_ovuv.png

Vielleicht testet mal jemand, ob der OVUV-Effekt auch mit erhöhter MPT-Spannung per Temp_Dependent_Vmin erzeugt werden kann. Falls nicht, könnten die Medaillenränge in einer künftigen Effizienzliste für EVC-User reserviert sein.

21 K mit 200 W? Schei* die Wand an, ich werd noch zum Underwatter! :LOL:

Disclaimer: Einige Läufe nur einmal durchgeführt. Da kann immer was schiefgehen, deshalb (noch) keine Gewähr auf die Zuverlässigkeit der Ergebnisse. Außerdem noch keine Ahnung, ob so was spielstabil ist.
 
Zuletzt bearbeitet:
Darki hat heute früher im Discord gepostet, dass der 22.7.1 raus ist - war das hier schon bekannt?
 
Zuletzt bearbeitet:
Ja hat den "Noisekiller" mit drinn.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh