Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
@ShirKhan
PL=-10% = minus 10% = 230W war gemeint, ... würde u.U. bei mir Probleme machen, weil der Arbitrator dann mehr nachregeln muss, daher nutze ich i.d.R. Settings ohne Limitierung.
Warum bei Gurdi der Raketenjonny in der Richtung viiiel stabiler ist als mein Durchschnittschip, who knows.(2500MHz@169W MPT950 WM890mV bei Ihm, ... wäre schon nice to have, so ein Teilllast-Boostsetting)
Hatte gedacht, das Dein GoldenChip evtl. auch mit stark beschnittenem PL besser klar kommt.
but
Ich hatte das schon verstanden, steht ja da. Und die Frage nach der Stabilität beantwortet. Das solte für jede Karte gelten, auch deine.
Eine weitere Reduktion des Power Limits werde ich nicht testen, nur um ggf. eine hübschere FPS-Prozentzahl zugunsten des OCUV präsentieren zu können. Denn 255 Watt sind schon nicht genug, um 2700 MHz auszureizen; leistungsfordernde Games wie TD2 kommen damit kaum über 2450 MHz anliegend. Unter 2700 mach ich's aber nicht, wäre schade um die Leistungsfähigkeit des Chips.
Es ist auch nicht notwendig, die UV-Vorzüge noch deutlicher herauszustellen; die Verbrauchsvorteile lassen sich ja gedanklich in FPS zurückrechnen. Das 2850 MHz-OV-25K-Gamesetting, auf das ich so stolz war, ist nach diesen Messungen jedenfalls obsolet geworden. Nicht mal ich OC-Jünger kann um 27% höhere Stromkosten auf der Grafikkarte ignorieren, wenn ich dafür nur 3% mehr FPS erhalte als mit einem smarten UV-Setting.
Warum stellt niemand die spannenden Fragen? Z. B., warum die "Energiesparspiele" FC6, Anno und FH5 mit offenem Powerlimit plötzlich einen etwas höheren Maximalverbrauch zeigen, obwohl sie limitiert klar unter der 255-Watt-Grenze bleiben? Erklären wir das wieder mir geheimnisvollen "Verbrauchsspitzen"? Oder sehen wir hier manifestiert, was Igor im Mai über die AMD-GPU-Wattage veröffentlicht hat? Dass nämlich Verbraucher auf dem PCB jenseits von GPU und VRAM nicht auf die Rechnung genommen werden? Ist der Mehrverbrauch ein Echo dieses Umstands? Kann man überhaupt erkennen, was nicht erfasst wird?
Das tut es. Die "nur" 4% entstehen durch das knappe Powerlimit von 255 W, das ich so niedrig wählen musste, weil drei der Games undervoltet nicht mehr Spitzenverbrauch einfordern. Sonst hätte ich gern ein 293 W-Szenario getestet, was bei Navi21 Reference Default-PL +15% entspricht
Ist aber auch net meine Baustelle, aber wenn Du im UV-Thread mit Bsp. Werbung machst, wärs schon schön gewesen mit PL=-10
auch ein Szenario vorzustellen, das 24/7@air im Sommer erträglich ist.
Was meinst du mit "Werbung machst"? Dass ich mit einem Link auf ein Testroundup hinweise, das ich in vielen Stunden erstellt und aufbereitet habe, um es der Community zur Verfügung zu stellen? Und das du im UV-Thread für so sehr ontopic hältst, dass du anregtest, es auf der ersten Seite abzubilden?
Wer so warm wohnt, dass er seine Grafikkarte im Sommer nicht mal mit Stocksettings gekühlt bekommt, soll sich eine leistungsschwächere kaufen oder auf Wasserkühlung umsteigen. Wenn du im beginnenden Herbst so besorgt um diese Klientel bist, kannst du selbst solche Tests durchführen, siehe "your way". Warum ich es nicht tue, hab ich erklärt.
Da du ja CX nutzt, schau mal unter Overlay, da gibt es ein zusätzlichen Reiter für Verbrauch (ist nur mit einer Berechnungsformel und nicht 100% genau, aber die Abweichung soll wohl sehr gering sein, Daten der Berechnungsformel sind abgeleitet von realen Messungen mit externen Geräten).
Da hat man dann, selbst bei 200w PPT Limit den zusätzlichen Verbrauch, was die Karte wirklich zieht.
Das sind ca. 35w bei 200w Limit und je höher das Powerlimit ist, desto größer die Abweichung.
Bei 350w PPT + 15% via Treiber hab ich da schon über 500w abgelesen.
Jedenfalls ist der GPU TBP Sim (so heißt der Eintrag) ziemlich nah an dem von Igor gemessenen tatsächlich vorhandenem Verbrauch.
Sieht dann so im Overlay aus.
200W sind mein PPT Limit und 35W werden dann dazu "errechnet" für den Rest was die Karte verbraucht.
Denkst du das wegen der Charts? Die sind nicht von CFX, sondern von mir, nach einer älteren Vorlage von Excelgott @ApolloX, die ich nach Bedarf anpasse. Tatsächlich ist CFX hier nicht im Einsatz.
Ich weiß von der Formel nach GPU TBP Sim, sollten die berühmten 15% +5 W sein. Das lässt sich in HWiNFO eintragen und somit auch ohne CFX halbwegs akkurat simulieren, ist bekannt. Mein Punkt war ein etwas anderer, ich habe versucht, ihn in #25.503 zu formulieren.
Nochmals danke. Ich habe eine Zeitlang mit den 15+5 experimentiert und bin wieder davon weg, im Bewusstsein, nicht die korrekte Leistungsaufnahme abzulesen. Wenn man nicht gerade mit Nvidia-Usern über Karteneffizienz diskutiert, ist es einfacher, mit den angezeigten Standardwerten zu arbeiten. Gibt sonst nur Verwirrung im AMD-Lager, weil es einer so und der andere so macht.
Radeon RX 6900 XT im Test: Effizienzvergleich und 5K-Benchmarks / 6900 XT, 6800 XT, 2080 Ti, 3080 & 3090 bei 270 Watt
www.computerbase.de
... da würde ich mir schon überlegen, ob ich wirklich für fast NIX ne extra Wakü. brauche oder mit 30W tbp weniger optimiere
(in den meisten 0815 PC-Gehäusen ist eeh Throtteln@95°C Hotspot das Hauptproblem)
Ich hatte die letzten Tage mit der Framerate Target Control im Treiber experimentiert, ist es bei euch auch so das der Treiber (22.5.1) alle Spiele die im Fenstervollbild laufen ignoriert und denen "Feuer frei" lässt?
Erst wenn diese in den Vollbildmodus geholt werden -und ein schnelles raustabben dann echt ätzend ist- funktioniert es.
Ich ging jetzt eigentlich davon aus das dieser Regler global greift und alles was schneller sein will einbremst....
Stock voltage - OCUV - OCOV: Leistungs- und Effizienzvergleich
Heute mal ohne viele Erklärungen, die Vergleichzahlen sprechen für sich. Mag jeder seine eigenen Schlüsse zu Limits, Overclocking, Under- und Overvolting ziehen.
Dieses Roundup spiegelt die Essenz meiner Erfahrung mit der 6900 XT samt Mods, Treibern und Tools aus den letzten 18 Monaten. Es zeigt nicht die raffiniertesten MPT-Kombinationen, nicht die höchsten Clocks und nicht die niedrigstmöglichen Voltages. Sondern anspruchsvolle, aber stabile und vor allem einfache Beispielsettings, mit denen der User Einfluss auf Leistung und Verbrauch seiner aktuellen AMD-Grafikkarte nehmen kann. Have fun!
i9-9900K @5100 MHz
32 GB DDR4-4400 CL16
RX 6900 XT Ref. TiL Evo 6
alles im Custom Loop
Spielebenchmarks:
- Win 11 22H2 Gaminginstallation, warm, leise
- Wasser 30-32°C, max. GPU-Temps 39-44°C, max. Hotspot Temps 52-65°C
- Adrenalin 22.8.2 slimmed
- Hintergrundprogramme on (RTSS, HWiNFO, OneDrive, Aquasuite, LGHUB)
- RTSS/HWiNFO großes Overlay on
- 5120x1440 @120 Hz (FreeSync Premium Pro on, FPS-Limiter off)
- mindestens zwei Runs je Setting
Time Spy Runs:
- Win 10 21H2 Minimalinstallation, Pumpen 100%, Lüfter 50%
- Wasser 25-28°C, max. GPU-Temps 35-44°C, max. Hotspot Temps 48-72°C
- Adrenalin 22.8.2 slimmed
- 5120x1440 @120 Hz (FreeSync Premium Pro off, FPS-Limiter off)
Szenario 1: OC Stock Voltage 2700 MHz vs. OCUV 2700 MHz, Power Limit 255 W
MPT Power Anhang anzeigen 793625
Voltage Vmin/max GFX 825/1175 mV (default)
Voltage Vmin/max Soc 825/1150 mV (default)
PL 255 W (default)
VRAM default V
MPT Power Anhang anzeigen 793631
Voltage Vmin/max GFX 756/1093 mV
Voltage Vmin/max Soc 787/1050 mV
PL 255 W (default)
VRAM undervoltet
MPT Power Anhang anzeigen 793618
Voltage Vmin/max GFX 825/1175 mV (default)
Voltage Vmin/max Soc 825/1150 mV (default)
Power Limit 500 W
TDC Limits 375/60 A
VRAM default V
MPT Power: wie Szenario 2 Anhang anzeigen 793631
Voltage Vmin/max GFX 756/1093 mV
Voltage Vmin/max Soc 787/1050 mV
Power Limit 450 W
TDC Limits 320/55 A (default)
VRAM undervoltet
Dies wird die letzte größere Untersuchung von mir zum Thema gewesen sein, als Abschluss gewissermaßen. RDNA3 steht in den Startlöchern, und dann kräht sowieso kein Hahn mehr nach diesen Werten.
denkt ihr es lohnt sich auf eine 6900xt zu gehen? Dachte an die XFX Zero. Die juckt mich schon sehr lange aber ich wollte nie mehr als 1k ausgeben dafür.
denkt ihr es lohnt sich auf eine 6900xt zu gehen? Dachte an die XFX Zero. Die juckt mich schon sehr lange aber ich wollte nie mehr als 1k ausgeben dafür.
Aus sportlichem Ehrgeiz oder warum noch mal? Mit OCUV bei MPT-Einsatz erzielst du höhere Leistung bei niedrigerem Verbrauch. Das zeigt die Effizienzliste und zuletzt dieses kleine Roundup.
Wenn du glaubst, mit dem durchaus eindrucksvollen Wattman-Wert von 1050 mV weniger Spannung unter Volllast anzulegen und dadurch Vorteile zu erzielen, empfehle ich, bei den nächsten TS-Runs ein Overlay aktiv zu haben und GPU Core Voltage zu beobachten, einmal mit default 1175 und dann mit 1050 mV. Berichte mal, ob du bei 2600 MHz einen nennenswerten Unterschied feststellst. Würde mich wundern, siehe auch hier.
Ab einem bestimmten eingestellten MHz-Takt gleichen sich Undervolting und Stock-Voltage einander an. Das Treiber-UV wird wirkungslos, was anliegende Spannung, anliegenden Takt und Verbrauch betrifft. Hier liegt diese Schwelle für 1075 mV bei ca. 2665 MHz, also knapp über dem Testszenario oben. Wäre eine Messreihe mit 2600 mV durchgeführt worden, wäre der Übergang noch besser zu sehen gewesen.
Die Grenze verschiebt sich außerdem mit dem Grad des Treiber-Undervoltings. Je stärker die Übertaktung, desto niedriger muss die Treiber-Voltage eingestellt werden damit ein Spannungs- und Verbrauchsvorteil des Undervoltings erhalten bleibt. Ein paar undokumentierte Zahlen hierzu (meine Karte, Testbedingungen wie oben):
MHz Treiber
mV Treiber
2565
1175 (nominal)
2600
1135
2650
1085
2700
1030
2750
980
2800
925
Diese Takt-Spannungs-Paare im Treiber eingestellt markieren hier die Schwelle, bei der Treiber-Undervolting gerade noch Wirkung auf anliegende mV, MHz und W hat. Dummerweise verträgt Max-OC sich stabilitätsseitig nicht gut mit Max-UV.
Mein Ziel war es mit Wattman 22k Punkte zu erreichen, also ein bisschen ja, hat mich auf jeden Fall zum benchen angetrieben
Danke auf jeden Fall für die Tipps, Resourcen und dem Kommentar! Ich werde mich nun mal die Tage / Monate damit befassen, den TS-Score mit MPT zu erhöhen
Ich werde auf jeden Fall neue Scores posten, wenn ich glücklich mit den Ergebnissen bin
Um nochmal auf meinen Post von vorgestern zu verweisen, ist es normal das FTC nur Vollbildmodusspiele erkennt und bei Fenstermodus nicht eingreift?
Hat jemand andere Erfahrungen gemacht?
denkt ihr es lohnt sich auf eine 6900xt zu gehen? Dachte an die XFX Zero. Die juckt mich schon sehr lange aber ich wollte nie mehr als 1k ausgeben dafür.
Aber sollte es etwas wie eine 7750XT geben - bzw Navi 32 (gehe darauf anstelle Navi 31) als persoehnlicher Vorschlag
Ich denke nicht dass Navi 32 ueber 749 (789?) sein wird - aber mir fehlen daten
Anderseits laufen XTXH fuer 950-1000 momentan im Gebrauchtmarkt
Navi 31 koennte 1119 oder auch 999 sein (Chiplet design ist billiger herzustellen)
Das Ding ist halt, ich will eigentlich schon warten bis die neuen Karten da sind, einfach um Preise und Leistung zu kennen. Evtl, werden dann die alten Modele noch etwas günstiger. Aber wer weiß das schon.
@iLLuminatusANG: Das ist verlockend. Verstehe ich, ginge mir genauso. Trotzdem: Halt die Finger noch sechs Wochen still. Wenn du die jetzt kaufst, hast du schon im Dezember eine alte Karte mit überholter Leistung. Erst mal abwarten, was die Neuen bringen. AMD wird sich schon nicht lumpen lassen, was die RDNA3-Rasterleistung angeht. Und bei Raytracing wird es hoffentlich den dringend benötigten Schub geben. Nvidia gibt da gerade noch mal richtig Gas ...
AMD wird sich schon nicht lumpen lassen, was die RDNA3-Rasterleistung angeht. Und bei Raytracing wird es hoffentlich den dringend benötigten Schub geben. Nvidia gibt da gerade noch mal richtig Gas ...
Aber zu welchen Preisen + Wechselkurs Dollar. Eine alte RX6900 kostet im AMD-Shop 1200 € aufgrund des schlechtes WK-Verhältnisses (klar UVP). Ich glaube nicht, dass eine RX7950 unter 1500 € angeboten wird. Eher höher, wenn ich die kolportierten Nvidia-Preise sehe.
Alles richtig. Das Wechselkursverhältnis ist derzeit wirklich Kacke, da sind lange in D eingepreiste Karten im Vorteil. Wer jetzt kaufen muss (weil z. B. die alte Karte kaputt ist oder das Budget auf viele Monate hinaus weit weg von den kolportierten Next-Gen-Preisen weg sein wird), nimmt, was heute das beste P/L-Verhältnis bietet.
In allen anderen Fällen sollte einen Monat vor Launch gelten: abwarten. Erfundene Zahlen: Wenn du mit RDNA3 im Januar 23 zu einer XFX Zero +100% Leistung erhältst, aber "nur" +50% Preis zahlen musst, wäre es unclever, jetzt die Zero zu kaufen. "Spatz-in-der-Hand-Denken" ist so verlockend wie es unökonomisch sein kann. Ist aber schwierig, sich dem zu entziehen, wenn das langjährige Objekt der Begierde plötzlich finanziell in Reichweite ist, verstehe ich gut. Budget ist individuell, da kann man keinen Rat geben.
Es gibt aber noch den Aspekt reiner Leistung. Wenn @iLLuminatusANG casual alte Spiele in WQHD zockt und das nicht ändern wird, spricht nichts gegen die Zero, hält zehn Jahre lang. Will oder muss man die Kartenpower aber künftig ausnutzen (neueste Games, hohe Auflösung, FPS-Junkie, Raytracing-Liebhaber), kommt tatsächlich Nvidia wieder ins Spiel: Legen die die Messlatte mit den 4000ern so hoch wie angekündigt, werden sich die Spielehersteller tendenziell daran orientieren und bald schicke neue Grafikfeatures einbauen, die diese Leistung auch fordern; das wechselseitige Aufschaukeln von Leistungsanforderung und Leistungsvermögen ist ja ein Basisprinzip der Spiele- und Gaminghardwareindustrie. Wird eine RDNA2-Ex-Highend-Karte dann auf Jahre hinaus eingesetzt, lauten die Grafikpresets in künftigen Games bald "mittel" oder "hoch" anstatt "sehr hoch" oder "ultra".
Heißt nicht, dass unsere jetzigen Karten schon fast Sondermüll sind. Gilt nur für einen anstehenden Neukauf.
Soll aber jeder sehen, wie er will. Ist eh alle zwei Jahre dasselbeTheater mit der gleichen Diskussion.