Ich hab mich jetzt konkret mal mit Cyberpunk gespielt.
Draußen in der Wüste in dem Filmdorf mit den Leichen. Stehe vor dem Wagen, setz mich rein, drehe vollgas ein paar 360 Grad Runden und steig wieder aus.
CP77 auf 2540x1440, RT off, kein FSR/Super Resolution, Settings Ultra.
Ausgangsbasis das Original Bios/MPT File der 6900 LC XTXH
1. Run: nur Spannungen (GFX und SOC) auf 1 V limitiert, Power auf den Stock 284 W, Ingame 109-117 FPS bei 215 W gemessem Verbrauch, max 2.365 MHz.
2. Run: nur die Power auf 150 W limitiert, stock Spannungen, Ingame 88-107 FPS bei 150 W gemessem Verbrauch, max 2.345 MHz.
3. Run: nachgesehen, was ich bei den limitierten Spannungen verbraucht hab = 215 W und auf diese limitiert, stock Spannungen, Ingame 95-115 FPS bei 215 W gemessem Verbrauch, max 2.357 MHz.
Wo ist nun des Tigers Fleisch?
Ich hab in allen drei Runs fast aber nicht ganz, dieselben FPS, verbrauche aber einmal bei limitierten Spannungen 215 W und bei 150W Limit genau das.
Der SOC genehmigt sich ohne Limit etwas mehr Spannung, die GPU bleibt eh immer drunter.
Alle Erwägungen um um die TDC / fließenden Ströme / Ampere verstehe ich als Nicht-Elektrotechniker technisch nicht. Wozu soll das alles gut sein, auf der Stromrechnung zahle ich Watts und sonst nichts.
Der theoretische Zusammenhang Watt = Ampere x Volt ist mir klar. Nur warum soll ich an der Ampereseite rumnudeln?
Zurück zu meinem Versuch grad eben: dieser Ansatz spiegelt meine Denke wieder.
Ich limitiere die Leistung, weiß daher ganz genau, was ich verbrauche (+ einige Igorsche Watt) und lass den Rest die Karte machen. Würd ich stattdessen an den Ampere oder Volt drehen, dass kann ich nicht eindeutig den Verbrauch festlegen. Und proportional zum Verbrauch verhalten sich die Temperatren genauso, wobei der Bereich meiner Messwerte hier recht gering war. Taktfrequenzen unterschieden sich nur unbedeutend, sind also hier kein Gradmesser für irgendwas.
Wenn ich da was übersehe sagts mir gerne.