Das ist schon seit Generationen so, sonst würde die 4090 auch nur mit 2,5 GHz laufen. Ich hatte sowas aber auch schon vermutet. Die 6900 XT lief bei mir nach Erhöhen der Lüfterkurve mit 2,4-2,5 GHz.
Ich bin jetzt auf 1,025 V runter und werde das gleich mal im Spiel testen. Die Werte sind ein Traum! 2800 MHz auf dem Speicher führen allerdings zu Abstürzen wenn man fast timings nutzt. Hier wird demnächst auch nochmal ausgelotet was schneller ist, mehr Takt mit normalen Timings oder weniger mit FT. Mit Framelimiter laufen viele Spiele mit reduziertem Takt und permanenten 120 Hz in 4K, das ist einfach nur krank, denn sie läuft dann mit ca. 1000-1200 RPM. Das ist die beste Referenzkarte die ich jemals hatte, dazu noch kein wahrnehmbares Spulenfiepen - Die 6900 war hörbarer bei extrem hohen FPS in 3dmark (1080p). Ich benutze aber nun meist nur noch FSU und TSE, denn die zeigen am Besten wie es in 4K aussieht.
Wenn die jetzt noch das Idleproblem lösen bin ich vollends zufrieden. An Mehrleistung mangelt es definitiv nicht, wobei ich natürlich in 4K spiele. Bei Cyberpunk haben sich die FPS fast verdoppelt. Das ist schon ziemlich heftig wenn man bedenkt dass das Spiel auf NVIDIA optimiert wurde.
Was mich noch interessieren würde wäre eine 4080 vs 7900 XTX mit UV/OC vor allem in Relation zur Watt/FPS. Die XTX zieht etwas mehr Strom, hat aber auch mehr Speicher und das fette Interface, was wohl der Grund ist wieso sie in manchen Spielen vor der 4080 liegt - Zum Teil auch deutlich. Für 250 € mehr glaube ich aber nicht dass sich eine 4080 jemals amortisiert, selbst bei Extremnutzung. Wenn man 6 Stunden (Extremnutzung) auf 365 Tage anrechnet kommt man bei 100 W Unterschied auf 70 € Stromkosten (32 Cent pro kwh). Da braucht es schon vier Jahre bis die 250 € Differenz erreicht sind. Bis dahin wird man mutmaßlich wieder gewechselt haben.