Okay, ganz doofe Frage... ich hab heute das erste mal ne wakü GPU umgebaut bzw eingebaut... Kann es sein, dass bei gleichem Takt/Punkt auf der Takt/Spannung Kurve weniger Strom verbraucht wird oO? Hab ne Strix 3080 die von der Kurve (1905@868mv) her so seit Oktober läuft. In mehreren Szenen sieht es für mich so aus, ohne, dass der FPS lock erreicht ist, dass die Karte 30-40W weniger verbraucht. Soviel sollten doch eigentlich 3 Lüfter nicht fressen.
Beispiele: Assassins Creed Valhalla braucht keine 200W mehr, Cyberpunk im harten GPU limit (1440p, DLSS Quality, RT Ultra) braucht 250W und wenn ich in skyrim ne buggy enb nutze, die vorher bei manchen lichtquellen die karte komplett an ihr PL gebracht hat (an der Stelle 370W, im Curve Profil stehts nich auf 450W) geht sie da zwar mit den FPS jetzt immernoch genauso runter, braucht aber 'nurnoch' 330W.
Bringen die kühleren Temperaturen (mit 30er - 40er) da echt soviel effizienz oO?
Komischerweise is auch das Spulenfipen massiv unterschiedlich zwischen den Spielen... in 3D Markt oder AC:V sehr deutlich (also einmal maximale last, einmal 'minimale'), in Cyberpunk un Skyrim (ähnliche FPS wie Valhalla) quasi nicht vorhanden...