@VJoe2max,
keine Ahnung, ob mein Strommessgerät etwas taugt, ist ein günstiges "Basetech Cost Control 3000":
Base Tech Cost Control Test - Energiekostenzhler
+/- 3% reichen mir, bleibt natürlich die Frage, ob das denn auch wirklich stimmt. Im unteren Lastbereich gibt es hohe Schwankungen, kann ich bestätigen, im hohen Bereich nicht.
ca. 60W habe ich im Idle mit der CPU auf 0,75V&1.6Ghz. Lastszenarien mit Furmark+Prime interessieren mich nicht die Bohne, da sie fernab jeder Realität sind, daher mache ich Stromlasttests mit 3DMark 11/echten Spielen und da habe ich mit:
- 2500K@3.3Ghz@1.2V (habe OC Fähigkeit noch nicht getestet)
- 2x GTX470@608Mhz@0.900V (Standard 0.975)
- ca. 350-390W unter Last
Wenn ich die CPU mit unter 1V laufen lasse unter Last, spare ich evtl. weitere 10-15W. Lasse ich einen Frame Limiter mitlaufen, noch mehr, da die GPU nicht zu 99% ausgelastet werden, was bei mir die Regel ist.
ABER, damit ich auch Werte habe, welche hier eher bekannt sind. CPU auf 4,5Ghz hoch, beide GTX470@880Mhz@1.087V und ich ziehe 650W aus der Dose unter Spiellast, nicht Furmark+Prime, dort wären das vermutlich 700W, ist aktuell alles am Cougar SX700 angeschlossen. Das SeaSonic X-760W schließe ich an, wenn ich mit dem Sleeven fertig bin bzw. endlich die Teile von AT eintreffen.
Auf 880-900Mhz möchte ich die Karten allerdings nicht prügeln, sie weden später mit OC höchstens mit 800Mhz@1.000V laufen, das langt und spart gleich mal 100W. Es ist wirklich ein immenser unterschied, ob die Karten mit 608Mhz@.0900V oder 880Mhz@1.087V laufen, da es gleich 300W mehr ausmacht.