Sofern diese Werte wirklich stimmen (65W Volllast? Dafür müsste man einen Athlon II aber extrem niedrig takten), waren die Spannungen definitiv nicht konstant.
Natürlich waren sie Spannungen nicht konstant - höherer Takt erfordert höhere Spannung. Natürlich hat die CPU @default eine viel zu hohe Spannung, so dass der Eindruck entsteht, man könne den Takt ohne Spannungserhöhung erhöhen. Aber das ist meines Erachtens falsch, denn man müsste erst einmal die niedrigst mögliche Spannung bestimmen bevor man übertaktet. Dann merkt man auch, dass jedes Fitzelchen extra Takt eine winzige Spannungserhöhung erfordert.
Mein Messungen waren:
P0 (3202 Mhz): 1,1750v; NB 1,000v, Last (Prime): 65,4 W
und
P0 (3600 Mhz): 1,3000v; NB 1,075v, Last (Prime): 86,3 W
Die CPU läuft dabei noch nicht am Limit, sie läuft innerhalb der Voltage Spezifikationen so bis ca. 3,9 Ghz.
Argumentieren kann man jetzt natürlich: Bei Defaulttakt wäre eine weitaus niedrigere Spannung möglich, wodurch dann wieder ein exponentieller Verbrauchsanstieg mit der Taktsteigerung (und Spannungserhöhung) gegeben wäre.
Röchtig.
Letzendlich spielt es eh keine Rolle, da die CPU die meiste Zeit im Idle ist. Von mir aus kann die CPU 200 Watt bei 100% Auslastung ziehen, solange sie dafür im Idle so gut wie nichts zieht.
@Grummel
Hast du das ganze mit Luftkühlung getestet?
Wenn ja, damit steigt die Temp schneller an, als z.B. mit einer WaKü.
Bei mir machen +400MHz gerade mal 15W (unter Last!) mehr aus der Dose.
Das wären +11% mehr Takt mit 5% mehr Verbrauch!
Ja, Lukü, noch mit boxed Kühler.
An der Dose misst du aber dein Gesamtsystem. Würdest du Mobo, Graka, RAM etc rausrechnen, würdest du auf eine deutlich höhere Prozentzahl als die prozentuale Leistungssteigerung der CPU kommen.
Hätte ich wie du 2x XFX GTX285 OC 1GB im System, würde ich den Mehrverbrauch des Gesamtsystem durchs Übertakten prozentual auch kaum mehr spüren.