TopAce888
Urgestein
- Mitglied seit
- 16.04.2006
- Beiträge
- 13.718
Ich habe zwar keine Ahnung mit welcher Formel Du auf die 40A kommst (Physik-Schulunterricht ist schon soooo lange her), aber die absolute Differenz kann schon stimmen:
http://www.hartware.de/review_768_12.html
P=U*I (P = Verbrauch, U= Spannung, I = Stromstärke) -> I=P/U Wenn sich der Verbrauch um 20W erhöhen sollte und die Spannung nur um 0,5V, dann kommen nach der Formel 40A dabei raus. Schulphysik ist in der Tat so lange her, aber ich kann mich an diese Formel noch genau erinnern ).
Das Differenz stimmt, weiß ich. Ich habs ja selber nachgemessen. Mir geht es nur darum, wie hoch sich der Verbrauch mit 1.1V im Idle erhöht. Last ist mir egal. Der Rechner idlet mehr vor sich hin, als dass er unter Last steht.
Wie läuft das eigentlich? Je höher takt und Last, desto höher der Strombedarf? Müsste ja eigentlich so sein. Von daher kann es sich.
Äh...moment. Ich sehe grad die Spannung wird ja nicht um 0,5V erhöht, sondern nur um 0,05V. Von daher merke ich grad, dass man hier mit der Formel irgendwie nicht so weit kommt. Vielleicht ist die Schulphysik doch zu lange her!
Also dann nochmal kurz gefragt, weiß jemand, wie hoch sich der Verbrauch steigert, wenn man die GPU Spannung auf 1.1V erhöht?
Zuletzt bearbeitet: