Luschy0815
Semiprofi
- Mitglied seit
- 01.10.2006
- Beiträge
- 3.506
Du unterschlägst bei deinen Berechnungen immer das du mit TDP (Thermal Design Power) Werten jonglierst, aber reale Werte meinst bzw wissen willst...
Die TDP Werte sagen aus, was der Hersteller als theoretische maximale Verlustleistung für seine Produkte angibt. Bei AMD und den X2 mit ner TDP von 125Watt zb beim X2 6000+ 90nm ist der reale Wert meist deutlich niedriger...siehe hier. Diese Tabelle zeigt gut, wieviel Unterschied zwischen realem Verbrauch und dem vom Hersteller maximal angegebenen liegt. Intel ist meist näher am realen Wert dran als AMD. Bei Grafikkarten ist es genauso, TDP Angabe und realer Verbrauch unterscheiden sich...
Und wenn man das alles zusammen nimmt kommt man dann auch auf den realen durchschnittlichen Verbrauch eines Systems, welcher immer unter dem theoretischen aus den TDP Werten ermittelten liegt. Das die Computerbild den Unterschied zwischen TDP und realem Verbrauch nicht kennt, war mir fast klar...
Die TDP Werte sagen aus, was der Hersteller als theoretische maximale Verlustleistung für seine Produkte angibt. Bei AMD und den X2 mit ner TDP von 125Watt zb beim X2 6000+ 90nm ist der reale Wert meist deutlich niedriger...siehe hier. Diese Tabelle zeigt gut, wieviel Unterschied zwischen realem Verbrauch und dem vom Hersteller maximal angegebenen liegt. Intel ist meist näher am realen Wert dran als AMD. Bei Grafikkarten ist es genauso, TDP Angabe und realer Verbrauch unterscheiden sich...
Und wenn man das alles zusammen nimmt kommt man dann auch auf den realen durchschnittlichen Verbrauch eines Systems, welcher immer unter dem theoretischen aus den TDP Werten ermittelten liegt. Das die Computerbild den Unterschied zwischen TDP und realem Verbrauch nicht kennt, war mir fast klar...
Zuletzt bearbeitet: