NoFo
Enthusiast
Hallo Community,
bitte nicht direkt steinigen, wenn ich im falschen Bereich gelandet sein sollte, konnte aber über die Suche keinen spezifischen Bereich für mein Anliegen ausfindig machen
Da das Thema Stromverbrauch aber vielleicht doch passt, hatte ich mich für dieses Unterforum entschieden.
Nun zu meinem Anliegen:
Beim Durchstöbern verschiedenster Tests zu Grafikkarten und Prozessoren (vor allem Ivy Bridge und neuere GPUs) sind mir doch teilweise sehr große Unterschiede im Stromverbrauch zu einzelnen Testsystemen aufgefallen.
Klar liegt es in den Unterschieden vom Testaufbau und verwendetem Messgerät, aber einen so großen Unterschied konnte ich mir nun wirklich nicht erklären.
Ich weiß nicht, ob man diese Tests von anderen Seiten hier verlinken darf, daher werde ich das nur einmal kurz schildern:
Es geht um den hauseigenen Test der neuen Ivy Bridge-Prozessoren und dem CB-Test der neuen GTX 690 (nur exemplarisch, da ich nur auf ein Diagramm eingehen möchte).
Im Testsystem von HWLuxx kommt eine Radeon 7970 und die jeweiligen Prozessoren zum Einsatz. Im Test auf CB wird ein auf 4,5GHz getakteter 2600k benützt (Als Vergleich wäre wohl der auf 4,5GHz getaktete i7-3770k nicht zu verkehrt oder?)
Während der Idle-Verbrauch noch relativ ähnlich aussieht, gibt es dann einen riesigen Sprung im Last-Verbrauch (gesamtes System, laut Angaben!):
Ich weiß, die Prozessoren und die Last-Bedingungen unterscheiden sich ein wenig. Auch die Hersteller der jeweiligen Grafikkarten kann differieren. Aber all das kann doch keinen Unterschied von fast 176W ausmachen?
Daher hatte ich gehofft, dass ihr mich vielleicht aufklären könnt, was dahintersteckt und ob ich mich hier einfach nur verlesen, oder etwas überlesen habe
MfG
NoFo
bitte nicht direkt steinigen, wenn ich im falschen Bereich gelandet sein sollte, konnte aber über die Suche keinen spezifischen Bereich für mein Anliegen ausfindig machen
Da das Thema Stromverbrauch aber vielleicht doch passt, hatte ich mich für dieses Unterforum entschieden.
Nun zu meinem Anliegen:
Beim Durchstöbern verschiedenster Tests zu Grafikkarten und Prozessoren (vor allem Ivy Bridge und neuere GPUs) sind mir doch teilweise sehr große Unterschiede im Stromverbrauch zu einzelnen Testsystemen aufgefallen.
Klar liegt es in den Unterschieden vom Testaufbau und verwendetem Messgerät, aber einen so großen Unterschied konnte ich mir nun wirklich nicht erklären.
Ich weiß nicht, ob man diese Tests von anderen Seiten hier verlinken darf, daher werde ich das nur einmal kurz schildern:
Es geht um den hauseigenen Test der neuen Ivy Bridge-Prozessoren und dem CB-Test der neuen GTX 690 (nur exemplarisch, da ich nur auf ein Diagramm eingehen möchte).
Im Testsystem von HWLuxx kommt eine Radeon 7970 und die jeweiligen Prozessoren zum Einsatz. Im Test auf CB wird ein auf 4,5GHz getakteter 2600k benützt (Als Vergleich wäre wohl der auf 4,5GHz getaktete i7-3770k nicht zu verkehrt oder?)
Während der Idle-Verbrauch noch relativ ähnlich aussieht, gibt es dann einen riesigen Sprung im Last-Verbrauch (gesamtes System, laut Angaben!):
- HWLuxx (3770k, 4,5GHz, AMD 7970, CineBench-Last): 139,3W
- CB (2600k@4,5GHz, AMD 7970, Crysis 2-Last): 315W
Ich weiß, die Prozessoren und die Last-Bedingungen unterscheiden sich ein wenig. Auch die Hersteller der jeweiligen Grafikkarten kann differieren. Aber all das kann doch keinen Unterschied von fast 176W ausmachen?
Daher hatte ich gehofft, dass ihr mich vielleicht aufklären könnt, was dahintersteckt und ob ich mich hier einfach nur verlesen, oder etwas überlesen habe
MfG
NoFo