Verbrauch 7970 zu 480/1060

Conversation

Neuling
Thread Starter
Mitglied seit
11.12.2009
Beiträge
720
Da mein PC von mehreren Leuten viele Stunden am Tag genutzt wird (8h/d), überlege ich, ob es nicht langsam Zeit für eine neue Grafikkarte wird, welche sparsamer ist und nebenbei mehr Power hat, um statt nur auf FHD, auch auf WQHD spielen zu können. Ich tausche ziemlich selten die Komponenten. Erst vor einem Jahr den Intel Q9550 getauscht und die 7970 ist jetzt noch drin. Habe letztes Jahr über die 390 nachgedacht, aber wäre der Verbrauch wohl weiter nach oben geschossen. Denke bei den neuen Karten kann man mit dem geringen Verbrauch gutes Geld sparen, erst recht, wenn die Karte wieder 4-5 Jahr drin bleibt. Wäre auch gut wegen der Lautstärke :)

Ich tue mich gerade schwer eine Vergleich zu finden. Ich würde gerne wissen, wie es mit dem Verbrauch der 3 Karten aussieht. Das Problem ist, dass ich keine Tests finde, wo "nur" der Verbrauch der Grafikkarte alleine angegeben wird. Gesamtsystem, andere cpu mit/ohne Bildschirm etc. Ich weiß auch nicht, wie viel meine cpu oder gpu braucht.

cpu 1231v3@dauerhaft 3700mhz (auch im idle)
gpu 7970@1125mhz

Bildschirm 3x je 35W
idle PC 65W (110W single monitor)
last PC 230W (265W single monitor) bei DOOM 2016
youtube/Twitch 150W single monitor
multi monitor zieht 40W mehr im idle

Das hardwareluxx Testsystem braucht idle 132W mit der 480. Ist das mit oder ohne Bildschirm? Ich habe 110W mit Bildschirm, also was stimmt nicht? Unter Last über 300W, aber bei mir 265W mit Bildschirm?

Wäre klasse, mich da jemand über den Verbrauch aufklären könnte.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zuletzt bearbeitet:
Eben, da wird wieder andere andere cpu verwendet, wo ich nicht mit meiner vergleichen kann. Ist es überhaupt möglich mit der alten 7970 dsa in Erfahrung zu bringen?
 
Toller Link, dann kann ich schon mal sagen, dass meine cpu mit ca 230W gegenüber den ca 265W 35W weniger braucht :) Das müsste dann schon mal der der gpu passen, dass ich nicht weit daneben liege. Weil die verwenden einen 2600k@4,6ghz!

Mit einer Titan soll der idle wert des xeon bei 42W liegen, jetzt kenne ich aber wieder der Wert der Karte nicht. Wieso geben die das bei Tests nicht extra an, oh man.
 
Zuletzt bearbeitet:
@Conversation:

Techpowerup testet die Grafikkarten auch einzeln.

Ich würde dir zur GTX 1060 raten, die am 19.7. auf den Markt kommt. 120 Watt TDP und Leistung vermutlich irgendwo zwischen RX 480 und GTX 980 - und im Idle/Multimonitorbetrieb dürfte sie ähnlich sparsam wie ihre großen Brüder (GTX 1070 / GTX 1080) sein:





Deine CPU scheint im Idle zu viel zu verbrauchen. Warum lässt du sie im Idle auf 3,7 Ghz laufen. Der Performance Verlust durch Intels Speed Step dürfte gegen Null gehen. Auch sonst solltest du mal gucken, wo du undervolten kannst und ob du alle C-States aktiviert hast.

Hier gibt es einen Referenzthread zum Idle Verbrauch von verschiedenen PCs: http://www.hardwareluxx.de/communit...braucht-euer-pc-im-idle-modus-813634-141.html
 
Die TPD sagt nicht die maximalen Verbrauch aus oder doch? Dann könnte ich die 40W mehr für Prime95 einfach mit dem idle wert umrechnen?

Scheinbar laufen manche Programme nicht rund, wenn sich der Takt der cpu ständig ändert. Wie gesagt, nutze ich den PC nicht alleine. Aber auch bei manchen Games läuft das erst richtig rund, wenn der cpu takt auf den maximal wert fixiert ist.

Ich versuche mal das wieder auf Standard zu stellen, also die Enersparmaßnahmen.

Den Thread habe ich schon gesehen, wollte aber nicht unbedingt da reinschreiben und hab einen extra Thread gemacht. Vll finde ich aber ein vergleichbares System. cpuz sagt aktuell 1.077v bei maximal takt in idle, was aber auch gleichzeitig der Spannung für prime95 entspricht :eek:

- - - Updated - - -

intel speedstep technology ist an
package c stages auf auto (an)

aber läuft dennoch mit maximal takt. mehr habe ich dazu nicht im bios gefunden. aber die cpu eingangspannung liegt bei 1.8v und direkt darunter steht vCore mit 0.99v

- - - Updated - - -

Danach habe ich wohl gesucht! https://www.techpowerup.com/reviews/Gigabyte/HD_7970_SOC/26.html

- - - Updated - - -

Wenn die Karte also ca 15W idle braucht, dann würde ja die cpu + 2 lüfter + ssd 50W brauchen :-[

- - - Updated - - -

Ja gut, dass die cpu mit maximal takt läuft haben wir so in den energieoptionen festgelegt :d Bios passt schon. Aber ich weiß jetzt auch wieder was damals ein Grund war das zu machen, weil sich der Verbrauch scheinbar nicht ändert. Selbst mit Fixierung auf 800mhz braucht er nur mehr 0.7v, aber immer noch 65W im idle, also genau so viel wir mit maximal takt und 1.077v. Dafür sind es unter prime95 nur 85W statt 143W. Ganze 60W Unterschied. Dachte ein Xeon ist so sparsam?

Kann ja eigentlich irgendetwas nicht stimmen.
 
Zuletzt bearbeitet:
eine grafikkarte zu empfehlen nur auf vermutete leistung hin, ist das dein ernst?

wenn überhaupt, dann abwarten bis die karte draussen ist und was die test's denn an tatsächlicher leistung usw ergeben und dann entscheiden.
ich würde eine 480 oder 1060 in die engere wahl nehmen, aber bei letzterer die tests und bei ersterer die customdesign's und auch deren tests abwarten.

mfg
robert
 
Zuletzt bearbeitet:
Wieso soll das nicht mein ernst sein? 2 Wochen vor release wird sich bei der Leistung nicht mehr viel ändern, denke die sind beide so viel schneller als meine Karte, dass sich da ein paar % nicht auswirken. Geht mir gerade auch mehr um den Verbrauch, wie man sieht, ist es relativ schwer das heraus zu finden.
 
Also die 480 und 1060 sind für WQHD nicht unbedingt erste Wahl, auch Versteh ich nicht so ganz warum du so versessen auf jedes Watt beim Verbrauch schaust, sicher kann man drauf achten beim Verkauf aber die wirklich schnellen Karten verbrauchen eben auch was.
 
Da ich nicht immer die neuesten - mit bester Grafik - Spiele spiele, bin ich mir ziemlich sicher, dass mir die Leistung ausreicht :)

Auf jedes Watt schauen und damit zu rechnen ist für mich nicht das selbe. Da aber seit Wochen von so toller Effizienz gesprochen wird und meine Karte jetzt über 4 Jahre alt ist, gehe ich davon aus, dass sich hier ordentlich was getan hat. Und auf weitere 4 Jahre und 8h/d Nutzung dürfte auch ernsthaft jedes kleine Watt sich bezahlt machen. Das Problem ist leider, dass ich nicht sagen kann, wie viel im idle oder last meine cpu oder gpu ausmacht. Damit weiß auch nicht, wie viel sparsamer eine neue Karte gegenüber meiner jetztigen ist.
 
Nein, ist ziemlich gemischt. Office, Youtube, Social, Amazon/Netflix, Spiele, etc aber die meiste Zeit multi monitor betrieb, also grob 70W oder 100W für 2-3 Bildschirme. 65W idle + 40W für multi monitor sind das auch in Office unglaubliche 200W, aber sind dann ca 100W für 3 Monitore :/ Wenn man schon die 40W und was nebenbei sparen könnte, würde sich das schon sehr auszahlen. Rechnen möchte ich aber erst, wenn ich genauere Werte habe.
 
Zuletzt bearbeitet:
Wieso läuft deine CPU im idle mit max. Boost!?

Soll das so sein oder wieso?

Haste den Turbo auf allen Kernen freigeschaltet also 3,7Ghz und taktet dadurch nicht mehr runter?
 
Auf jedes Watt schauen und damit zu rechnen ist für mich nicht das selbe. Da aber seit Wochen von so toller Effizienz gesprochen wird und meine Karte jetzt über 4 Jahre alt ist, gehe ich davon aus, dass sich hier ordentlich was getan hat. Und auf weitere 4 Jahre und 8h/d Nutzung dürfte auch ernsthaft jedes kleine Watt sich bezahlt machen. Das Problem ist leider, dass ich nicht sagen kann, wie viel im idle oder last meine cpu oder gpu ausmacht. Damit weiß auch nicht, wie viel sparsamer eine neue Karte gegenüber meiner jetztigen ist.
Machs dir einfach, eine 7970 braucht unter Last knapp 250W ohne OC.
Eine neue RX480 braucht 170W unter Volllast und ist vor allem im Idle auch noch sparsamer.

Nebenbei hat die RX480 auch noch mehr Leistung als deine 7970, damit siehst du dass sich tatsächlich ordentlich etwas getan hat und du weißt jetzt dass du knapp 80W unter Volllast sparst mit einer RX480.
Wenn du keine Eile hast warte noch auf die ersten Tests zur GTX1060 und entscheide dich dann welche der beiden Karten die für dich am besten passende ist.

Und 1440p braucht wirklich ordentlich Mehrleistung im Vergleich zu FullHD, wenn du jedoch nur ältere Spiele zockst und bei neueren kein Problem damit hast mal ein bisschen die Grafik runterzustellen wird das auch mit einer RX480 kein Problem
 
Wieso läuft deine CPU im idle mit max. Boost!?

Soll das so sein oder wieso?

Haste den Turbo auf allen Kernen freigeschaltet also 3,7Ghz und taktet dadurch nicht mehr runter?

Ich kopiere einfach was ich schon geschrieben habe:
Ja gut, dass die cpu mit maximal takt läuft haben wir so in den energieoptionen festgelegt Bios passt schon. Aber ich weiß jetzt auch wieder was damals ein Grund war das zu machen, weil sich der Verbrauch scheinbar nicht ändert. Und auch manche Programme und Spiele "besser" gelaufen sind, wenn der Takt nicht ständig raunf und runter geht.
Selbst mit Fixierung auf 800mhz braucht er nur mehr 0.7v, aber immer noch 65W im idle, also genau so viel wir mit maximal takt und 1.077v. Dafür sind es unter prime95 nur 85W statt 143W. Ganze 60W Unterschied. Dachte ein Xeon ist so sparsam?

@ fideliovienna
Soll die 480 jetzt nicht bei den ursprünglich geplanten 150W, weil die habe das ja scheinbar mit neuem Treiber so hinbekommen. Was ich jetzt noch rausgefunden habe ist, dass die 7970 im idle so um die 12-15W braucht. Die 480 mit 16W idle sogar unbedeutend mehr, aber dafür bei multi monitor dann nur 19W, also 3W mehr anstelle von 40W wie bei meiner Karte! Wie sich das bei Videos verhält muss ich mir auch noch raussuchen.
 
Die neuen grakas, egal ob amd oder intel, haben doch im idle ähnlich niedrigen Verbrauch. 5 watt mehr oder weniger wirst du kaum merken, was stromkosten betrifft.

Würde aber bei deinem cpu alle stromsparmodi im bios aktivieren. Hab nen i7 3770 mit oc, da klappt das wunderbar. Schätze mal, dass das schon 30-40 w im schnitt ausmachen kann. Dass Programme wegen der "wabbel" spannung nicht funktionieren, hör ich zum ersten mal.

Und wegen der tests, ist doch egal, ob die das gesamte system nehmen oder die Komponenten einzeln. Ist n graka test, wird dafür für jede graka die gleiche cpu verwendet. Ergo kannst du einfach die differenz nehmen.

Von effizienz sind alle karten der neuesten Generation viel besser als die alten.
Besonders viel Unterschied zu deiner amd karte ist es schon!
Die amds waren früher ganz fiese stromfresser.

Gesendet von meinem E6553 mit Tapatalk
 
Stromkostenrechner | kWh oder Watt-Anzahl von Geräten in Kosten umrechnen

Sind die 8 Stunden wirklich realistisch? Ein Arbeitnehmer mit 40 std Woche kommt auf 5 std pro Tag auf das Jahr verteilt.

Bei ht4u findest du genaue verbrauchswerte, wenn du nach den grafikkartentests suchst.

- - - Updated - - -

Die amds waren früher ganz fiese stromfresser.

Das ist quatsch. Eine GTX680 hat über 100€ mehr gekostet und hat damals vielleicht 15% mehr geleistet. Bei meinem nutzungsverhalten (3std pro Tag) hatte ich die Karte 10 Jahre betreiben müssen um überhaupt nur den Aufpreis wieder reinzuholen. Die Realität sieht aber so aus, das die GTX680 mittlerweile am VRAM verhungert ist und viele sich für wieder 350 Euro eine GTX970 gekauft haben.

Das war also weder wirtschaftlicher noch "green it"...

Ganz fiese stromfresser gibt es seit der 40nm Generation nicht mehr. Ganz fiese stromfresser waren zum Beispiel die 4890 von amd oder die GTX480. Die 5870 war die erste Karte mit Schwerpunkt auf zeitgemäßen Verbrauch.
NVIDIA GeForce GTX 480 - Die Rückkehr des Königs? - Leistungsaufnahme: Idle & Last (Seite 15) - HT4U.net

Man achte auf den idle Verbrauch!( nur die Grafikkarte)
 
Zuletzt bearbeitet:
@G3cko: ok, hatte das wohl falsch in Erinnerung...

Damals nutzte ich meinen pc hauptsächlich als htpc, da war der Stromverbrauch beim video gucken interessant.

https://www.computerbase.de/2012-06/test-amd-radeon-hd-7970-ghz-edition/9/

Den höchsten Verbrauch hatten da schon hauptsächlich die amds. Ich hatte ne gtx 560.

Egal, sind alles Dinge von gestern..

P.s. Ein Arbeitnehmer zockt auch keine games... Und nutzt in der regel nur die igpu.

Der TE schreibt, dass mehrere leute den pc nutzen. Wenn alle zocken, kann das schon was ausmachen.


Gesendet von meinem E6553 mit Tapatalk
 
Zuletzt bearbeitet:
Würde aber bei deinem cpu alle stromsparmodi im bios aktivieren. Hab nen i7 3770 mit oc, da klappt das wunderbar. Schätze mal, dass das schon 30-40 w im schnitt ausmachen kann. Dass Programme wegen der "wabbel" spannung nicht funktionieren, hör ich zum ersten mal.
Gesendet von meinem E6553 mit Tapatalk
Das habe ich dann noch erfolgreich hinbekommen, aber wie geschrieben zeigt der Verbrauch zwischen 3600mhz und 800mhz beide male die 65W. Erst unter Last von Prime95 sieht man einen deutlichen Unterschied von ca. 60W. Das sind zwar 100% Auslastung, aber wenn ich jetzt noch den Idlewert der cpu wüsste, könnte ich zumindest die absoluten Maximalverbraucht der cpu finden. Beim Spielen ist das dann nicht so viel, aber beim Rendern dann wohl schon ziemlich nahe dran.

Und wegen der tests, ist doch egal, ob die das gesamte system nehmen oder die Komponenten einzeln. Ist n graka test, wird dafür für jede graka die gleiche cpu verwendet. Ergo kannst du einfach die differenz nehmen.
Gesendet von meinem E6553 mit Tapatalk
Die cpu für einen Test der 7970 und der neuen Karten dürfte alles andere als gleich sein. Ich tue mich generell schwer wirklich Verbrauchswerte von cpu und gpu zu finden, wenn man es einzeln bei idle und last wissen möchte.
 
Danke für die Seiten und Links.

Die cpu wird meiner Schätzung nach im idle so um die 20W brauchen (TDP 80W, Prime 100% Last +60W so rum) die Karte 15W, dann sind in etwa 40W für 2 Festplatten, 4 Lüfter, Ram, MB, Lüftersteuerung, DVD und NT über. Mit der Grafikkarte auf fast 98-99% Auslastung bei DOOM liegt der Verbrauch bei 270W-295W. Heute scheint der Verbrauch höher zu sein, als vor 2 Tagen, dürfte an der cpu liegen, da die Karte gleich ausgelastet wird oder weil es heute sehr heiß im Raum ist und schon eine knappe Stunde gespielt wurde.

Da auch der Takt nur durch Erhöhen des Powerlimits gehalten wird, gehe ich auch davon aus, dass die Karte im Falle von naher 100% Auslastung mehr als 225W zieht, um den Takt zu halten.

Irgendwie schon enttäuschend, dass so viel über Verbrauch geschrieben wird, aber es doch schwer ist, dazu genau Werte zu bekommen, wenn man den eigenen PC haben will. Ich kann immer noch nur schätzen, wie ich im Vergleich zu aktuellen Karten dastehe. Werden wohl so 75-100W unter Volllast sein. cpu je nach game bzw eher weniger sobald die Karte limitiert. Die 40W im multi monitor Betrieb machen wohl am meisten aus, da dieses Modus weit mehr als die Hälfte genutzt wird. Dazu kommen dann noch zusätzlich die 35-70W von 1 oder 2 Monitoren. Und noch oben drauf der hohe Takt bei Videos.

Wenn man davon ausgeht, dass eine 480 oder 1060 um die 120W-150W braucht und nicht die schnellsten Karten sind, also es noch schnellere mit mehr Verbrauch gibt, dann noch 20-80W meines Xeons dazukommen, spart man sich weniger als ich mir gedacht habe, immer hin ist die 7970 um die 4 Jahre alt. Klar hat man viel mehr Leistung...


Solange mir sonst niemand was genaueres sagen kann, lasse ich es hiermit gut sein, warte mal die Karten der anderen Hersteller ab und bedanke mehr für die tolle Hilfe :)
 
ich glaub du verrennst dich da in den Verbrauch.. Hab echt noch keinen erlebt der sonen Tamtam um den Verbrauch des PCs macht, nen neuer Kühlschrank spart im Jahr mehr als nen PC in 3 Jahren verbraucht..
 
Also ich finde, dass das ganze Thema mit der Leistungsaufnahme von GPUs mittlerweile einen solchen Raum eingenommen hat, dass einige schon paranoide Züge zeigen. Vielleicht bin ich ja von der alten Schule und nicht mehr up to date, aber irgendwie finde ich Performance u. Features immer noch wichtiger, als den Verbrauch. In den Foren wird leidenschaftlicher über Verbräuche diskutiert, als über jeden anderen Aspekt.

Nicht falsch verstehen, natürlich bin ich für möglichst sparsame GPUs u. das die Hersteller das Thema angehen, aber es sollte doch den Stellenwert einnehmen den es verdient hat und zumindest bei mir ist es definitiv nicht der Oberste.
 
Über Verbrauchsunterschiede von weniger als 40 Watt zu reden lohnt nur bei 24/7 Betrieb.

Eine Neuanschaffung einer Graka rentiert sich da nur sehr selten. Selbst bei 8h täglich und 40w Differenz, sind das grob 14€ im Jahr.
Bis du den Aufpreis wieder drin hast, ist die Karte 10 Jahre alt...
 
Du kannst die cpu und die graka underclocken und undervolten. Dann holst du noch das letzte raus ;-)

Das kostet gar nix...

Gesendet von meinem E6553 mit Tapatalk
 
Zuletzt bearbeitet:
Ich weiß jetzt nicht wo hier das Problem von einigen liegt? Ich will es wissen, ich finde das interessant. Man kann nicht einmal etwas vernünftig diskutieren. Finde es sehr schade, dass "manche" nur begrenzt weit denken wollen. Immerhin konnte mir keiner der Skeptiker hier wirklich weiterhelfen. Man merkt bei den Posts, dass diejenigen, welche gute und nützliche Posts liefern, sich mit dem Thema mehr beschäftigen. Denkt einfach mal ein bischen weiter.
Jene, denen 50W oder 15€ egal sind können gerne zusammen legen.

Leider sind die 470/460 noch nicht am Markt. Da würde das bestimmt anders aussehen.
 
Con, ich werde versuchen nachher mal detailierter zu Antworten, aber gerade mur vom Handy ist das schwer.

Fakt ist aber, das Thema Verbrauch ist etwas, dasd sich aus mehr als nur der Komponente selbst zusammen Setzt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh