Wieviel Watt verbraucht euer PC im Idle-Modus? - Bitte das komplette System im Post angeben!

Habe bei meiner Evga GTX580 die 2D Spannung von 0,963V auf 0,825V gesenkt. Bringt locker 6 Watt Ersparnis! :bigok:

3D habe ich von 1,000V auf 0,950V gesenkt,
macht 20 Watt Ersparnis im GPU-Tool.

Edit:

Hier nochmal mein alter Wert mit GTX580@Default-Spannung!,825V

(Achtung -keine SSD sonder HDD im System!)

2500K mit Noctua NH-D14 (1x140mm Lüfter)
Intel DP67BG
Evga GTX 580 1,5GB @ 0,825V
16GB G.Skill @1866 CL9 @1,5V
1x Intel 160 GB SSD mit WD Velociraptor 300GB !
1x Hitachi 2,5" 500GB
1x Plextor PX-L890SA
1x 120er NB Lüfter Back
2x 120er NB Lüfter Front
Enermax MODU87+ 500W
M$ Internet Keyboard Pro
Logitech MX518
XBox 360 Gamepad & Bose USB Soundsystem

= ca. 65-66 Watt - mit angeschlossenem Monitor "an"

Willst du mir jetzt erzählen das dein System nur 25-35W im idle verbraucht? der monitor alleine zieht ja 35-45W wenn es an ist...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der Monitor ist exklusive, aber normalerweise zieht die Grafikkarte etwas weniger Saft im Idle, wenn der Monitor aus ist - zumindest verstehe ich den Satz so.

Ich kann mir nur nicht erklären, warum man eine SSD durch eine Raptor ersetzt ^^
 
Der Monitor ist exklusive, aber normalerweise zieht die Grafikkarte etwas weniger Saft im Idle, wenn der Monitor aus ist - zumindest verstehe ich den Satz so.

Ich kann mir nur nicht erklären, warum man eine SSD durch eine Raptor ersetzt ^^

Hast Recht!

Der Wert ist natürlich ohne Monitor. Bei eingeschalteten Monitor verbraucht der PC natürlich mehr Strom.

Die SSD ist zur Zeit im MacMini verbaut ;)
Die Raptor hatte ich natürlich noch übrig.
 
Ahhh - also ohne Monitor :fresse:

Ich habe heute früh gedacht ich schlafe noch als ich das gelesen hatte :fresse2:
 
180W

Core i7@4,5Ghz
Corsair H100 + 2x Originallüfter + 2 x BeQuiet SilentWings
4 x 4GB Corsair Vengeance 1600Mhz CL9 1,5V
Asrock Fatality P67 Pro
2 x GTX275 @ Stock
1 x Vertex 2 120GB
2 x Spinpoint F3 500GB (RAID0 onBoard)
2 x Spinpoint F4 2TB
1 x Spinpoint F1 1TB
1 x DVD-Brenner
3 x 120mm Gehäuselüfter
1 x 220mm Gehäuselüfter
1 x Logitech MX518
1 x normale USB Tastatur
 
Weißt du ungefähr, was das ausmacht? Ich hatte ohne meine F4 2TB etwa 3-4W weniger im Idle, meine ich.

Irgendwo hatte ich mal hier (nicht in diesem Thread) gepostet wieviel die WD verbaucht. Ich mein es waren ca. 5-6 Watt.

Die 2TB WD Black Caviar haut mit 8 Watt und höher rein.

Bei Gelegenheit werde ich die SSD wieder umbauen,
nur momentan keine Zeit :d

Edit: habe nur das Problem, dass mein Steamordner nicht auf die SSD paßt ^^
 
Zuletzt bearbeitet:
hm, da bin ich doch glatt neidisch!!
 
Mal sehen ich habe ja den "Gold" Vorgänger.

Dürfte aber auch ganz gut passen:

ca 65 Watt Idle
ca 295 Watt mit GPU-tool (gtx 580)

Mit Undervolting der gtx 580 komme ich jetzt auf ca 275 Watt evtl sogar noch weniger!

Denke mal bis auf 265 Watt wäre schon ganz gut. Optimal wären natürlich die 250 Watt (50% vom NT) zu erreichen :)

Die 250 Watt dürften aber kaum zu knacken sein, einzig wenn ich den Peter auf die gtx 580 schnalle dürfte mich das etwas näher ans Ziel bringen. Wegen meiner defekten 5870 (wg Peter) bin ich aber vorsichtiger geworden...


EDIT: Merkwürdig ich komme nicht mehr auf die 65 Watt Idle, obwohl ich diese gemessen habe!

Jetzt liegt das System bei 69-70 Watt...
 
Zuletzt bearbeitet:
den gold vogänger habe ich hier auch noch liegen... wird interessant zu sehen wie die sich gegeneinander schlagen.
 
Das Gold ist ja auch schon wirklich super, kam damit auf die gleichen Werte wie die beiden seasonic 330 Watt 80+ und 80+ Bronze im Bereich von ca 35 Watt Verbrauch.

Nur kann man mit denen keine gtx 580 betreiben ^^

Bin kein wirklicher Anhänger von Pico-NT's von daher schau ich halt was "normal" machbar ist .

Schade, dass Seasonic noch nicht auf Lager hat!
 
Habe noch ein paar Messwerte (Minecraft):

2500K & TI560 (2GB) = max. 210 Watt (MSI Z68)
2500K & GTX580 (1,5GB) = max. 252 Watt (Intel DP67BG)
980X & GTX 580 (3GB) = max. 340 Watt

Interessant ist aber beim 2ten Wert, daß die 250Watt eher eine Außnahme ist und meist ein Wert von 210-220 Watt erreicht werden (GTX580).

Die GTX 560TI (2GB) dagegen lief kaum weniger als 210 Watt.
Hier machen sich die 2GB negativ bemerkbar...(von daher hatte ich auch ein Step-Up auf die GTX580 vorgenommen).

Im Idle Verbrauch ist die TI natürlich ungeschlagen gut!


Muss mich mal selber quoten ;)

Habe ja meine GTX580 von 1,000V auf 0,95V undervolted,

Minecraft läuft jetzt auf dem Intel DP67BG (wie oben):

zwischen 185 Watt bis max. 200 Watt (die nicht mal erreicht werden).

Somit ist die GTX580 sparsamer (zumindest in MC) als die Vorgängerkarte die GTX 560TI (2GB) !
 
Zuletzt bearbeitet:
hattest du eigentlich auch mal einen vergleich zwischen dem msi und dem intel board bei sonst gleicher hardware gemacht?
 
Hauptsächlich was hier im Thread steht.

Beide nehmen sich nicht viel, im Idle waren es 1 Watt zugunsten für Intel.
Unter Last war das Intel etwas sparsamer,
dafür hat es tatsächlich Probleme mit meinen Intel X25-M 80GB SSD's!

Werde aber trotzdem das Intel behalten und das MSI z68 vermutlich demnächst hier verkaufen - wobei ich es wirklich nochmal mit dem neusten Bios testen müsste (habe aber keine Lust auf Umbau ^^)
Mein MSI hatte die Bios-Version 1.04.
 
Zuletzt bearbeitet:
das msi hab ich ja mittlerweile auch verbaut, schon beachtlich was ich im vergleich zum gigabyte spare.
mir gefällt das intel aber auch sehr gut, bin da mit einem h67 extrem zufrieden.
 
Fragt sich eigentlich niemand, wie Intel es schafft, dass die eigenen Boards so viel weniger verbrauchen? Bei meinem Versuch mit den H61 Boards hatte das Intel sogar einen 4W geringeren Verbrauch als das baugleiche MSI, dabei war sogar noch eine PCI-Bridge verbaut (die man aber sogar mit den PS/2 im Bios deaktivieren konnte - welch ein Luxus!).
 
die kennen das layout eben am besten :)
 
Ich hätte das gerne technisch irgendwie erklärt. Die verbauten Komponenten sind ja weitestgehend gleich.

Die PCIe- und PCI-Brücken-Chips sind schon mal Stromfresser auf anderen Boards, dazu der Realtek Lan (naja, 1W mehr als der Intel Lan vielleicht), aber wenn nicht mehr verbaut wird als auf den Intel Boards, dann ist der Unterschied im Verbrauch doch recht groß und nicht so einfach zu erklären.
 
Vielleicht laufen die Chipsätze mit etwas geringerer Spannung? Ist nur eine Hypothese...
 
Du meinst, weil zB. bei Asus und Gigabyte Brettern die Spannung bei automatischer Einstellung etwas höher gesetzt ist? Oder der Multi gerne höher gesetzt wird zwecks Leistungsvorsprung (dazu gab es vor kurzem was in der printed)?
Wäre eine Erklärung für deren relativ hohen Stromverbrauch im Vergleich zu MSI und Intel, wobei Asrock hier auch eher auf einem Niveau mit Asus und GB leigt.
 
Genau so meinte ich das. Müsster man aber mal gesondert recherchieren. Ich weiß nicht ob da was dran sein könnte...
 
Ich hatte ja die GTX580 undervoltet und habe 65 Watt gemessen,
jetzt komme ich überhaupt nicht mehr an den Wert !? :fresse:

Jetzt sind es 69-70 Watt

Mit dem Enermax Platimax sind es xx Watt.

GPU-Tool Gold-NT: ca. 269 Watt
GPU-Tool Platin-NT: ca. 266 Watt

Edit: oder liegt es vielleicht an der Ramdisk, daß ich jetzt einen höheren Verbrauch habe?

EDIT:

Habe den Fehler gefunden meine Win 7 Installation war beschädigt!
 
Zuletzt bearbeitet:
2500K mit Noctua NH-D14 (1x140mm Lüfter)
MSI Z68MA-ED55
16GB G.Skill @1866 CL9 @1,5V
1x Intel 160 GB SSD
1x Hitachi 2,5" 500GB
1x Plextor PX-L890SA
1x 120er NB Lüfter Back
2x 120er NB Lüfter Front
Enermax Platimax 500W
M$ Internet Keyboard Pro
Logitech MX518

= ca. 29,5-30 Watt

Wichtig: im Bios/Energiesparen "Green" muss Intel VID ausgewählt werden und nicht EPU !

Wobei ich die Lüfter hinten/vorne noch drosseln muss die laufen "volle Pulle".
 
Zuletzt bearbeitet:
verstehs hier nichtso ganz, da wird high end hardware, die nat viel verbraucht, gekauft und dann wird mit allen mitteln versucht das die möglcihst wenig verbraucht (auch mit denen dei high end hardware alngsamer zu machen)

da werden 200 euro ausgegeben fürn platin netzteil um damit im endefekkt strom für 50 euro im jahr zu sparen, gehts nur mir so oder ist der sinn da wirklich nichtso gegeben, bzw ist das dann einfach gucken wollen was geht ohne echten spargedanken ?

naja ich bin overclocker, mit dem teil wird nur gezockt, alles andere inkl surfen mach ich am macbook pro, das wird immer weniger brauchen als die allermeisten andren systeme.

ich will hier keinen dissen oder so, nur manchmal frag ich echt nach dem sinn der aktionen..
 
Es ist sicher auch Spaß bei der Sache. Aber bei einem HTPC der sehr viel läuft und ggf. noch als Server oder dergleichen dient und selbst wenig gekostet hat kann sich das schon rechnen...
 
ist das dann einfach gucken wollen was geht ohne echten spargedanken ?

Wir sind hier im Luxx, da werden permanent und in allen Hardwaredingen die Grenzen ausgelotet - aus Spaß an der Freud. Das Energiesparen ist ein Nebeneffekt.

ich will hier keinen dissen oder so, nur manchmal frag ich echt nach dem sinn der aktionen..

Im Grunde kannst du bei 90% der Systeme, Mods, Benchs etc. hier im Luxx den Mehrnutzen hinterfragen. Ich könnte dich jetzt (theoretisch) auch angehen und deine Hardwaresammlung oder dein Nutzerverhalten hinterfragen, aber das ist deine Sache und hier im Luxx ist alles erlaubt und gewollt. Wenn du interessiert bist an der Geschichte hier, dann frag doch ganz freundlich, ohne alles infrage zu stellen.
 
es ist auf jeden falle ein testen des möglichen und viel spass dabei.

ich habe mein verbrauch im idle von knapp 60 watt auf ca. 40 watt reduziert, ohne dabei auf leistung verzichten zu müssen.
das kann sich denke ich sehen lassen und passt als optimierung doch wunderbar ins luxx.
 
es ist auf jeden falle ein testen des möglichen und viel spass dabei.

ich habe mein verbrauch im idle von knapp 60 watt auf ca. 40 watt reduziert, ohne dabei auf leistung verzichten zu müssen.
das kann sich denke ich sehen lassen und passt als optimierung doch wunderbar ins luxx.

das stimmt auf jeden fall, es ist halt so das mein gamingrechner nie idlet, er wird wirklich ausschlieslich zum zocken angemacht, zum surfen auf der couch oder arbeiten nutz ich das macbook pro (das dabei zwischen 9 und 15 watt verbraucht) Hab das macbook aber nicht wirklich zum stromsparen gekauft (würde etwas dauern bis man 1150 euro strom gespart hat :fresse: va da der samsung lappi im idle auch nur 30 watt ca frisst) sondern zum gemütlich aufm sofa surfen.
Ich hab halt so das verständniss das high end hardware am limit laufen sollte um wirklich das max an min und max fps herauszukitzeln, eben um noch ne stufe aa mehr einstellen zu können, oder auch ma sgssaa usw, meistens vertragen sich die stromspareinstellungen bzw bemühungen ja garnicht mit übertaktung oder der spielraum wird stark einsgeschränkt..
Kehrseite sind 220watt idle und 540 watt last bei meinem gamingsys (schäm) :rolleyes:
 
Zuletzt bearbeitet:
Ich hab halt so das verständniss das high end hardware am limit laufen sollte um wirklich das max an min und max fps herauszukitzeln, eben um noch ne stufe aa mehr einsteleln zu können, doer auch ma sgssaa usw, meistens vertragen sich die stromspareinstellungen bzw bemühungen ja garnicht mit übertaktung oder der spielraum wird stark einsgeschränkt..
Kehrseite sind 220watt idle und 540 watt last bei meniem gamingsys (schäm) :rolleyes:

Das sehe ich genauso. Ziel war es zB. bei mir, dass ich Leistung auf Abruf habe. Im Idle sehr sparsam, bei Last mit Übertaktung am Maximum. Man könnte sagen, man übertaktet nach oben hin raus und nach unten hin ebenso. Würde Nvidia Optimus endlich auf dem Desktop anbieten, müsste ich das gar nicht erst machen. Die Intel CPUs haben ja mittlerweile alle eine GPU intern, AMD zieht noch nach; da wäre es ein Leichtes, die dedizierte Graka abzuschalten und nur mit der internen GPU zu surfen etc. Das Lucid Virtu ist nicht zuende gedacht, aber immerhin ein Schritt in die richtige Richtung. Soweit mir bekannt, hat Nvidia mal verlautbart, dass Optimus sich per Software umsetzen lasse. Man müsste hier also nur eine olle Software rausbringen und könnte aktuelle Systeme damit kinderleicht nach- bzw. ausrüsten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh