Stromspar-Quatsch-Thread

che: warum sollte eine 5570 weniger verbrauchen, als eine 5670: Gleicher Prozessor und schlechterer Speicher (GDDR3 statt GDDR5)? Das verstehe ich nicht. Aber prinzipiell gilt die von mir selbst zitierte Aussage hier auch: Die 5570 wird nur ein Profil fuer Dual-Monitor haben und nicht drei. Dann läuft der Speicher immer auf volle Pulle:-(

Edit: che, HDMI möchte ich schon haben. Wie ist es mit der hier: click. An was erkennt man eigentlich LOW RDSon

Vielleicht sorgt der GDDR5 dafür, dass der Idle-Verbrauch nicht berauschend ist? Die HD5670 ist kaum sparsamer als die HD5750/HD5770 (2-3W), die wiederum ist auch kaum sparsamer als eine HD5850/5870 (3-4W). Das Powerplay der GPU scheint also hervorragend zu funktionieren.

Zwischen HD5450 und HD5670 liegen aber auf einmal 5-6W, ganz schöner Sprung, an dem der Einsatz von GDDR3 vermutlich nicht ganz unbeiligt ist. Deswegen würde ich abwarten wie die HD5570 ausfällt, denn eins ist der Karte gewiss, bei ähnlicher Leistung, wird sie unter Last/Teillast ein gutes Stück weniger als eine HD4670 ziehen. Vielleicht hat die ganze GDDR3 Geschichte auch Auswirkungen auf den Dual-Monitor-Betrieb.

Low RDS(on) Mosfets schauen so aus (die kleinen schwarzen flachen):
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Danke fuer das Bild. Naja, ich dachte bis jetzt immer, dass der GDDR5 eingebundene Speicher immer sparsamer ist als GDDR3, da auch die Spannung niedriger ist. Andererseits wird er ja wieder schneller getaktet. Vielleicht liegts ja daran, dass er mehr Leistung braucht, wer weiss. Mal sehen, wann erste Tests rauskommen.

Wenn ich mir das hier so ansehe: click, dann macht sich mein passiver Zalman Kühler da besonders gut, denn der kann dann richtig schön von hinten die Wärme rauspusten. Mal sehen, ob das wirklich low profile karten werden
 
Guten morgen

sagt mal hat von euch jemand schon den Stromsar QuadCore Thread gefunden?
Seit ein paar Tagen kann ich den nicht mehr finden..........
 
danke

---------- Beitrag hinzugefügt um 14:33 ---------- Vorheriger Beitrag war um 10:41 ----------

onboard HD 4200 durch eine Sapphire Radeon HD4350 ersätzen

Hab an der Onboard Graka zwei Monitoren hängen, einen am DVI und dan anderen am VGA Port. Da ich aber über den VGA Port kein sauberes Bild bekomme wollte ich ne Sapphire Radeon HD4350 kaufen und beide TFTs an DVI anschließen (den einen durch nan Adapter an HDMI)

Wird der verbrauch vom PC bisschen steigen wenn ich die Onboard Graka durch ne norma Grafikkarte ersätze?#
Was zieht ne Onboard Grafikkarte so?
 
Ansteigen wird der Verbrauch schon, nur wieviel ist immer abhängig vom Board und der Low-End-Graka. Vorallem bei Dual-Monitor-Betrieb kann das nochmal ganz anders aussehen als bei Single-Monitor-Betrieb. Ich hatte nach dem Einbau einer ähnlich viel ziehenden HD4550 einen Anstieg von ca. 11-16W, je nach 790GX Board.
 
Zuletzt bearbeitet:
Ich hab mal E5200 und E3200 verglichen.

Grundsystem:

Zotac GeForce 9300-ITX WiFi (D-E)
2x 2Gb Kingston Hyper X DDR2-667
Pioneer DVR-212D
WD Scorpio Blue 2,5" 320GB
Seasonic S12 430W (ja, das ohne 80 plus :d)

Messgerät:
Profitec KD 302 (die Kopie von reichelt)

E5200(VID: 1,2750V)/E3200(VID:1,2875V)

Idle: 40,5-41,6W/40,3-41,2W
Load (Prime): 76,5-77,9W/71,1-72,4W
Load (LinX x64): 81,8-82,9W/68,8-70,0W
Load (1080p Playback): 47,6-48,9W/46,2-47,7W
Load (Cor2MaxPerf 1.6): 77,6-78,6W/ 74,3-75,0W

Anmerkungen:
- Das LinX Ergebnis verwundert mich ehrlich gesagt, ich kann es jedoch reproduzieren.
- Core2MaxPerf ist eine 32Bit Anwendung, deswegen erzeugt LinX auf dem E5200 auch einen höheren Verbrauch
- Der E3200 erreicht bei LinX nur ~1/3 vom Ergebnis des E5200 (4,6Gflops vs. 13,4GFlops)
- In Zusammenhang mit dem niedrigen Verbrauch kann man vermuten, dass LinX hier einfach wegen zu wenig L2 Cache nicht 100% auslasten kann.

- habe mit PerfWatch die Auslastungen unter LinX verglichen, das Ergebnis ist haarsträubend:

E5200:




E3200:




Zum Vergleich Core2MaxPerf:



Ehrlich gesagt weiß ich nicht welchen ich behalten soll, den E3200 hatte ich mir eigentlich wegen VT besorgt, das benötige ich mittlerweile allerdings nicht mehr.
 
Zuletzt bearbeitet:
Na so sparsam wie Xbit uns das glauben machen wollte scheint der E3200 dann doch nicht zu sein. 5W Differenz inkl. Netzteil- und Spawa-Verluste zum E5200 unter Prime95. JojoTheMaster könntest du bitte auch Core2MaxPerf testen? Das sollte die CPUs noch stärker auslasten.
 
Kann ich machen. Der E3200 hat den Vorteil, dass man ihn mit RMCLock recht einfach auf 1,1V fixieren kann (weiter geht mein Board nicht runter), und ich unter Load maximal auf 62W komme. Da der E5200 einen maximalen Multiplikator von 12,5 hat, muss man erst in der Registry rumspielen, um RMCLock die halben Multis beizubringen.

Wenn beide Prozessoren unter Last auf 2,4GHz und 1,1V fixiert sind, führt der E3200 unter LinX mit 62 gegen 68W schon recht deutlich. Interessant ist auch das Linpack Ergebnis: Bei jeweils gleichen Settings führt der E5200 mit ~13,2GFlops vor dem E3200 mit ~4,6GFlops.
 
Zuletzt bearbeitet:
Der E5200 hat 3 mal so viel Power wie der E3200 in Linkpack? :eek:
Das ist dann wohl auch der Grund für das schräge Verbrauchsergebnis unter LinX, der E3200 wird vermutlich nicht richtig ausgelastet. Irgendwo ist wohl fast immer ein Haken an Sensationsergebnissen.

Interessant wäre beide CPUs@Default unter Core2MaxPerf. Danke schon mal für die Tests und Feststellungen bisher.
 
Zuletzt bearbeitet:
Jo bin grad dran. Der Verbrauch steigt übrigens noch um 1-2 Watt, wenn Core2MaxPerf 10-20min lief, da dann der Prozessor schön warm ist.

Das mit dem Linpackergebnis find ich auch interessant, ich denke da kommt der kleinere und schmaler angebundene Cache an seine Grenzen.

Meld mich dann mit den E5200er Werten zurück.

---------- Beitrag hinzugefügt um 17:10 ---------- Vorheriger Beitrag war um 16:03 ----------

So, habs aktualisiert...
 
Vielen Dank für die Messungen JojoTheMaster. Ob der kleine L2 Cache des E3200 als Puffer nicht ausreicht um die Kerne ausreichend mit Daten zu versorgen? Es scheint bei LinX ein wirklich extremer Flaschenhals zu entstehen, sowohl die Leistung ist unterirdisch als auch der Stromverbrauch implausibel. Dass die CPU mehr (heizen/rechnen) kann sieht man an den anderen 2 Last-Tools.

Verdammt, ich Idiot habe nicht daran gedacht dich darauf hinzuweisen das Tools PerfWatch während der LinX-Messung zu nutzen, um die reale CPU-Auslastung zu sehen. Falls der E5200 z.B. zu 80% ausgelastet ist, der E3200 dagegen deutlich weniger, wäre das ein weiteres Indiz für meine Theorie. Wenn du nun keine Lust mehr hast die LinX-Test zu wiederholen kann ich das verstehen, falls du aber irgendwann nochmal die Muse hast, wäre auf alle Fälle interessant wie die Auslastung mit PerfWatch aussieht;)
 
Zuletzt bearbeitet:
Nach ~20 CPU Wechseln finde ich Gefallen an Intels PushPin Lösung :fresse:

Habs mit PerfWatch nachgeholt (die Sache mit den nicht zertifizierten Treibern nervt ein bisschen, aber für das eine mal..)

Siehe obiger Post ;)
 
Klasse dass du diese Arbeit auch noch auf dich genommen hast. Das ist ja heftig, der E3200 wird nur zu ca. 1/3 so stark ausgelastet wie der E5200 (max. 24% zu max. 66%), jetzt wird so langsam klar was da abläuft...

Also nach diesen Ergebnissen, würde ich eindeutig den E5200 behalten. Wer weiß bei welchen Anwendungen der E3200 noch überall performancetechnisch so absackt. Sparsamer ist der E3200 ja ohnehin kaum, ca. 3W wenn die CPUs ähnlich stark ausgelastet werden.
 
Jo, da hast du wohl recht. Ich werd mich nächste Woche mal an nen VID Mod für den E5200 machen, und dann die beiden mal @1,1V VID vergleichen.
 
Sieht doch gut aus für die HD5570, nur 1W real mehr im Idle als die HD5450. Dabei hat die HD5570 genau so viele Stream Processors + ROPs wie die HD5670. Der recht deutliche Idle-Unterschied zwischen HD5570 und HD5670 wird also hauptsächlich am RAM (GDDR3 vs. GDDR5) liegen, denn der GPU-Takt/Spannung scheint mit 157MHz@0,9V unter 2D gleich zu sein.
 
Zuletzt bearbeitet:
man da haben die ATI Designer ja echt mal was einfallen lassen mit dem Design des Kühler für die HD 5450... Nur interessiert keinen der Kühler in einem engen HTPC. Da wäre es klüger gewesen, einen effektiven 1 Slot Passivkühler zu nehmen. Vor allem da in HTPCs ja der Platz oft Mangelware ist... Naja die Boardpartner werden sich bestimmt was einfallen kassen.

Aber gut, auf dem Karton im Mediamarkt sieht sowas halt einfach besser aus... "PAPPI GUCK MAL, eine geile Grafikkarte mit dem neusten Direct X 11 für nur 59 EURO!!! die MUSS toll sein" :fresse:
 
Zuletzt bearbeitet:
Also mein Server braucht 85Watt, mein Gaming Rechner bei Borderlands 255 mit 2 TFTs und Stereo Receiver :)

Ist das ein guter Wert?

Im Idle ist mein Gaming Rechner bei 180 Watt, kann ich mit leben muss ich sagen.
 
Für uns Stromsparer ist das natürlich bei allen Systemen zu viel ;-) Die 8800GT zieht im Vergleich zu aktuellen Grakas noch recht viel im Leerlauf. Aber da man nicht weiß was die TFTs und der Rechner alleine verbraucht, kann man nicht so viel dazu sagen.
 
Sieht doch gut aus für die HD5570, nur 1W real mehr im Idle als die HD5450.

Aber immer noch mehr als die 4670. Irgendwo verstehe ich das nicht ganz. Kleinere Strukturbreiten, gleicher RAM - eigentlich sollte im Idle weniger drin sein.

Dennoch werde ich mir wahrscheinlich eine zulegen. ca. 2W mehr im Idle, aber beim Abspielen von H.264 ist sie nicht so stromhungrig wie die 4670 (ca. 4W weniger, wenn ich die Zahlen auf SPCR vergleiche).

Beim Low Profile bin ich noch skeptisch, denn die Karte ist dafür länger als meine jetztige 4650. Der Zalman VNF100 Passiv-Kühler, den ich dann montieren werde steht dann oben über anstatt am Ende der Karte (Luftstrom kommt bei mir von hinten). Ob das genauso effizient ist muss man mal sehen.

Ofiziell soll sie ja morgen vorgestellt werden. Warum da SPCR bereits mit Infos und kompletten Review rausrückt.... Hoffentlich werden die umgesetzten Karten genauso verbrauchsarm als die Referenzkarte....
 
Aber immer noch mehr als die 4670. Irgendwo verstehe ich das nicht ganz. Kleinere Strukturbreiten, gleicher RAM - eigentlich sollte im Idle weniger drin sein.

Ich weiß nicht was SPCR da für ne Wunderkarte hat, aber 3W Idle klingt doch recht unglaubwürdig für ne HD4670. Mal sehen was HT4U morgen messen wird, wenns wirklich nur real 1W Differenz sind, sollte die HD5570 genau auf HD4670-Niveau liegen. Wenn die Bauteile aber minderwertiger sind, kann die Karte trotz sparsamerer GPU mehr verbrauchen.

btw, ist der Test nicht mehr aufrufbar
 
Zuletzt bearbeitet:
Also mein Server braucht 85Watt, mein Gaming Rechner bei Borderlands 255 mit 2 TFTs und Stereo Receiver :)

Ist das ein guter Wert?

Im Idle ist mein Gaming Rechner bei 180 Watt, kann ich mit leben muss ich sagen.

Naja die 2TFTs und der Reciever werden schon 80-100W benötigen, bleiben für den Rechner 80-100W. Mit ner anderen Grafikkarte sollte noch Sparpotenzial drin sein.

Der Server verbraucht schon sehr viel, eigentlich ungefähr genau so viel wie der Gaming Rechner im Idle, was ist da für ne Grafik drin?
-----

Ich hab mir jetzt mal einen ESXi 4.0 aufgesetzt mit folgenden Komponenten:

x2 4850e
ASRock A785GMH/128M
4x1GB RAM
400W Netzteil von AcBel
3,5" 160GB HDD von Samsung

erstmal läuft die Kiste mit Standard Bios Einstellungen und aktiviertem C&Q.

der Verbrauch liegt im Idle bei um die 40W.
Wenn ich jetzt im Bios an den CPU Einstellungen rumspiele, geht kein Q&C mehr. Gibt es eine Möglichkeit unter ESXi an der VCore und dem Multi rumzuspielen, basiert ja schließlich auf Linux?
 
So, der Test der 5570 ist online auf ht4u. Die Karte macht einen sehr guten Eindruck. Der Unterschied zur 4670 liegt bei weit unter 1W. Aber der Multimonitor-Betrieb macht mir Sorgen.

Ausserdem geht das Spielchen wieder los, dass kein Vector-Adaptives Deinterlacing möglich ist - so wie bei der 4650. Nicht schon wieder ATI!!!

Deswegen schneidet die Karte wohl bei der BluRay Leistungsaufnahme viel besser ab, als die 4670.

Auch alle anderen Bildverbesserer waren im CCC deaktiviert, was heisst, dass die Treiber wahrscheinlich automatisch diese Optionen abschalten (bei der 4650 war die ofizielle Begründung, dass der DDR2 Speicher nicht schnell genug war).

Ich hoffe nur, dass ATI dies schnellstmöglichst abstellt...

Edit: Was meint ihr: passt auf die Graka mein Zalman VNF 100?click. Zum Vergleich die 4670, da passt er drauf: click
 
Zuletzt bearbeitet:
Passen wird das, nur die Heatpipes stehen über die kleine Karte weit über.

Stell die einfach bei diesem Bild die 5570 low profile vor: Bild

Hier haben sie ja auch einen Zalman VF-1000 benutzt bei der 5570 und das hat gepasst: Bild
 
Zuletzt bearbeitet:
Also jetzt wird es echt lachhaft AMD:
Auch Anandtech bestätigt, dass es Probleme mit Vector Adaptive Deinterlacing gibt: click. Das war bzw. ist bei meiner 4650 auch gewesen, wo der DDR2 Mem clock noch bei 400MHz war. Laut ATI ist die Speicheranbindung zu langsam, um alle Postprocessings zu erlauben. Nach dem Flashen eines ROMs, das 500MHz Memclock lieferte, hatte ich tatsächlich alle Optionen. hier sprechen wir aber von 900MHz DDR3!!! Und es ist alles deaktiviert.

Also wenn ATI da nicht nachbessert, dann wird die Karte die größte Lachnummer aller Zeiten, denn IMHO ist das ganz hart deaktiviert und hat nix mit Leistungseinschränkung zu tun. Schliesslich ist das Niveau der 5570 auf 4670!!!
 
che new hat mir mal seine ATI 4550 geschickt und ich habe mal den Stromverbrauch gegen meiner Untervolteten 4670 getestet.


4670 idle 35,3W GPU load 68W
4550 idle 38,7W GPU load 52W
 
Die Leistungsaufnahme deiner MSI 4670 im idle ist echt ausserordentlich gut. Wahnsinn.

---------- Beitrag hinzugefügt um 22:22 ---------- Vorheriger Beitrag war um 22:15 ----------

che,

dies sind mit Sicherheit keine Low-RDS on, oder?
click MSI 5570
 
Zuletzt bearbeitet:
Mir hat das keine Ruhe gelassen mit meinem Gigabyte HD4550 Exemplar, weil ich die Differenz von ca. 11-16W im Idle zwischen 790GX IGP-Betrieb und HD4550-Betrieb viel zu hoch empfand. Mit der HD4670 wäre die Differenz zur IGP nur ~7-8W (Minimum), wenn man die PCIe Lanes von 16x auf 8x begrenzt kann man sogar noch min. 1W sparen ohne Leistungsverlust.

Aber super verbockt von Gigabyte, da nützen Ferritkern-Spulen und LowRDS(on) Mosfets auf der Graka auch nix...

Edit:@topcaser
Nee, auf der MSI 5570 sind keine Low-RDs on
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh