AMD Grafikkarten und extrem hoher Verbracuh bei HD Video / TV ?

mugger

Semiprofi
Thread Starter
Mitglied seit
05.10.2004
Beiträge
5.570
Hatte mal eine 5870 und bemerke dort "absurd" hohe Strom-Verbrauchswerte, wenn ich mit meinem TV Stick HD Sender sah.

Habe jetzt eine 280x und hier scheint sich genau das selbe Elend zu zeigen.
Zwischen SD und HD liegen etwa 35W - CPU ist bei 1% Auslastung, also verarbeitet das Video wohl alleine die GPU.

Kurzer Test mit dem iGP vom i7-4770 ergab nur 2-3W Unterschied - es steht also fest, es ist die Grafikkarte.

In den Treibern sehe ich nichts, um irg. den Stromverbrauch zu beeinflussen, keine der bei den alten 5870 standardmäßig aktivierten Verschlimmbesserungen ist hier aktiv.

Nachdem ich den Haali Spliter installierte und diesen nutze, sank der Verbrauch (mkv / mp4) um knapp 20W - optimal ist das aber immer noch nicht.
AVIs erzeugen keinen höheren Verbrauch - also event. eine HW-Codec Geschichte innerhalb des Karte/Treiber?

Wenn jeman einen schlauen Tipp über hätte, ich nehm ihn :)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
schau dir mal die taktraten deiner graka an wärend du tv guckst.
 
Ich glaube, dass ist so eine AMD Sache. Ich meine dass sieht man auch in Reviews, dass die AMD Grakas bei Videowiedergabe ungewöhnlich viel Strom ziehen. Ich denke nicht, dass man daran etwas ändern kann.

Wenn jeman einen schlauen Tipp über hätte, ich nehm ihn :)

Im Prinzip hast du doch schon die Lösung in deinem Post stehen: die iGPU deines i7.

Schalte im Mainboard Bios die iGPU an, belasse aber die AMD Graka als primäre Grafikkarte und installiere die Intel iGPU Treiber. Dann schliesst du die iGPU mit einem zweiten Kabel an deinen Monitor an und kannst dann über einen Rechtsklick auf den Desktop -> Bildschirmauflösung einstellen, dass dein Desktop auf dem "anderen" Monitor (der zur Intel iGPU gehört) angezeigt wird. Das Bild wird schwarz, der Monitor sucht das Signal und wird sollte sich automatisch auf das Intel iGPU Signal umstellen.

Vor dem Ausstellen des PCs musst du aber wieder auf die AMD Graka umstellen, denn wenn du mit der Intel iGPU bootest, taktet sich die AMD Graka gar nicht runter und zieht, obwohl unbenutzt (Zero-Core Power funktioniert hier auch nicht), richtig derbe Strom.

Oder du schraubst dir eine NVIDIA Graka rein, ich meine, die verbrauchen bei Videowiedergabe deutlich weniger. Aber ich habe das jetzt nicht nachgeguckt.
 
Zuletzt bearbeitet:
Wobei man bei 15W Unterschied (dank Haali Splitter, wenn ich das richtig verstanden hab) jetzt mal nicht von "extrem hohem Verbrauch" reden würde...

@TARDIS: Bezieht sich der Mehrverbrauch bei den AMDs (vs NV) wirklich auf Videowidergabe? Ich erinnere mich nur von Runtertakt-Problemen bei Multimonitorbetrieb gelesen zu haben.
 
Ich habe gerade noch einmel nachgeschaut; meine vage Erinnerung, basiert wohl auf den Messwerten der Seite: techpowerup.com

Die messen u.a. auch den Stromverbrauch bei Blu-ray Wiedergabe:

GTX 960: 9W
GTX 970:14W
R9 280X: 53W
R9 290X: 72W

Leider haben die keine iGPU gemessen. :(

Bei Interesse könnte ich es nachmessen, ich habe eh immer die AMD Graka und parallel die Intel iGPU an.
 
Zuletzt bearbeitet:
Heute Nacht hab ich den Crysis Warhead MOD MWLL gespielt, aus Versehen mit 600 MHz GPU Takt und 900 MHz VRAM Takt. Was soll ich sagen? Es lief total flüssig und später dann als ich dieses bemerkte fiel mir auf, daß meine GRAKA per CCC auf Stromsparen eingestellt war. Muß ich jezt den Stromverbrauch meiner Radeon 5870 in Frage stellen????
 
da es hier gerade um stromverbrauch geht.... was ich gute finde mit win 8.1 .... hab hier an meiner wirreless tastatur einen power button ..da brauch ich nie wieder zum pc... gerade stand by verbrauch gemessen.... 0,6 - 0.9 watt


schaltet relativ schnell ein/aus ohne das windows runter/hoch fährt..wie standby
 
Zuletzt bearbeitet:
Das liegt aber nicht an Windows, das liegt an deinem Netzteil und welche Stromspar Modi von diesem unterstützt werden. Meines ist von 2006 und da liege ich im Stromverbrauch bei ausgeschaltetem Computer per Power-Button noch immer bei 10 Watt.
 
Zuletzt bearbeitet:
achso... musste maln neues holn...meins war auch nur gebraucht von ebay .... Netzteil Enermax MODU 87+ 800W (EMG800EWT) | eBay



habe letztens dirt rally gezockt ..verbrauch um die 200 watt der gesamte pc.... also reicht schon 400 watt netzteil aus eigentlich...hatten aber nur 800 gerade da :-) :-/


edit

wenn ich rumsurfe ( ohne tube videos ) frisst mein pc ganze 40watt mehr...liegt das auch am netzteil ? weiss das wer ?

da komm ich auf knapp 90 anstatt 50 idle :-(
 
Zuletzt bearbeitet:
Könnte an deinem Browser liegen. Wenn im Browser die Hardwarebeschleunigung eingeschaltet ist, dann taktet die Grafikkarte hoch sobald der Browser geöffnet wird.

Für Windows 7 gibt es ein Sidebar-Gadget von Orbmu2k das die Taktrate der Grafikkarte anzeigt. http://orbmu2k.de/

Damit kannst du sehen wie deine Grafikkarte taktet beim Browser öffnen.
 
Zuletzt bearbeitet:
Ich habe gerade noch einmel nachgeschaut; meine vage Erinnerung, basiert wohl auf den Messwerten der Seite: techpowerup.com

Die messen u.a. auch den Stromverbrauch bei Blu-ray Wiedergabe:

GTX 960: 9W
GTX 970:14W
R9 280X: 53W
R9 290X: 72W

Ja, ist wohl leider so - habe eben auch gerade noch mal nachgesurft - ich hatte dieses Thema eig. nicht mehr aktiv verfolgt, da ich vor 1,5 Jahren aufs Notebook umgestiegen war (GT730m) und mir die Grafikkarte dort eig. langte.

Aber wenn man zu viel Geld hat und einem ein Schnäppchen in Form eine Kompeltt PCs übern weg läuft... ;)

Naja, auf der CPU Seite ist AMD ein Zombie (tot, steht aber irg. noch) - auf der GPU Seite sieht es besser aus - aber mit der AMD "Krankheit" nur unter extremen Stromverbrauch.

War vor Kauf dieses Kiste noch 70/30 pro Nvidia - hätte bei einem Kauf von Einzelkompnenten also durchaus noch eine AMD Karte sein können, jetzt 95/05 pro Nvidia ;)
 
Zuletzt bearbeitet:
Das liegt daran, dass AMD standardmässig jede Menge Filter aktiviert, die dann teilweise über die Shader laufen. Es ist also keineswegs so, dass die Videowiedergabe selbst zu hoch wäre. Einfache Rechnung, bessere Bildqualität gibt's nicht umsonst. ;) Hinzu kommt, dass der Shadertakt zwar idR in der niedrigsten Stufe bleibt. Allerdings taktet der VRAM hoch, was mMn nicht notwendig ist.

Ich würde zwei Sachen empfehlen. Erstens, VRAM Takt beschränken. Das geht sehr einfach über das CCC. Gibt aber sicherlich auch andere Tools dafür. Zweitens, im CCC gibt es auch jede Menge Einstellungen für Videos. Versuche einfach mal alles zu deaktivieren, was du nicht brauchst.
 
Zuletzt bearbeitet:
Das ist leider mit der Grund warum ich wieder zu Nvidia gewechselt bin. Sollte sich das endlich mit Fiji ändern werde ich wahrscheinlich wieder wechseln :)

Der Speicher ist die Ursache. Schleppt AMD jetzt auch schon seit der HD 4870 mit sich rum....Der Speicher ist auch oft die Ursache für das Bildflackern beim Hochtakten und Runtertakten. Wie mr.dude schon sagt taktet der direkt auf die höchste Stufe im zweiten Modus.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh