Manueller Hotfix: Intel reduziert die Idle-Leistungsaufnahme der Arc-Karten

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.960
Im Rahmen unseres Tests der Intel Arc A750 und Arc A770 besonders negativ aufgefallen ist die hohe Leistungsaufnahme der beiden Karten im Idle-Betrieb. Schon beim Test der Arc A380 Anfang August stellten wir eine zu hohe Idle-Leistungsaufnahme fest. Daran hat sich bis heute nichts geändert. Damals sagte Intel, dass man das Problem noch im August beheben wird. Getan hat sich aber bis heute nichts. 45 bzw. 50 W im Idle-Betrieb einfach so zu "verbrennen", ist einfach nicht mehr zeitgemäß.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Don Und - und gehen die Karten nach der Anpassung in den Stromsparmodus im Idle? Wie hoch ist dann der Verbrauch? Funktioniert es auch mit Dualscreen?
 
Ich muss aktuell leider Raptor Lake durchboxen ;) Vielleicht komme ich aber morgen dazu es mal auszuprobieren.
 
Zuletzt bearbeitet:
@Don Und - und gehen die Karten nach der Anpassung in den Stromsparmodus im Idle? Wie hoch ist dann der Verbrauch? Funktioniert es auch mit Dualscreen?
Das würde mich auch brennend interessieren. Ich denke nämlich über die Ablösung meiner RTX3060 durch eine A380 nach. Da ich nicht spiele, sind für mich nur zwei Dinge relevant: Die Qualität des Video-Encoders und die Leistungsaufnahme der Karte. Eine mit 40-50 Watt "idlende" Karte ist da natürlich ein Ausschlußkriterium.
 
@Don Ich hab schonmal etwas vorgearbeitet :d
Habe dazu auch ein Wattmeter an mein PC angeschlossen was den Gesammtverbrauch misst.
System ist aktuell ein Minisforum B550 mit einem Ryzen 5700G, 2x 8GB PC3200 DDR4 Ram, 2x NVMe SSD (WD Red SN700 500GB, Intel Optane M10 16GB), 1x SATA SSD (960GB Seagate IronWolf 125), Netzteil: BeQuiet StraightPower 11 750W Platinum.

Energiespareinstellungen steht bei allen Tests auf Ausgeglichen bis auf die besagte PCIe Energiespareinstellung

Hier in der Standard-Ausgeglichen Einstellung (PCIe Energiespareinstellung steht auf Mittel)
Das System brauch im Idle zwischen 65W und 67W(je nach geöffneter Fensteranzahl)
1x GPUz A770 Mittlere PCIe Energiespareinstelung - 65W Gesammtverbrauch .jpg A770 Mittlere PCIe Energiespareinstelung - 67W Gesammtverbrauch.jpg


und jetzt mit der einfachen Änderung der PCIe Energiespareinstellung auf Maximum (geht instant sowie man auf übernehmen klickt)
Das System brauch im Idle nur noch zwischen 36W und 38W (je nach geöffneter Fensteranzahl)
1x GPUz A770 Maximale PCIe Energiespareinstelung - 36W Gesammtverbrauch  .jpg A770 Maximale PCIe Energiespareinstelung - 38W Gesammtverbrauch.jpg


Ernüchterung gibts beim Dual-Monitor betrieb - dann bringt die Maximale Energiespareinstellung absolut garnichts mehr, die karte genehmigt sich damit die ganze zeit exakt soviel wie bei der Mittleren Energiespareinstellung :(
Getestet mit zwei FHD 60Hz Bildschirme, einer über DP, einer über HDMI
 
Zuletzt bearbeitet:
@AssassinWarlord Danke für die Tests. Ich habe das Gefühl, als wenn der Idleverbrauch immer noch höhe ist als mit modernen AMD/nVidia GPUs. Hast du da Vergleichswerte für das System? Die Problematik mit 2 Monitoren tritt m.E.n. auch bei AMD/nVidia auf. Keine Ahnung, wieso die GPU vendors das nicht in den Griff bekommen.
 
Ich kann ja mal den Verbrauch mit einer gtx 3060 und 3090 testen...
Und die pcie energiespareinstellungen werden sofort übernommen sobald man auf übernehmen geklickt hat
 
Das würde mich auch brennend interessieren. Ich denke nämlich über die Ablösung meiner RTX3060 durch eine A380 nach. Da ich nicht spiele, sind für mich nur zwei Dinge relevant: Die Qualität des Video-Encoders und die Leistungsaufnahme der Karte. Eine mit 40-50 Watt "idlende" Karte ist da natürlich ein Ausschlußkriterium.


Also bei meiner Asrock A380 hat es etwa 10 Watt gebracht mit dem "Idle Profil". Nur mit iGPU, also ohne dGPU im System, sind es nochmal 7 Watt weniger (gemessen an der Steckdosse vo gesamten PC). Demnach müsste die Karte bei etwa 7 Watt liegen und vorher ohne Fix irgendwo zwischen 15-20 Watt. Das ist mit Single Monitor 60HZ 1080p. Wobei das Idle ohne Aktivität ist. Sobald man irgendwas macht, z.B. im Internet surft, steigt der Verbrauch logischerweise.
 
Da wäre jetzt noch der Dual-Monitor-Betrieb spannend.
Im Test zog die A380 ja 18,x Watt Idle im Single-Monitor-Betrieb. Da 10 Watt weniger, wäre ja halbwegs ok für eine Einsteigerkarte.
 
@AssassinWarlord Danke für die Tests. Ich habe das Gefühl, als wenn der Idleverbrauch immer noch höhe ist als mit modernen AMD/nVidia GPUs. Hast du da Vergleichswerte für das System? Die Problematik mit 2 Monitoren tritt m.E.n. auch bei AMD/nVidia auf. Keine Ahnung, wieso die GPU vendors das nicht in den Griff bekom

GTX 1660 circa 8,5 Watt Single Monitor und 10,5 Watt Dual Monitor im Idle.
 
ist er auch, habe hier schonmal den ersten Schwung an Benchmakrs gepostet:

mit einer RTX3060 und auch 3090 spare ich nochmals 10W im idle
 
GTX 1660 circa 8,5 Watt Single Monitor und 10,5 Watt Dual Monitor im Idle.


Das kommt ganz gut hin. Ich habe meine GTX 1660 Super eingebaut, sie liegt etwa 3 Watt über der Arc A380 im Idle mit Stromsparprofil. Bei der GTX 1660 hat die PCI Express Einstellung bei den Energieoptionen gar keinen Einfluss. Ob ich maximale Energieeinsparung wähle oder Aus einstelle, macht keinen Unterschied. Bei der A380 geht der Verbrauch sofort 10 Watt nach oben, sobald ich von maximale Energieeinsparung auf mittlere Energieeinsparung wechsle.
 
Kann man den sagen, ob eine A380 im System (inklusive dieses "Hacks") mehr oder weniger Stromverbrauch im Alltagsbetrieb (bei mir vor allem Internet, Filme schauen und so weiter) mit zwei Bildschirmen erzeugt als eine RTX3060? Nur, wenn das weniger ist oder etwa gleich, würde ich das Experiment mit der Intel wagen.

Die Vorteile bei mir wären die Unterstütrzung von mehr Codecs in Hardware und - das aber eben vorbehaltlich eines Tests - eine schnellere Videocodierung in besserer Qualität. Das Einzige, was ich jetzt schon sicher weiß ist, daß die Intel sehr schnell codiert.
 
Als Hack würde ich das nicht bezeichnen, das sind ganz reguläre settings. Womöglich würde bei vielen Systemen schon die Windows PCIe max Einstellung reichen. Wenn APM im Bios auf auto steht kann das reichen. Habe ich bei meinem Board nicht getestet. Mal sehen, vielleicht schaue ich mir das mit einem zweiten 1080p 60 Hz Monitor an.
 
Also eine rtx 3060 braucht weniger Strom im Dual Monitor Betrieb als eine A770 mit dem "hack" bzw Einstellung ;)
 
Ok.... und sind A770 und A380 in der Hinsicht vergleichbar?

@Balzon2

Ich habe "Hack" auch extra in Gänsefüßchen geschrieben. Aber es ist schon ein "Von hinten durch die Brust ins Auge"-Trick, wenn dazu Änderungen im OS vorgenommen werden müssen, anstatt die Karte von sich aus in die Energiesparmodi wechselt. Da hat Intel noch eine Menge Arbeit vor sich. Und daß es mit dem Treiberupdate nicht wie versprochen funktionierte (auch die Lüfter laufen wohl noch unrund), läßt befürchten, daß die Hardware hier einen Bug hat, der dann wohl erst mit der zweiten Generation Alchemist beseitigt wird.
 
Ich denke mal das Intel da irgendwann mal nen GPU-BIOS Update für die Karten anbietet.
 
Ok.... und sind A770 und A380 in der Hinsicht vergleichbar?

@Balzon2

Ich habe "Hack" auch extra in Gänsefüßchen geschrieben. Aber es ist schon ein "Von hinten durch die Brust ins Auge"-Trick, wenn dazu Änderungen im OS vorgenommen werden müssen, anstatt die Karte von sich aus in die Energiesparmodi wechselt. Da hat Intel noch eine Menge Arbeit vor sich. Und daß es mit dem Treiberupdate nicht wie versprochen funktionierte (auch die Lüfter laufen wohl noch unrund), läßt befürchten, daß die Hardware hier einen Bug hat, der dann wohl erst mit der zweiten Generation Alchemist beseitigt wird.


Intel hält sich anscheinend strikt an die ASPM Power Management Spezifikation und ist im Gegensatz zu Nvidia darauf angewiesen. Von einem Hack zu reden ist daneben. Der Treiber kann nicht das Problem sein, wenn sich das mit einer simplen Windows Einstellung beheben lässt. Wer sich damit überfordert fühlt, dürfte eher andere Probleme haben. Deswegen würde ich dir von einer Arc abraten.

Die Frage ist eher, kann Intel Windows umgehen oder kann Microsoft ein Update bringen, so dass die Karte schon im balanced Modus in den G5 power state wechselt. Von einem Lüfterproblem merke ich bei mir nichts, der Lüfter bleibt im Idle sowieso quasi immer still. Bei der Gunnir ist die Lüftersteuerung wohl ziemlich unrund ja, das sollte man nur nicht verallgemeinern und daraus einen Hardware Bug konstruieren.
 
Von 10 Watt idle kann ich nur träumen mit meiner 2080...

Die will nicht unter 20 Watt gehen im idle, egal was ich im BIOS oder Windows/Treiber einstelle...

2080.gif
2080_1.png
 
Zuletzt bearbeitet:
Und wenn die Argumente ausgehen, wird man beleidigend, @Balzon2 ??

Wo sind jetzt deine Argumente? Du springst vom Idle Verbrauch zur Lüftersteuerung, weil sie dir schon lange ausgehen. Du suchst nach Gründen, um dir die Arc auszureden. Du bezeichnest eine ganz reguläre Energieoption als einen Hack, tust so als wenn die einmalige Abänderung eine hochkomplizierte Wissenschaft darstellt. Aber die CPU oder GPU zu übertakten oder einen Treiber zu installieren, das ist alles kein Problem. Es muss immer gleich übertrieben werden. Die Arc ist nichts für dich, bleibt besser bei deiner Nvidia und sei glücklich. Den Test mit dem zweiten Monitor spare ich mir.
 
@Balzon2

Mich hier als Idioten hinzustellen, IST eine Beleidigung!

Hopp mit dir auf die Ignore-Liste! Glückwunsch, du bist der Erste!
 
Es wäre gut, an der Problematik dranzubleiben.
Also konkret: Gibt es Updates von Intel, die neben diversen anderen Probleme auch den hohen Energieverbrauch der Karten fixen?

Und zwar konkret für mich den Idle-Verbrauch bei Dual-Monitor-Betrieb.

Der ist bei mir der Standard. Und so lange die Intel da 40-50 Watt zieht, sind alle Versuche, umzusatteln, hinfällig. Denn hauptsächlich benutze ich den PC zum Surfen und Fernsehen. Also im "Fast-Idle". Aber eben mit zwei Monitoren. Der zweite Zweck ist das Video-Encoding, das ich größtenteils mit der Grafikkarte erledige, um Energie und Zeit zu sparen. Bei wenig anspruchsvollem Material (TV-Mitschnitte in 720p) ist die Karte bei praktisch identischer Qualität in einem Bruchteil der Zeit des CPU-Encodings durch, und verbraucht dabei auch im Maximum erheblich weniger Strom als die CPU.
Nur bei schwierigem Bildinhalt (etwa verrauschtem Original, kommt bei älteren Filmen öfter vor) nehme ich noch die CPU (Handbrake), weil das Encoding da weniger klötzelt udn besseres Feintuning möglich ist.

Gesetzt den Fall, die Intel codiert in besserer Qualität als meine Nvidia 3060, wäre sie eine Überlegung wert. Aber eben nicht, wenn sie den Stromverbrauchsvorteil bei Encoden durch den hohen Idle-Verbrauch hinterrücks wieder auffrißt.
 
Zuletzt bearbeitet:
Kannst du das an der Steckdose messen? GPUz ist bei mir nicht zuverlässig.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh