Hoher Stromverbrauch in Basic Anwendungen (Browsen usw) mit RTX 4090 und 13900K

BlueFireXD

Experte
Thread Starter
Mitglied seit
28.10.2020
Beiträge
1.499
Hallo,

ich habe folgendes System:
CPU: Core i9 13900K (kein OC, läuft im POR 253W Limit)
Mainboard Gigabyte Z690 Aours Master (Keine OC Themen aktiv)
GPU: Gigabyte RTX 4090 Master (kein zusätzliches OC)
Bildschirm: LG 27", 144Hz, UHD
OS: Windows 11

Was mich dabei stört ist, dass für Basic Anwendungen wie Browsen im Internet, Youtube, einfache Tools wie Texteditoren, IDEs usw. nur der PC alleine (ohne Bildschirm usw.) ständig um die 110W benötigt. Das ganze springt bei jedem Fensterwechsel, neuen Tab usw. auch gern mal auf 130W, 150W oder gar 180W+. Im Verglichen mit einem Handy das sowas vielleicht mit nur 5-10W schafft oder ein Notebook dass es mit 30-40W schafft (wobei da sogar noch der Bildschirm integriert ist) erscheint es noch viel extremer.

Folgendes habe ich mal getestet und der Verbrauch reduzierte sich auch.
- In den erweiterten Energieoptionen die maximale Prozessorlast auf 70% zu reduzieren (hier scheint es egal zu sein ob man 99% oder 1% einstellt. Sobald man unter 100% ist kann die CPU nicht mehr über 2,2 GHz)
- Bildwiederholfrequenz auf 60Hz statt 144Hz reduzieren.

Das ganze hatte die Stromaufnahme von 110W auf 90W im IDLE senken können. Sobald aber ein YT Video läuft sind es aber sofort wieder 20-30W mehr, teils auch 60W.
Mir scheint die RTX 4090 für einfache "Aufgaben" wie YT unverhältnismäßig viel Strom zu verbrauchen.

Wie sieht bei euch der Stromverbrauch mit ähnlichen Systemen aus?
Habt ihr ggf. eine einfach/komfortable Lösung um den Stromverbrauch 30-50% zu senken ohne dabei z.B. jedes mal ein andere VBIOS laden zu müssen?
...Klar hat man hier ein High-End System was natürlich Strom frisst. Aber da müsste doch noch was optimierbar sein?

Gerade eben mal kurz vom Chrome in Edge gewechselt und zack Peaks auf 80W GPU Verbrauch angezeigt bekommen... WTF!
Soeben auch mal nur auf der UHD 770 vom 13900K laufen lassen. die IGPU benötigt für Youtube sparsame 5W (bei 60Hz). -> Nvidia 40-60W vs. Intel 5-10W !? o_O

PC und Bildschirm (~35W) zusammen benötigt so aktuell etwa 140-150W mit Peaks bis 180W nur zum Surfen oder Texte lesen...
 
Zuletzt bearbeitet:
Also mit einer 6900xt bin ich im Idle "normal" bei 40-45W.
Die GPU taktet nicht richtig runter, sobald entweder mehr als 1 Monitor oder ein Monitor mit mehr als 60Hz angeschlossen ist. Reduziere ich auf einen Monitor mit maximal 60Hz, geht die GPU auf ~20W runter. Sie taktet aber immernoch nicht komplett runter. Meist hab ich 20W, manchmal geht sie aber auch auf 6-8W runter, manchmal bleibt sie aber auch stur bei ~20W "hängen".
Hab noch nicht rausgefunden woran der letzte Schritt liegt, aber der von 40 auf 20W liegt definitiv an den Monitoren, bzw. deren Einstellungen.
Wenn ich den Bildschirm ausschalte, bleibt die GPU auf ihren 6-8W.

GPU und CPU im Energiesparmodus, dann bleibt die GPU auch bei ~20W.

Gesamtsystem wie im Profil (inkl. Monitor):
Idle (ruhender Desktop) mit Energiespareinstellungen und mehr als 60Hz ODER 2 Monitoren (*): 140-150W.
Mit Energiespareinstellungen und Monitor auf 60Hz: 110-120W.
Monitor aus: 80-85W.

Der Monitor selber braucht auch nochmal ein paar Watt weniger, wenn er mit nur 60Hz läuft.

(*) Wenn ein zweiter Monitor erkannt wird, auch wenn er in den Anzeigeeinstellungen deaktiviert ist, hängt die GPU auch bei ihren 20W, sie kommt dann nie auf die 6-8W runter.
Also z.B. wenn der ebenfalls angeschlossene TV nur im Standby ist, erkennt die GPU weiterhin einen Monitor und bleibt bei 20W. Ich muss den TV wirklich vom Strom trennen oder das HDMI-Kabel ausstecken, damit die GPU zumindest auch manchmal auf 6-8W runtergeht.
 
1.jpg2.jpg3.jpg
Versuch mal, FPS Limit entsprechend deinem Monitor (Hz) natürlich

Bei der CPU machen diese Stromsparmodis keinen Sinn, schon länger nicht mehr, kannst rausschmeissen (bios)

Gruss
Beitrag automatisch zusammengeführt:

Hab noch nicht rausgefunden woran der letzte Schritt liegt, aber der von 40 auf 20W liegt definitiv an den Monitoren, bzw. deren Einstellungen.
Wenn ich den Bildschirm ausschalte, bleibt die GPU auf ihren 6-8W.
Immernoch das Problem bei AMD mit mehreren Bildschirmen, krass
Hardwareseitig taktet die Graka dann nicht so weit runter und der VRAM taktet durchaus voll durch, das kenn ich noch von der 7870 und der 7970

Gruss
 
Ob das bei Deinem Problem hilfreich ist weiß ich nicht, aber ich lege jedem 4090 Nutzer dieses Video ans Herz; es lohnt sich....
 
Mal nen kleines Update. Bisher habe ich zumindest mithilfe der Windows 11 Energieoptionen die CPU etwas gedrosselt. Die läuft fürs Browsen usw. auch mit 2,2GHz immer noch reichlich flott ohne dass man was merkt. Dabei scheint es eben egal ob man 99% oder 1% einstellt. Sobald man unter 100% ist, scheint die CPU auf ca. 2,2 GHz limitiert zu werden. Fürs Arbeiten, Browsen usw. switch ich aktuell einfach in den Energiesparmodus und für anspruchsvolleres wie Gamen usw. wieder in den Ausbalanciert.
Damit lässt sich im Schnitt Youtube mit 120W (ohne Bildschirmverbrauch) schauen. Den Text hier kann ich gerade mit den 100-110W schreiben. Die CPU zeigt es mir in HWInfo mit ~4W nun an. Ohne das Limit sprinkt der Verbrauch wenn man nur die Maus bewege und das YT Overlay mit dem Balken etc eingeblendet wird temporär auf 210W. Davon ist auch wieder viel von der 4090 mit dabei da die dann auch meint 60W zu benötigen um das overlay anzuzeigen aber mit dem Limit in den Energieoptionen scheint der Prozessor gezügelt zu sein und man landet ehe bei 150-180W und dann wieder schnell bei 120W. Diese Peaks auf 140W, 180W, 210W usw. sind ohne das Limit auch relative oft wodurch im Durchschnitt vermutlich der Verbrauch auch relativ hoch sein dürfte. Von daher bringt diese Limit in den Energieoption immerhin etwas.

Hauptproblem bleibt denk noch die 4090. Die iGPU des 13900K schafft alles mit um 5-10W. Nvidia mit 30-60W. Bei der 4090 gibt es also noch Verbesserungspotential.

Jemand zufällig ne Idee wie man die GPU unkompliziert auf ggf 10-20W bekommt und sie dort auch halten kann ohne dass sie gleich bei nem Video hochtaktet und 60-80W verbraucht?

Energieoptionen 13900K angepasst.png
 
Zuletzt bearbeitet:
Du schaltest die Hardware-Beschleunigung im Browser aus, dann muss die CPU das Video rechnen^^
Aber ob das heute noch so wirklich praktikabel ist...

Ich würde es vielleicht mal mit Hybrid-Grafik probieren. Das sollte nämlich eigentlich auch auf dem Desktop gehen, zumindest Windows 10 kann sowas wohl grundsätzlich "out of the box". Also vielleicht ggf. einfach mal im BIOS einstellen, daß die Onboardgrafik immer mitlaufen soll (falls nötig), und Monitor mal da dran. Und dann sollte man eigentlich in der nVidia-Systemsteuerung einstellen können, welche Anwendung auf welcher Grafik läuft. Die RTX würde dann quasi ihren Output über PCIe rumschieben, kostet halt da etwas Bandbreite.

Selbst für ein Highend-System finde ich 90 W im Leerlauf schon etwas heftig. Ich würde mal nachsehen, ob ASPM für DMI und PCIe auch aktiv ist und wie es um die C-States der CPU bestellt ist (ThrottleStop verrät näheres).
 
Ich weiß auch nicht ob das praktikabel ist, aber der TE sucht scheinbar Wege um seine Graka zu entlasten, und das ist einer^^
 
Die CPU wird dazu in jedem Falle mehr Energie verbrauchen, davon ist mal auszugehen.
Interessant ist sicherlich was da sonst noch so alles dranklemmt und Leistung aufnimmt.

Gruss
 
Gigabyte RTX 4090 Master (kein zusätzliches OC)
Die Grafikkarte hat zwei Bios Versionen (OC und Silent, per Schalter wählbar), hast du das zweite Bios schon getestet?
Der PC sollte aus und vom Strom getrennt sein, wenn du das GPU Bios wechselst.
GPU Bios.jpg

Außerdem gibt es ein neues GPU Bios auf der Gigabyte Webseite: https://www.gigabyte.com/Graphics-Card/GV-N4090AORUS-M-24GD/support#support-dl-bios
Und eine neue Firmware für den RGB Controller: https://www.gigabyte.com/Graphics-Card/GV-N4090AORUS-M-24GD/support#support-dl-firmware

Mainboard Gigabyte Z690 Aours Master (Keine OC Themen aktiv)
Ist das aktuelle Mainboard Bios F22 installiert?
Mit älterer Bios Version z.B. F20 wird die Generation 13 CPU nicht 100% unterstützt.
Download Bios: https://www.gigabyte.com/de/Motherboard/Z690-AORUS-MASTER-rev-1x/support#support-dl-bios


Ist die aktuelle Intel Me Firmware installiert?

Welche Intel ME Firmware ist bei dir installiert?
Wenn nicht mindestens Version 16.1.25.1917 installiert ist solltest du die Intel Me Firmware updaten.

Download Intel ME Firmware (Intel_v16.1.25.1917) Download: https://www.dropbox.com/s/qc4y5yeujx6p416/ME_Intel_v16.1.25.1917.zip?dl=0

Das Problem ist hier beschrieben: https://www.hardwareluxx.de/index.php/news/hardware/mainboards/59748-bios-mit-fehlerhafter-me-auch-gigabyte-deaktiviert-somit-primären-m-2-slot.html
Du kannst auch einfach die M.2 SSD aus dem ersten M.2 Slot entfernen und einen anderen M.2 Slot verwenden.

intel-me-update-jpg.836987


Hast du den aktuellen Intel Chipsatztreiber Version 10.1.19199.8340 für die Intel i9 13900K CPU installiert?
Die meisten User wissen nicht was die Intel inf Installation ist, das ist der Intel Chipsatztreiber.

Download Intel Chipsatztreiber Version 10.1.19199.8340 (vom Gigabyte Server): https://download.gigabyte.com/FileL...9.8340.zip?v=29f88b8d4797d2bcb46dd944cf074171

Auslesen kannst du die Intel Chipsatztreiber Version in der Windows Registry (Ausführen-> Regedit-> HKEY_LOCAL_MACHINE\SOFTWARE\Intel\InfInst)
Fehlt der InfInst Ordner, ist kein Intel Chipsatztreiber installiert (Bild unten).
intel-chipsatztreiber-version-auslesen-jpg.777478
 
Zuletzt bearbeitet:
Danke, für die Rückmeldungen.
Ich teste mal alles durch, Chipsatztreiber, Firmware, Bios Einstellungen usw. Wobei ich das meiste schon auf dem aktuellen Stand habe^^.

Bei den Bios Einstellungen war ich gestern schon dran und hab reichlich Bluescreens fabriziert. Im Bios das Power Plattform Management aktiviert (u.a. dort dann das DMI Thema) lässt einem im Windows Energiesparmodus schnell Bluescreens um die Ohren fliegen.
Im Energiesparmodus darf für PCIe wohl nur "Mittlere Energieeinsparung" aktiviert sein bzw. muss man iwo was im Bios anders einstellen damit es da keine Probleme gibt. Allerdings will ich es gar nicht im Bios einstellen müssen sonder so handhaben dass es über die Windows Energiesparpläne automatisch geht. Ich will später nur noch zwischen Energiesparmodus und Ausbalanciert (oder Performance) wechseln müssen.

Energiesparmodus: Fürs Office, Multimedia (Texteditoren, Browser, Creatives usw.) bei dem um die 50W angestrebt werden. Davon bin ich ja mit den 110W noch weit entfernt. ~60W (YT 4k Video) alleine die RTX 4090.
Ausbalanciert: Fürs Gaming, Render whatever.
Performance: Hab ich bisher nicht gebraucht. Womöglich könnte man da nochmal eine Abstufung zum Ausbalanciert schaffen...

PCIe Powersaving.png
 
Bei AMD muss man per Hand "Global-C-State" im Bios aktivieren, sonst spart die CPU im IDLE keinen Strom.
Auch muss man in Windows auf "Beste Energieeinsparung" umstellen!

1673176975038.png


So konnte ich meinen IDLE von 100W auf 85W senken.

Richtig Stromsparen kann man aber mit aktueller Gaming-Hardware nicht! Ein Gaming-Rechner verbaucht immer 80+W im IDLE.
Wer einen Stromsparrechner haben will, muss eben andere Hardware kaufen. Kein "Z" Board keine "K" CPU. Und kein OC RAM.

Auch Grafikkarten verbrauchen im IDLE viel Strom:

1673177697487.png


Deine 4090 alleine 21W im IDLE!


1673177900343.png


Meine 6700XT ganze 6W im IDLE! (Allerdings nur die GPU! Wieviel W die ganze Grafikkarte (mit RAM) usw. verbaucht, lässt sich gar nicht auslesen.
 
Zuletzt bearbeitet:
So ich bin fürs erste durch.
Danke für all eure Tipps (y)
Das mit den Treibern, Bios, Firmware usw. hab ich nochmals geprüft gehabt, war aber alles auf Stand. Die Intel Management Engine Firmware habe ich nicht getestet. Die war von Dropbox. Da kann man sich gerade bei der Intel ME ganz schön was einfangen. Hab da aber auch schon die aktuellste von Gigabyte drauf.
Bios Settings wie Power Plattform Management, Native ASPM, DMI, diverse C States von auto auf enable gesetzt usw. durchprobiert, nen paar Bluescreens fabriziert (falls da auch wer rumspielt sollte man in den Windows Energie Option bei den PCIe Settings nur "Mittlere Energieeinsparung" auswählen sonst kanns instabil werden, zumindest beim Gigabyte Z690 Aorus Pro). iWie hat das ganze aber nur wenig gebracht. Falls messbar ggf. 5W?

Die CPU läuft nun im Energiesparmodus mit den 70% als maximaler Leistungszustand. Das hält sie auf 2,2 GHz. In Metro Exodus war im Energiesparmodus die 4090 bei 99% und der 13900K bei 20W. Hat ca. 100W an der CPU dort gespart^^ Allerdings sind die Ladezeiten als langsam und im Gaming darf der dann ungezügelt laufe. Dafür ist er ja auch da :)
Ansonsten lauf das System in Google, Texteditoren so 100W-120W: Peaks auf 150W immer mal wieder. Daran ist aber wohl die GPU schuld. Ein par Lüfter spielen auch noch mit rein. ggf sind es auch nur 90W -110W ohne Lüfter.
Von 144Hz auf 60Hz zu switchen hilft bei der 4090 etw. Strom zu sparen. Dann kommt man auf die ca. 21W IDLE und ca. 25W-27W um diesen Text hier zu schreiben.
Hauptproblem bleibt somit die 4090. Die läuft Minimum mit 30W (144Hz) und schlägt auf YT usw. eben auf die 50-90W aus.

Hab nun den Energiesparmods-Switch als Batch auf Makrotasten meiner Tastatur gelegt.
In dem Fall kostet der Gaming PC mit einem UHD IPS Monitor fürs Browsen halt im Schnitt ca. 140W... mit Peaks halt mal auf um die 200W.
...Teurer Spaß wenn die Strompreise weiter hochgehen und iwie auch etw. unverständlich dass es da über Windows keine besser steuerbare Einsparmöglichkeiten gibt. :/
Das Lenovo Legion Gaming Notebook mit IPS Display, AMD 5600H und RTX 3070 verbraucht ca. 50W für die gleiche Arbeit.

Das Silent Bios teste ich noch. Wird aber vermutlich nur die Lüfterkurve und Power Targets anpassen.
 
Wenn man überlegt dass man für die 4090+13900k+RAM+Board schon eine mittelprächtige Solaranlage bekommt ... dann tut es nicht mehr so weh das surfen 8-)
 
Die Intel Management Engine Firmware habe ich nicht getestet. Die war von Dropbox. Da kann man sich gerade bei der Intel ME ganz schön was einfangen.
Der DropBox Link ist aus dem hardwareluxx.de Artikel den ich verlinkt habe.
Download Quelle.jpg

Hab da aber auch schon die aktuellste von Gigabyte drauf.
Also Intel ME Version 16.1.25.1917 oder aktueller? Die bei dir installierte Intel ME Firmware Version kannst du im Windows Geräte-Manager sehen.
Leider gibt Gigabyte den ME update Tools nicht die korrekte Bezeichnung der ME Firmware.

Du kannst die Intel ME Firmware auch aus dem Asus Forum runterladen, da gibt es Foren Mitglied MoKiChU das allen Usern die aktuelle Intel ME Firmware zugänglich macht,
das Asus Forum war eine ganze Zeitlang nicht erreichbar.

Die Asus Intel ME Firmware update Tools z.B. sind nur für die Asus Mainboards, bei anderen Mainboard Herstellern streikt das Tool.
Im Moment Top aktuell ME Firmware Version 16.1.25.2091 vom 1 Dezember 2022 von MoKiChU, für alle Z690 Mainboard Hersteller: https://rog.asus.com/forum/showthre...Intel-ME-(H610-B660-H670-Z690-B760-H770-Z790)


Edit:
Die Größe des Intel ME Firmware Update Tools bei Gigabyte beträgt bis zu 247,90 MB, bei Asus nur ca. 9 MB, nötig wären nur ca. 2,2 MB wie man beim MoKiChU Download sehen kann.
 

Anhänge

  • ME Firmware Update Tools Asus und Gigabyte.jpg
    ME Firmware Update Tools Asus und Gigabyte.jpg
    161,2 KB · Aufrufe: 72
Zuletzt bearbeitet:
Richtig Stromsparen kann man aber mit aktueller Gaming-Hardware nicht! Ein Gaming-Rechner verbaucht immer 80+W im IDLE.
Wer einen Stromsparrechner haben will, muss eben andere Hardware kaufen. Kein "Z" Board keine "K" CPU. Und kein OC RAM.
Totaler Quark, meine Bude zieht IDLE 60 Watt.
Mit dem RAM geb ich dir sogar noch Recht, wenn der abnormal mehr Spannung braucht als normale RAM's im Vergleich geht das sicherlich auf Verbrauch
Alles weitere ist eben Sache des sich mit seiner Hardware-Beschäftigens.
Man macht eben kein OC mit Spannung,anheben sondern eher solange es die Standardspannungen hergeben, bzw noch Undervolting möglich ist, was solange man unter Luft kühlt ohnehin meistens garnicht anders funktioniert.

Bei der Grafikkarte ist ein Offset sogar förderlich, man betrachte einfach mal die Kurven hier bei mir beispielsweise: (RAM hat keine Kurve)
Unbenannt.jpg
Mal so aus der Praxis heraus, OC = Undervolting in dem Falle hier
Das geht natürlich nur mit VSync, plus gescheitem FPS-Limit, wenn ich unbedingt meine ich brauch weiss der Geier was an Hz und Auflösung mehr als 1920x1080, brauch ich mich nicht wundern, besonders in Games, obwohl der Bildinhalt bei entsprechendem Seitenverhältnis ohnehin derselbe bleibt...
IDLE bei der CPU, zählt nur eines, Sweetspot unter Vollast mit PES austesten, läuft die CPU aufm Sweetspot spart man auch am meisten im IDLE
Was den RAM anbelangt waage ich es allerdings zu bezweifeln das man da CPU-seitig etwas optimieren kann, oder hat man da bei Intel auch sowas wie die NBSoC Spannung (IF-Clock immer die hälfte vom RAM-Takt)

@BlueFireXD
Wie misst du ? HWMonitor oder HWInfo oder nen Leistungsmessgerät zwischen Steckdose und Rechner-Netzteil ?
Das mit dem PCI-Express an sich das bringt garnichts, das kannst du im Bios sinnvoll garnicht verstellen und was Windows angeht kannst das auch einfach auf "Aus" stellen, wenn da irgendwas sinnvolles passiert, wird des vom Board/Treibern so oder so geregelt, da braucht Windows nichts daran "herumpulen".

Genauso sind die Modi auch völlig obsolete, normalerweise optimiert man den Rechner selbst, da brauch man nicht zwischen irgendwelchen Stromverbrauchsmodi hin und herwechseln, die TDP bleibt dieselbe, die CPU bleibt dieselbe, Anzahl Kerne etc.

Ich kann nur anraten hol mal wirklich alles raus was geht und teste Zwischenschritte durch mit PES

Das es natürlich Boards gibt die unnütz Strom verbrauchen für was auch immer, steht natürlich ausser Frage, daran kann man aber dann auch nicht wirklich was machen

Gruss
 
Totaler Quark, meine Bude zieht IDLE 60 Watt.
Dein Rechner ist per Hand optimiert und Du hast viele Stunden dafür investiert. Das machen die wenigsten... Die meisten kaufen einen PC und schalten ihn ein. Und dann verbrauchen aktuelle Gaming-PCs einfach viel zu viel Strom, im Betrieb und im IDLE.

*Bitte den eigenen Tellerrand beachten! Du bist nicht das Zentrum der Welt!*

Was eindeutig zu sagen ist, AMD Hardware ist nicht mehr auf Stromsparen optimiert. Das sieht man alleine an den neuen CPUs, die keine 142W mehr verbrauchen, sondern 230W maximal. Wie sieht da erst die nächste Gen aus? 330W? Für wie viel mehr Leistung mehr? Das Verhältnis stimmt einfach nicht mehr.

Wie es laufen könnte sieht man an Notebooks. Die verbrauchen im IDLE mal so 15W incl. dem Bildschirm. Ich fand die Lösung die Grafikkarte extern zu betreiben und nur bei Bedarf einzuschalten immer sehr sexy.
 
Was eindeutig zu sagen ist, AMD Hardware ist nicht mehr auf Stromsparen optimiert. Das sieht man alleine an den neuen CPUs, die keine 142W mehr verbrauchen, sondern 230W maximal. Wie sieht da erst die nächste Gen aus? 330W? Für wie viel mehr Leistung mehr? Das Verhältnis stimmt einfach nicht mehr.

Wie es laufen könnte sieht man an Notebooks. Die verbrauchen im IDLE mal so 15W incl. dem Bildschirm. Ich fand die Lösung die Grafikkarte extern zu betreiben und nur bei Bedarf einzuschalten immer sehr sexy.
Soweit richtig, die Mehrleistung steht sicherlich in keinem Verhältnis wenn die Kisten dafür mehr als das doppelte an Leistungsaufnahme dazu benötigen.
Dasselbe kannst du so aber für Intel wohl genauso stehen lassen.

Dazu braucht man nur beim Ryzen erkennen das der RAM nicht wirklich viel bringt, dafür aber gut Saft in der NBSoC weggeht, dazu sind an sich erstmal keine grossartigen Optimierungen notwendig, ob der RAM nun auf 2400 oder 2800 läuft macht keinen wirklich nennenswerten Unterschied.

15 Watt IDLE sind denn wiederum natürlich wirklich klasse, ist die Frage ob die Dinger denn auch nur ansatzweise mit Desktops mithalten können, wie sieht es denn dann aus mit Leistung und Verbrauch.
Nen 4500Uer Gerät wird mit Sicherheit eben nicht mithalten können mit beispielsweise bei mir RTX 2060, 32gb RAM und nem 2600X bzw. aktuell nem 2700X, is ja schee das PUBG in niedrigsten Details vielleicht auf FullHD funkioniert, aber von Gamingpower kann man hier dann nunmal nicht sprechen.
So nen Dingen ist vielleicht ganz nett zum YouTubeVideos gucken, in Foren herumhängen etc.

Woran sich nichts verändert hat ist nunmal bei der CPU, mehr Takt solange weniger Spannung geht, wird die effizienter laufen, was nunmal ganz besonders eben den IDLE betrifft.
Am RAM kannste da kaum was machen, ne gescheite Grafikkarte zieht zudem nunmal 20 Watt aus der Buchse für einen Bildschirm, da machst auch nichts grossartig dran. (Insbesondere nunmal dann wenn da mehr als FullHD mit mehr Hz anliegen soll)

Ich müsste eigentlich auch mal meine 480er BX300 abklemmen und mal sehen was mit dem IDLE passiert hinterm Netzteil, angeblich hat die ja nen sehr hohen IDLE-Verbrauch so im Vergleich.

Gruss
 
Ich habe meinen Monitor mit DP an die Grafikkarte und HDMI an's Board angeschlossen. Im Windows eingestellt, dass er beim Browsen, Youtube, Office etc. die iGPU nutzen soll und bei anderen Anwendungen die dedizierte GPU. Klar läuft die Garfikkarte im IDLE mit aber im Schnitt habe ich dadurch ca. 20-30W Ersparnis direkt an der Dose.
 
Ich habe meinen Monitor mit DP an die Grafikkarte und HDMI an's Board angeschlossen. Im Windows eingestellt, dass er beim Browsen, Youtube, Office etc. die iGPU nutzen soll und bei anderen Anwendungen die dedizierte GPU. Klar läuft die Garfikkarte im IDLE mit aber im Schnitt habe ich dadurch ca. 20-30W Ersparnis direkt an der Dose.
Da ja nun alle neuen Rechner eine CPU-Grafikkarte haben, würde es langsam auch Sinn machen, dass man bei den Grafikkarten gar keine Anschlüsse mehr verbaut und seinen Monitor direkt in die CPU-GPU steckt. Die Grafikkarte leitet ihr Bild dann durch die CPU-GPU und so bräuchte man gar nicht umschalten. Das kann jedes moderne neue Notebook. Bei bedarf wird entweder die iGPU oder die Nvidia GPU genutzt. Ohne dass der User es merkt.
 
Unbenannt.jpg

Das funktioniert sehr gut. Sogar den Desktop lässt W11 mit der iGPU arbeiten. Man benötigt halt einen Monitor der automatisch umschaltet und man es (so wie mei mir) bestenfalls gar nicht merkt.
 
Da ja nun alle neuen Rechner eine CPU-Grafikkarte haben, würde es langsam auch Sinn machen, dass man bei den Grafikkarten gar keine Anschlüsse mehr verbaut und seinen Monitor direkt in die CPU-GPU steckt.
Wenn das so umgesetzt wird wie bisher ist das ne blöde Idee, dann kannste nämlich deine Grafikkarte direkt weglassen aus dem System, das kostet nämlich Leistung bzw. es funktioniert nurnoch die der APU.

Üblicherweise hat das bis heute nur Probleme gemacht

Gruss
Beitrag automatisch zusammengeführt:

Daran wird sich "mal eben" jedenfalls auch nichts ändern
 
Wenn das so umgesetzt wird wie bisher ist das ne blöde Idee, dann kannste nämlich deine Grafikkarte direkt weglassen aus dem System, das kostet nämlich Leistung bzw. es funktioniert nurnoch die der APU.

Üblicherweise hat das bis heute nur Probleme gemacht

Gruss
Beitrag automatisch zusammengeführt:

Daran wird sich "mal eben" jedenfalls auch nichts ändern
Wollte gerade fragen. Hatte was in Erinnerung das die Umleitung von GPU über iGPU als Leistung bzw FPS kosten kann. Lieber wäre es mir wenn die iGPU über die GPU geleitet wird denn beim Browsen stört mich dieser Verlust dann nicht. Heißt also den Monitor an der GPU und Browser auf der iGPU laufen lassen. Allerdings hatte bei mir HWInfo dann trotzdem eine hohe GPU aktivität angezeigt. Scheit als würde auch das "Duchleischleifen" der fertigen Ausgabe (falls Nvidia das überhaupt kann/macht) auch schon enorm Leistung benötigen :( Müsste e aber nochmal speziell testen. Ggf hatte es auch einfach den Chrome nicht auf der iGPU laufe lassen und aus welchem Grund auch immer trotzdem auf die GPU ausgeführt
 
@BlueFireXD
Du das hat so , so oder so immer schon nur Ärger gemacht, auch bei Notebooks wo Herstellerseitig das sogar mal so gedacht war und es dann denk ich von Nvidia seitig "Optimus" oder irgendwie so in der Art genannte wurde, mit extra Treibern. (wenn ich nicht Irre)

Was du machen kannst, da dein CPU ja auch n "K" ist, Clock ihn von Hand inkl. LoadLine Calibration ausloten auf den Sweetspot, was du mit PES testest.
Dann tust du viel für den Verbrauch unter Volllast sowie auch Teillast. (da Teillast halt immer ein Teil von Volllast ist)

Bei der Grafikkarte wirst du wenn überhaupt nur mit einem +Offset was erreichen, erst Speicher (mem) aufdrehen was der halt mitmacht und denn halt Core gucken was geht.
Du wirst halt wenn das Sys nicht fehlkonfiguriert ist, bei der Grafikkarte eher etwas mehr Takt (solange Offset stable funktioniert) errichen bei weniger Stromverbrauch.
Schau dir meine Kurve an, dann verstehst was ich damit meine, schlichtweg da weniger Spannung bei demselben Takt, solange stabil halt, weniger Stromverbrauch bedeutet:

Unbenannt.jpg

RAM-seitig wirst du beim Intel denk ich nichts tun können, es sei denn es gibt da ebenso wie beim Ryzen wegen dem IF-Takt noch sowas wie die NBSoC Spannung wo du dran runterdrehen kannst, was sich hauptsächlich auf den IDLE positiv auswirkt und überhaupt auswirkt.

Gruss Dennis
 
Mal ein Update.
Habe es mittlerweile aufgegeben. Die heutige Hardware muss anders entwickelt werden!
Scheinbar wurde das Thema "Strom sparen" sehr vernachlässig und man ist der Meinung dass Gaming-Hardware einfach viel Strom verbrauchen darf (muss).
Meinen Gaming PC kann ich fürs Browsen, YouTube, Filme, Texte schreiben usw. echt vergessen. Mit dem Bildschirm zusammen sind es mit den angepassten Stromsparmodus von Windows um die 140-150W mit Peaks auf 180 oder gar 200W. Vielleicht kann man mit dem ein oder anderen Bios Mod noch was rausholen, oder Spannungskurven aber das Gesamtsystem samt Bildschirm unter 100W zu bekommen ist in meinem Fall unmöglich.

Habe nun als Lösung mein altes Surface Pro 6 wieder rausgeholt und an den Monitor angeschlossen. Das kann alles was Browsen, Youtube, Texte schreiben usw. angeht auch und das in 4k 60Hz unter Windows 11 ohne Probleme.
Da es die i5 Version ist auch lautlos und mit ca. 10-20W und Peaks auf um die 30W. Das Gesamtsystem mit Bildschirm läuft damit um die 50-60W.
Also nur noch ca. 1/3 von dem was der Gaming PC verbraucht... Praktisch ist also auch unter Win 11 4k@60Hz mit 20-30W möglich... leider aber nicht beim Gaming PC... :(
 
Habe es mittlerweile aufgegeben. Die heutige Hardware muss anders entwickelt werden!
Das was du suchst, gibts schon. Das nennt sich Laptop-CPU.
Hat halt nicht die Spitzenleistung, die Desktopkomponenten bringen.
Man kann aber ja auch kein Auto mit 400PS bauen, das mit 5l auf 100km auskommt. Zumindest wäre mir da keines bekannt.

Mit dem Bildschirm zusammen sind es mit den angepassten Stromsparmodus von Windows um die 140-150W mit Peaks auf 180 oder gar 200W.
Und wieviel davon ist schon der Bildschirm?
Wenn ich meinen Bildschirm auf volle Helligkeit stelle und mit 144Hz laufen lasse, nimmt der alleine ja schon um die 60W.
Mit der von mir eingestellten Helligkeit und 60Hz nur um die 15-20W.
Die Peaks kannst du vergessen, weil die CPU bei der kleinsten Lastanforderung sofort hochtaktet. Wenn du Strom sparen willst, setz die CPU mit einem entsprechenden Tool in den echten Stromsparmodus, der dann auch das Hochtakten verhindert.

Da musst du schon tiefer graben.
Evtl. läuft auf deinem PC auch was, was die Sleepstates deiner CPU verhindert.
Wirklich NUR Desktop, schwankt das bei mir zwischen 95 und 105W (inkl. Monitor, der wie gesagt schon 15-20W davon nimmt, so wie ich ihn eingestellt habe!)
Sobald eine "Echzeitanwendung" aktiv ist, z.B. Teamspeak, Discord, Slack... bin ich bei 120-125W. Einfach nur in einem Voicechat verbunden sein, reicht dazu schon.
Wie ich auch festgestellt habe, weckt auch die Steam-Shopseite im Steamclient die CPU immerwieder auf. Wenn ich also den Steam-Client laufen habe und die Shopseite ausgewählt ist (auch wenn sie nicht auf dem Bildschirm sichtbar ist), bin auch schon wieder bei 120W. Wenn ich in Steam die z.B. auf die Bibliothek wechsle, bin ich wieder bei den gewohnten 95-105W. :d
Ich will nicht wissen, was so manche Schlangenöl-Virenscanner in der Hinsicht verursachen.

Keine Ahnung wie man sowas unter Windows überprüft. Unter Linux liefert da powertop gute Hinweise.

Aber auf 30W, wie bei deinem Surface, wirst du ein Gamingsystem mit High-End-Komponenten nicht kriegen.

Nur am Rande dazu: Meinen Dell T20 konnte ich im Idle auf 16W trimmen. Mit einer SSD und einer HDD im Standby und 4x8GB RAM. Alleine den (nicht benötigten) PCI-Port im Bios abzuschalten hat da schon 2W gebracht.
Ein Intel Nuc mit i5-1135G7 mit 64GB und 1TB NVMe SSD, um mal auf aktuellere Hardware zu kommen, aber das ist eben oben schon genannte Laptop-Hardware, läuft im Idle mit 4,5W. Hat aber halt nicht die Rechenleistung einer Desktop-CPU ala 13900K.

Habe nun als Lösung mein altes Surface Pro 6 wieder rausgeholt [...] leider aber nicht beim Gaming PC... :(
Ja, ein Gaming-PC ist halt ein Porsche und das Surface ein VW Lupo.
Ein Porsche kommt nicht mit 3l aus, auch wenn man langsam fährt, aber mit einem Lupo will man halt auch keine Rennen fahren.
 
Mein Monitor war um die 30-40W als ich es das letzte Mal gemessen habe.
Hmmm kann deinen Vergleiche verstehen aber in der Elektronik sehe ich da mehr Möglichkeiten. Hier könnte man durch intelligente Teilabschaltungen, E-Cores, ausweichen auf iGPU (was ja zwar schon existiert aber nicht richtig funktioniert) whatever sicherlich etw machen.
Die Fertigungstechnologien werden auch immer kleiner und stromsparender.
 
Hmmm kann deinen Vergleiche verstehen aber in der Elektronik sehe ich da mehr Möglichkeiten. Hier könnte man durch intelligente Teilabschaltungen, E-Cores, ausweichen auf iGPU (was ja zwar schon existiert aber nicht richtig funktioniert) whatever sicherlich etw machen.
Das funktioniert schon, die Laptop-Komponenten tun genau das, oder wie meinst du kommt ein i5-1135G7 auf 4,5W idle?
Die asymmetrischen Cores bei Intel sind, zumindest in Desktopkomponenten, nicht zum Stromsparen gedacht, sondern zur Unterstützung der P-Cores. Die E-Cores werden abgeschaltet, wenn sie nicht gebraucht werden, die P-Cores laufen immer, statt andersrum. Imho auch ein totaler Fail, aber ist halt so.

Bleibt aber unterm Strich trotzdem dabei: Wer Strom sparen will, kauft sich keinen Porsche... äh, ich meine 13900K mit einer 4090.
Das ist so ungefähr der 12l V8 und dann beschweren, das das Ding nicht unter 25l/100km zu bewegen ist...

Die Fertigungstechnologien werden auch immer kleiner und stromsparender.
Und die Leistung steigt gleichzeitig.
 
Hmm will nur vernünftig in 4K spielen können und dafür habe ich auch das Geld ausgegeben. Dass man für zum Browsen und Texte schreiben in UHD auch mit 10-30W auskommen kann zeigen ja die Notebooks/Tablets.
Technologie wäre also iwie da. Wird aber in meinen Augen nicht genutzt.
Sicher lässt sich eine Notebook CPU nicht 1:1 auf die Highend Desktop CPU übertragen. Müssten man eben kreativ sein und nach Lösungen suchen. Wenn schon z.B. 2 E-Cores so schnell sind wie 4 Standardkerne einer Tablett CPU würden ja schon 2 E-Cores für zum Browsen ausreichen. Ist natürlich sehr komplex immer die richtige Performance bieten zu können da der PC ja nicht weiß ob ich beim Öffnen des Browsen stromsparend sein will und mit 2 Sek. mehr Wartezeit leben kann oder eben alle E-Cores für den Fall der Fälle lieber aktiv bleiben sollten und damit in 0,5 Sek. geöffnet wird + P-Cores auch noch dazu.

Wobei ich hier ja gerade nur auf der CPU rumreite. Hauptproblem ist eher die GPU. Die CPU verbraucht wohl laut HW Info um die 10W wenn ich sie über die Windows Energieoptionen "drossle".
Die 4090 verbraucht mehr und auch wenn ich den Monitor übers Mainboard an die iGPU hänge und keine Anwendung mehr auf der 4090 läuft, verbraucht sie weiterhin für nichts angeblich 20W.
Bei einem 4K Video springt sie auch gern mal auf 80W. Die iGPU macht das mit 3-5W.
Theoretisch müsste man das Betriebssystem so optimieren dass es eine konfigurierbare Stromsparfunktion gibt in der man sagen kann dass ausschließlich die iGPU genutzt wird. Nvidia müsste dann noch hingehen und das Bildsignal einfach nur durchschleifen und die eigene GPU komplett parken.

Naja alles kompliziert umzusetzen. Juckt wohl eh niemanden. Bleibt alles beim Alten. Technologie ist zwar da aber ein High End PC braucht einfach viel Strom ...auch fürs nichts tun.
Passt aber mit dem Tablet für mich so. Tags über etw. Strom "ansparen" um abends befreiter zocken^^
Allerding wird bei solch einer Nutzung der PC ähnlich einer Konsole die man nur zum Zocken hat.
 
Naja alles kompliziert umzusetzen.
Genau.

Juckt wohl eh niemanden.
Doch, juckt schon Leute, nur die Eierlegende Wollmilchsau, die super stromsparend ist UND Höchstleistung bietet gibts halt nicht.

Auch wenn es technisch machbar wäre, braucht man wieder extra Steuerungen, wahrscheinlich nochmal andere/bessere/Spannungswandler, etc, was die CPUs, GPUs und Mobos noch teurer machen würde. Das will dann aber halt auch wieder keiner.
Ich habs schonmal in einem anderem Thread erwähnt: Theoretisch könnte man zu seinem 13900k/4090 auch nen i3-NUC mit ins Gehäuse bauen. Dann bräuchte man "nur" noch ein System, das im Idle den "großen" Rechner ganz abschaltet, dann hätte man 5W Idle und könnte trotzdem auf Hochleistung umschalten. Ob/wie man das dann auch noch unterbrechungsfrei hinkriegt, wäre noch eine ganz andere Frage. Noch ganz abgesehen davon, das ein Netzteil das auf 700W ausgelegt ist, bei 5W Idle-Verbrauch nicht sonderlich effizient sein dürfte. Alleine da gehts schon los.
Und die Kosten sind dann natürlich zusätzlich zur High-End-Hardware eben nochmal ein (fast) komplettes System zum Stromsparen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh