Noch jemand frustiert vom hohen idle Verbrauch aktueller Desktop CPUs?

Schrieb derjenige, der noch nicht einmal meinen Post versteht und dazu noch nicht einmal den Unterschied zwischen Volllast und Leerlauf begreift.
Ist noch früh, schrei lieber nicht zu laut, wenn der erste Kaffe noch nichtmal drin ist.
Ist korrekt, ich habe den Link nicht angeguckt sondern bin von deinen Angaben ala 250 und 253W ausgegangen.

Und da frage ich mich ernsthaft, warum man die TDP hinschreibt, wenn man eigentlich von der Idle-Aufnahme spricht?
Was interessiert irgendjemanden das die eine CPU 230W TDP hat und die andere 253W, wenn man sich darauf bezieht, das die eine CPU im Idle 56W nimmt und die andere 66W?
Schreib das halt auch so hin wie du es meinst, dann gibts auch kein Verständnisproblem.


Aber ja, ich kenne den Unterschied zwischen Leerlauf und Volllast nicht, weil du zu blöd bist auszudrücken, wovon du eigentlich sprechen willst. :rolleyes2:

Und anscheinend war der Rant wegen des Missverständnisses nach den ersten zwei Zeilen gleich so groß, das du vor lauter Sabber die restlichen 90% meiner Antwort nichtmal mehr lesen konntest, denn sonst wäre dir absolut klar geworden, das mir der Unterschied zwischen Idle und Volllast ABSOLUT bewusst ist, denn der ganze Rest meines Posts den du nicht gelesen oder ignoriert hast, bezieht sich GENAU DARAUF.

Den Rest habe ich mir nicht durchgelesen. Denn die ersten 4 Wörter haben schon gereicht für ein umfassendes Urteil.
Ahja, war ja irgendwie klar.
Ich geb dir noch eine Chance, jeder kann sich mal irren oder reagiert sauer, aber damit warst du jetzt ganz kurz vor knapp vor meiner Ignorelist.
Getoppt noch damit, das du sogar noch schreibst, das du 90% meiner Antwort nicht gelesen hast.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ist noch früh, schrei lieber nicht zu laut, wenn der erste Kaffe noch nichtmal drin ist.
Das ist bei @DTX xxx nicht die fehlende Wirkung des Kaffee. Ursächlich scheint der Auslöser bereits durch drei Buchstaben, nämlich A M D und den Kontext, einen Reflex auf der Tastatur auszulösen. :ROFLMAO:
 
Zuletzt bearbeitet:
Generell sind doch solche angaben im IDLE auch für den Popo, wichtiger wäre es, wenn man testet, wie sich die CPU beim normalem Arbeiten :d Hardwareluxx und YouTube verhält.

Vielleicht wissen es viele nicht, ⁣ aber:d es gibt unter Windows die Möglichkeit den Energiesparmodus zu setzten, wer ihn nicht nutzt und dann meckert, dass die CPU zu viel verbraucht, obwohl ich gar nicht am Rechner sitze, ist glaube selber schuld.
 
Generell sind doch solche angaben im IDLE auch für den Popo, wichtiger wäre es, wenn man testet, wie sich die CPU beim normalem Arbeiten :d Hardwareluxx und YouTube verhält.
Naja, Idle kann man definieren als "da ist der Desktop, da läuft kein Video, da bewegt sich nichts, der User bewegt nichtmal die Maus".
Wie definierst du "normales Arbeiten"?
Für mich ist "normales Arbeiten" eine CAD-Modell zu bearbeiten. Für andere ist "normales Arbeiten" einen Text in Word runterzutippen.
Die Last ist bei beiden aber sicherlich nicht gleich.

Vielleicht wissen es viele nicht, ⁣ aber:d es gibt unter Windows die Möglichkeit den Energiesparmodus zu setzten, wer ihn nicht nutzt und dann meckert, dass die CPU zu viel verbraucht, obwohl ich gar nicht am Rechner sitze, ist glaube selber schuld.
Ich setze die CPU bewusst in den Energiesparmodus, wenn ich nur "Desktopzeug" tue (allerdings unter Linux). Damit bin ich trotzdem bei 80-90W. Ich regle sogar den Monitor auf 60Hz runter, weil andernfalls die AMD-Graka nicht komplett runtertaktet, wenn ich den auf 144Hz lasse und dann bin ich nicht bei 80-90W sondern eher bei 100-120W.
Es ist dem DAU-User aber kaum zumutbar das Energieprofil je nachdem was er gerade tut, jedesmal entsprechend einzustellen.

Youtube gucken, oder was in in der Textverarbeitung oder Präsentationssoftware zu tun ist idR auch kein Problem, selbst wenn die CPU im Powersafe läuft. Wenn ich allerdings im CAD unterwegs bin, dann ist das oft ein Hinderniss. Nur ein Modell angucken und ein bisschen drehen tut da nix, aber wenn man halt Modifikationen vornmmt, dauert das im Powersafe halt mal eben 30s pro Änderung, während es mit CPU im Performance-Mode nur 5s dauert. Wenn man da jetzt mehrfach was ändert, macht das schon einen gewaltigen Unterschied ob man jedesmal 30 oder 5 Sekunden warten muss.

Die Einstellung hat obendrein ÜBERHAUPT KEINEN Einfluss auf den Idleverbrauch. Wenn ich gar nicht am PC bin, macht es überhaupt keinen Unterschied, ob die CPU im Powersafemode oder im Ondemand/Conservative-Mode läuft, weil die CPU dann ebenso runtertaktet, wenn eh keine Last anliegt.
Was einen Unterschied macht ist, wenn die CPU im MaxPower-Mode läuft (keine Ahnung wie das unter Windows heißt?), denn dann läuft die CPU immer mit maximaler Taktrate. Das tut Windows aber afaik auch nicht, ausser man stellt es explizit so ein. Sollte also bei kaum jemandem der Fall sein, weil das stellt nur jemand händisch um, der sich sowieso damit auseinandersetzt und dem sollte dann auch klar sein, was er da tut.
 
Naja, Idle kann man definieren als "da ist der Desktop, da läuft kein Video, da bewegt sich nichts, der User bewegt nichtmal die Maus".
Wie definierst du "normales Arbeiten"?
Für mich ist "normales Arbeiten" eine CAD-Modell zu bearbeiten. Für andere ist "normales Arbeiten" einen Text in Word runterzutippen.
Die Last ist bei beiden aber sicherlich nicht gleich.


Ich setze die CPU bewusst in den Energiesparmodus, wenn ich nur "Desktopzeug" tue (allerdings unter Linux). Damit bin ich trotzdem bei 80-90W. Ich regle sogar den Monitor auf 60Hz runter, weil andernfalls die AMD-Graka nicht komplett runtertaktet, wenn ich den auf 144Hz lasse und dann bin ich nicht bei 80-90W sondern eher bei 100-120W.
Es ist dem DAU-User aber kaum zumutbar das Energieprofil je nachdem was er gerade tut, jedesmal entsprechend einzustellen.
Man beachte meine Smileys beim Arbeiten Hardwareluxx und YouTube :d

Ich bezweifele, dass wenn der Energiesparmodus bei dir einsetzt, dass der Rechner noch 80-90W zieht, der zieht dann fast nichts mehr, weil er schlafen geht:d

1681637507623.png

Das, was du meinst, sind Energiesparpläne, heißt aber auch Energiesparmodus

1681637674364.png
 
Gibt es denn NUCs oä. für 3x 4k Monitore und einen 4k TV HDMI im Wohnzimmer - parallel genutzt werden maximal 3 davon aber verschiedene Profile dank MonitorProfile Switcher - echt tolles Tool.
Ich bin mal gespannt was mein neues AM5 System zieht.
 
Natürlich sollte AMD im Vergleich doch mal schauen, etwas die Leistungsaufnahme im Leerlauf zu drücken.
Ursächlich scheint der Auslöser bereits durch drei Buchstaben, nämlich A M D
Ja stimmt. Deswegen schrieb ich auch, AMD sollte im Vergleich die Leistungsaufnahme drücken.
Für dich schreibe ich jetzt extra. AMD muss zwingend die brutal überzogenen, an Frechheit grenzenden 10W mehr Leistungsaufnahme im IDLE, bei dem von mir geopsteten Vergleichsystemen (7950X vs. 13900K), einen Riegel vorschieben. Eigentlich eine so furchtbare Ungeheuerlichkeit, dass man den Verbraucherschutz verständigen müsste.

Ist es ein Trieb von dir, dass du dir immer wieder selber gerne Eier ins Wohnzimmer legst?
 
Zuletzt bearbeitet:
Ich bezweifele, dass wenn der Energiesparmodus bei dir einsetzt, dass der Rechner noch 80-90W zieht, der zieht dann fast nichts mehr, weil er schlafen geht:d

Anhang anzeigen 877592
Das, was du meinst, sind Energiesparpläne, heißt aber auch Energiesparmodus
Was sind das für komische Bider? So ein seltsames OS hab ich ja noch nie gesehen. :p

Das was ich genau meine nennt sich CPU-Governeur und der der davon zum stromsparen da ist heisst wortwörtlich "powersave". Der sorgt dafür, das die CPU mit niedrigstern Taktrate läuft und gar nicht hochtaktet. Das hat nix mit Standby/Suspend zu tun.
 
Besonders AMD schneidet aktuell schlecht ab was den Verbrauch im idle angeht
Startpost ^^
IDLE = Leerlauf.
Naja, Idle kann man definieren als "da ist der Desktop, da läuft kein Video, da bewegt sich nichts, der User bewegt nichtmal die Maus".
Genau und dazu habe ich eben meine Meinung geschrieben. 10W mehr bei meinem Beispiel ist also besonders schlecht. Obendrauf bietet dann der Startpost keinerlei Inhalt, nur eben eine emotionale Meinung. Keine Vergleiche, keine Differenzierung und auch die fehlende Kommunikation, dass zusätzlich die Hauptplatinen je nach Hersteller und Spannungsversorgung unterschiedliche Leistungsaufnahmen erzeugen.

Am Ende bleibt nur, wer über Leerlauf seine Meinung schreibt und dann meint, dass 10W bei 6Std. @365 einen Unterschied machen (6,55€ bei 0,30€ die kWh), konstruiert einfach mal nur ein Thema. Ein Thema in dem es eben schon im Startpost an Inhalt fehlt. Eigentlich alles total belanglos. Genauso belanglos, wie wenn man bei diesen von mir geposteten Vergleich, die 65W mehr bei PC Vollast für das 13900K System unbedingt aufblasen muss. So nach dem Motto, ich suche mir irgendetwas um halt in diesem Fall, AMD als besonders schlecht abschneidend bewerten zu können.
Oder im Falle von PC Volllast etwas gefunden zu haben mag, um dann Intel als besonders schlecht abschneidend bewerten zu können.

Letztlich zeigt sich wieder, dass ganz schnell emotionale Überlastungen des Thema dominieren.

Für die emotional an Intel gebundenen Freunde muss ich natürlich noch folgendes hinzufügen.
Für mich ist der 7900X3D im Portfolio von AMD sinnbefreit für diesen Preis.
Der preisliche Unterschied zwischen den non X und X Modellen ist eine Farce.
AMD war gezwungen durch die harte Konkurrenz durch Intel, die Preise anzupassen.
Die AM5 Platinen sind weiterhin teuer.
Im Grafikkarten-Sektor überlasst AMD in der 4070 Leistungsklasse Nvida das Feld alleine.
 
Mal eineFrage am Rande;
wenn bei Windows der Energiesparplan/-Modus geändert wird, wird der gleich im laufenden Betrieb wirksam oder muss der Rechner neu hochgefahren werden?
 
Nein, muss nicht neu gestartet werden.
 
Zuletzt bearbeitet:
aha, die Milchmädchenrechner! Eine PV Anlage kaufen und dann argumentieren, der Strom sei umsonst :ROFLMAO:

Dass du nicht verbrauchten Strom für lau einspeist (und mit deiner Infestition, Wartungskosten, Förderung etc. erst ermöglichst) ignorierst du elegant, dass ist der Betrag/Differenz unter Marktpreis, den du den Energiekonzernen schenkst, damit du die Menge zu Marktpreisen wieder entnehmen kannst.

Du bist auch der einzige Zeitgenosse, bei dem eine PV-Anlage keine Amortisationzeit hat, nur bei den Anderen sind das 9-15 Jahre 8-)

Ich kann den Strom für 8,2 Cent verkaufen oder selber verbrauchen und dadurch Strom für 32Cent nicht kaufen.
Den meisten Gewinn mache ich also, den Strom selber zu verbauchen!
Ich habe bereits eine Eismaschine, Luftreiniger, Fritöse, mini Pizza Backofen usw gekauft, damit blos kein Strom verkauft wird!
Je mehr Strom ich verbrauche umso mehr verdiene ich!
 
Den meisten Gewinn mache ich also, den Strom selber zu verbauchen!
Keine Ahnung wie man darauf kommt es wäre ein Gewinn, wenn man weniger zahlt. Um Gewinn zu machen, muss man nicht weniger zahlen, sondern Geld bekommen und zwar mehr als man ausgibt um diese Einnahme zu erzielen. Den meisten Gewinn würdest Du also machen, wenn Du gar keinen Strom verbrauchen würdest und alle zu 8,2ct verkaufen kannst, vorausgesetzt, diese 8,2ct reichen alle Kosten der PV zu decken.
Je mehr Strom ich verbrauche umso mehr verdiene ich!
Dann informiere Dich schon mal wie man als Millionär so lebt, es müsste ja bald soweit sein :d
 
@nebulus1 du müsstest jetzt noch rauskriegen bzw. dir die Info Einrichten wann Deutschland überschüssigen Strom gerade falls du im Norden wohnst gegen "Strafzahlung bzw. Gebühr" ans Ausland verkaufen muss, da gerade zu viel Strom im Netz ist, dann würdest du dem Steuerzahler sogar einen gefallen tun.
Bei AMD muss man eh auch die gesamte Plattform sehen, die Unterschiede sind ja höher als die reinen 10W bei der CPU.
 
wenn bei Windows der Energiesparplan/-Modus geändert wird, wird der gleich im laufenden Betrieb wirksam oder muss der Rechner neu hochgefahren werden?
Energieplan! Modus Höchstleistung & Ultimative Leistung kann man schlecht noch als "Sparplan" bezeichnen. ;)

Der gewählte Plan ist sofort und umgehend aktiv.


edit @ Liesel Weppen: Bei mir macht im Idle der Unterschied, ebenfalls mit einer AMD Graka, zwischen 165Hz und 60Hz genau 2,4~2,5 Watt aus. Dabei ist es egal ob im SDR oder HDR Betrieb (wobei mir der HDR Mode schon aufgrund der wesentlich höheren Bildschärfe lieber ist) oder ob Monitor nun einzeln gemessen oder halt im Gesamtsystem. Der Messwert bleibt, anhand meines Voltcraft SEM6000B eingemessen, der gleiche.
 
Zuletzt bearbeitet:
bei meiner 3080 ist das was die benötigte Leistung stark erhöht mehrere Bildschirme besonders mit unterschiedlichen Auflösungen und unterschiedliche Hz Zahl der Bildschirme, echt wahnsinn was die teils braucht wenn man einfach nur seine Bildschirme so betreiben will wie sie vorgesehen sind - meist 2-3 also 2 am Tisch und der TV oder Sofa und TV Bildschirm.
Bin mal gespannt wo ich in der Praxis mit dem neuen AMD System lande, kommt hoffentlich Morgen endlich die CPU.
 
Wo meinst du denn, dass du mit einen AMD System bzgl. der CPU großartig wo anders landen willst?
Das sind genau 2 Komponenten die sich da ändern -> CPU + Mainboard.
Da wird sich nicht dramatisch viel verändern, zumal die onboard Komponenten aktueller Boards Intel vs. AMD fast identisch sind.
Das einzige wo man da noch Unterschiede messen könnte, wären dann die Chipsets ansich plus vieleicht noch unterschiedliche VRM Bestückung.

ps: Mein System verbraucht, gemessen ohne Monitor, durchschnittlich ~50 Watt. Einzelkomponenten Messungen bin ich gerade dran, ist teils sehr aufwendig und kniffelig aber machbar.
Da bleibt im Endeffekt nicht mehr viel Verbrauch übrig die eine CPU im Idle verbrauchen kann. Bei einer AMD CPU wird sich das auch nicht viel anders gestalten.
Meine bisherigen Mesungen ergeben jedenfalls das SSD und Dimm zusammen genommen schon gut im 2stelligen, unteren Bereich verbrauchen.
Das aktivieren/deaktivieren von onboard Komponenten (Lan/Wlan/BT/Audio/USB) kann man auch messen, C-State Einstellungen sind eher marginaler Natur, teils gar nicht messbar.
Größter Verbraucher dürfte aber tatsächlich das Board sein, nicht die CPU, zumindest im Idle.
 
Zuletzt bearbeitet:
edit @ Liesel Weppen: Bei mir macht im Idle der Unterschied, ebenfalls mit einer AMD Graka, zwischen 165Hz und 60Hz genau 2,4~2,5 Watt aus.
Sind bei mir leider über 20W unterschied.

60Hz:
1681723452288.png

120Hz:
1681723469685.png


Das ist auch genau die Differenz die mir beim GPU-Verbrauch angezeigt wird.
60Hz: GPU zwischen 7 und 15W. Springt öfter mal hin und her
120Hz: GPU wie festgenagelt bei 39W
 
Besonders AMD schneidet aktuell schlecht ab was den Verbrauch im idle angeht. Nervt es euch auch so? Mein PC läuft sehr oft und lange im idle oder sehr geringer Last und wird für fast alles als Zentrale verwendet.
Ja, sollte man echt nicht kaufen. Gerade dann wenn man plant das System viel im Idle zu benutzen.
Auch die Leistung im Idle lässt da stark zu Wünschen übrig.
 
Sind bei mir leider über 20W unterschied.
....
Das ist auch genau die Differenz die mir beim GPU-Verbrauch angezeigt wird.
60Hz: GPU zwischen 7 und 15W. Springt öfter mal hin und her
120Hz: GPU wie festgenagelt bei 39W
Dann kann ich mir das nur so erklären, dass das dann wohl an deiner stärkeren 6900XT liegen muss. ;)


Bei meiner 6650XT schaut das jedenfalls, nach einmessen mit einen Voltcraft SEM6000B, so aus:

60Hz Gesamtsystem Idle / 80Watt:
60HZ.png

144Hz Gesamtsystem Idle / 86Watt:
144HZ.png

165Hz Gesamtsystem Idle / 86~87Watt:
165HZ.png

..wobei man noch für die MyPhoneExplorer Software selbst und die Synchronisierung via USB-Debugging und deren Verbindung (USB-C 3.2) ca. 3-4 Watt vom Gesamtverbrauch abziehen darf.
Der Monitor getrennt gemessen, verbraucht im HDR Setup 60Hz bis 165Hz, 24 bis 27 Watt (SDR ca. 3~4 Watt durchschnittlich, je nach Modi, weniger).
Ziehe ich jetzt den Monitor und die Software bei derzeit aktiven HDR@165Hz ab (27+4 Watt), liegt das System bei 56 Watt Idle, Stromplan "Ausbalanciert" mit 5x NVMe SSD und 32GB Dimm 3200@3600MHz.

ps: Es geht aber auch noch weniger im Stromplan "Ausbalanciert" wenn man den Dimm Takt @ XMP default bei 3200MHz fährt und die Software Synchronisation via USB weg läßt:
Idle Ausbalanciert.png

..beim browsen hier im Forum schauts dann so aus:
Browsen.png

..und YT gibts ja auch noch:
YouTube.jpg
 
Zuletzt bearbeitet:
Ein kleiner Geheimtip ist bei AMD Systemen die GPU in der CPU zu nutzen bei Ryzen 7000 und die PCIe GPU ebenfalls zu nutzen.
Das ganze nennt sich Hybrid Grafic. Der Monitor wird an der Mainboard CPU-GPU angeschlossen. An der PCIe-Grafikkarte hängt kein Monitor.
Der IDLE Desktop läuft nun komplett mit der CPUGPU. Sobald ein Spiel startet wird die Grafik in den Framebuffer der CPUGPU kopiert.
DIE PCIeGPU wird im IDLE komplett abgeschaltet. So lassen sich bis zu 15W im IDLE sparen.

Das ganze funktioniert mit aktuellen PCIe NVIDIA und AMD GPUs.
 
Schreib doch statt CPU-GPU oder CPUGPU einfach iGPU und keine Sorgen, das i steht für integrierte und nicht für Intel.
 
Also meine AM5 Plattform (Asus TUF X670e Plus Wifi) verbraucht mit EXPO II DDR5 6000 1,35V und -20 Curve der CPU mit GPU ca. 30W mehr im Idle, als mein vergleichbar ausgestattetes Sockel 1150 Z370 Board samt OC Intel 8700k mit Fixed V-Core 1,32V und RAM sogar 1,4V.
Das finde ich schon etwas unschön muss ich sagen, auch wenn ich sonst zufrieden bin bisher - die GPU wird endlich mal halbwegs ausgelastet in CPU Limit Szenarien in meinen Games.
Dafür ist die CPU halt schön effizent wenn mal etwas Last dazu kommt - aber da sind ja die AM5 CPUs auch unterschiedlich wenn auch meist natürlich besser als eine 5 Jahre alte CPU.

Edit:
Hab auch mit IGP und fast keinen extra Komponenten außer CPU Lüfter getestet, da war ich ohne EXPO bei ca. 60W und mit EXPO bei ca. 70W, etwas mehr bei zwei Monitoren.
Hier hat mein Z370 ohne GPU ca. 45W gebraucht.

@nebulus1 Irgendwelche Nachteile bei Latenz oder Leistung etc?
Dann hab ich nur das Problem, das ich nur zwei Ausgänge habe, aber eigl mindestens 3 brauche bzw. 4 - 3 Monitore maximal aktiv parallel aktuell.
 
Zuletzt bearbeitet:
Der AMD Ryzen 7000 Verbrauch lässt sich wieder ordentlich drücken, wenn man sich mal die Spannungen anschaut und nur so hoch setzt, wie sie auch müssen.
Mein ASUS setzt für EXPO auch auf einmal die SOC Spannung auf 1,3V und die VDDIO/MC auf 1,35V. SOC auf 1,2V und VDDIO auf 1,25V bringen schon alleine 7-8W Ersparnis (die auch wieder dem Powerbudget zum Rechnen zugute kommen). Also da kann man schonmal schauen.
Niedriger habe ich noch nicht probiert, ginge aber sicher noch etwas.

Zur Hybrid Graphics gibt es hier einen aktuellen Beitrag mit kleiner Diskussion: https://www.planet3dnow.de/cms/67740-sockel-am5-hybrid-graphics-ausprobiert/
Die meisten Boards bieten min. einen Displayport - manche sogar 2, da kann man 3 Displays pro Port ranhängen.
 
Zuletzt bearbeitet:
Wenn ihr wissen wollt was Dimms so durchschnittlich "verbrauchen", hab das mal in verschiedenen Szenarien getestet. Jeweils nur System ohne Monitor:

2 Dimm (DC) @ Nominaltakt (ohne XMP) / mit XMP @ 3200MHz / mit XMP @ 3600MHz:
2Dimm-2666.png 2Dimm-3200.png 2Dimm-3600.png

1 Dimm (SC) @ Nominaltakt (ohne XMP) / mit XMP @ 3200MHz / mit XMP @ 3600MHz:
1Dimm-2666.png 1Dimm-3200.png 1Dimm-3600.png

..was Monitoring Software unter Windows so ausliest, dass sollte man nicht unbedingt immer auf die Goldwaage legen. Da spielen zu viele andere Faktoren (Lastzustände durch HG Tasks usw.) mit hinein.
Z.b. "7~8W." Ersparnis nur durch andere Dimm Taktung und kleinere CPU vCore Spielereien, sorry, dass halte ich mal für ein Gerücht. ;)


edit: Und weils so schön ist, hier mal die Verbräuche eines aktuellen Monitors in verschiedenen Aktualisierungsraten (FR) 60/120/144/165Hz, jeweils im High Dynamic Range (HDR) und Standard Dynamic Range (SDR) in der wohl noch allgemein gebräuchlichsten Auflösung FHD1080p:

HDR 60/120/144/165Hz:
HDR 60HZ.png HDR 120HZ.png HDR 144HZ.png HDR 165HZ.png

SDR 60/120/144/165Hz:
SDR 60HZ.png SDR 120HZ.png SDR 144HZ.png SDR 165HZ.png

..macht summa sumarium rund 33% des Gesamtsystemverbrauch aus, bei optimalsten Settings.
Das ist auch der Grund, warum man Systemverbrauchmessungen generell immer ohne Monitor machen sollte (und USB Verbraucher langen auch noch einmal gut zu). ;)
 
Zuletzt bearbeitet:
Also mein System verbraucht idle (Desktop mit dunklem Hintergrund, nichts tun) ca 113W. Stecke ich den Monitor (4k, 60Hz I'm Desktop Betrieb) ab und messe nur den PC sind es noch 53 bis 62W.

Die Lehre daraus ist aber eher, dass man sich wegen ein paar Watt mehr oder weniger seiner Graka oder CPU nicht so anstellen sollte.
 
Wenn man selten Gaming macht und meistens nur (Home)Office, YT, etc.. dann lohnt sich irgendwann immer ein zweites System.

Idealerweise ein Laptop von der Arbeit, dann hat man überhaupt keine zusätzlichen Kosten :d

Aber auch ein billiger Mini PC, NUC etc., wobei der nicht zu teuer werden darf.
Ich würde auch nicht mehr zwanghaft versuchen, meinen Gaming PC sparsam zu halten. Da ich sowieso einen immer 24/7 laufen lasse, komme ich an einem zweiten gar nicht vorbei.

Bin mal gespannt wie lange er hält. Der NUC12 ist so gekauft worden, damit ich damit alles erledigen kann außer Gaming.
Auch soll er nicht ausgetauscht werden und laufen bis er kaputt geht. Egal wie viele Jahre.

Am Gaming darf dagegen auch mal was geändert werden.
 
Zuletzt bearbeitet:
Würde auch nen 2. System holen, aber dann darf ich alle Kabel inkl. Glasfaser HDMI Kabel doppelt verlegen etc. das kostet auch nochmal extra und ich hab nochmal mehr Kabel rumliegen.
 
so ein Mini passt doch hinter jeden Monitor, da kann man minimale Kabellängen nehmen.
Tastatur, Maus, Teufel System und Bose UC 700 schalte ich damit um: Amazon
Das Umschalten der USB Geräte funktioniert perfekt und passiert sofort ohne Verzögerung.

Hinter meinem C2 hab ich NUC, den Umschalter und sogar noch ein 4-Disk USB-C Gehäuse stehen und man sieht davon nichts :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh