Mehr Verbrauch ohne Ecores? Alder Lake, Rocket Lake

Rocket Lake ist ja völlig ineffizient was soll ich denn damit.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Rocket Lake ist ja völlig ineffizient was soll ich denn damit.
Der ist doch noch älterer als Alder Lake? wie kommst du auf Rocket Lake? bis auf Dich hat niemand ein Wort verloren über ''Rocket´´ :unsure:
 
Aus eigener Erfahrung muss ich dir sagen, dass du dir selbst ein Bein stellst, wenn du Effizienz mit den Raptor Lake / Refresh Prozessoren kombiniert haben willst, aber bei Windows 10 bleiben willst. Was auch immer im Scheduler geändert wurde, er funktioniert sehr viel besser unter Windows 11 als unter Windows 10.

Unter Windows 10 musste ich z.B. Process Lasso nutzen, um z.B. DCS auf die Sprünge zu helfen und die Kernzuteilung ordentlich hinzubekommen. Unter Windows 11 kann ich mir das jetzt scheinbar sparen.

Wenn du nur die P Cores aktiv haben willst, kannst du das jederzeit im BIOS angeben (zumindest auf der Z-Plattform, die B-Plattform nutze ich nicht und kann deshalb nichts aus eigener Erfahrung berichten). Ob das dann aber wirklich effizienter wird, wage ich zu bezweifeln. Denn eigentlich sind gerade die E Cores relativ gut darin die unliebsamen Hintergrundtasks zu erledigen und den P Cores den Rücken freizuhalten.


Wenn du maximale Gaming Leistung bei minimalem Verbrauch willst, musst du fast in Richtung AMD x3D schielen. Aber da ich vermutlich was anders unter "Effizienz" im Kopf habe, musst du es selbst entscheiden.
 
RPL ist ja effizienter und im Prinzip ist der Sprung vom 12600 zum 14700K ok , aber da er die CPU eh verkrüppeln will und bei Win 10 bleiben möchte
würde ich doch eher den Kram verkaufen und einen 7800X3D kaufen. Das sollte einfach gut laufen unter Win 10 und man hat einen schnellen 8 Kerner der effizienter arbeitet als
es RPL tut gerade im Gaming. Habe mich jetzt nicht krass eingelesen bei AMD , aber optimieren kann man auch AMD Systeme nehme ich mal stark an.
Würde dann das alte System als Bundle verkaufen.

Kann sein das der 7800X3D im Idle 20 Watt Verbraucht , aber guck mal was meine CPU im IDLE Verbraucht nur weil NZXT CAM im Hintergrund läuft^^
Gut das ich nicht den ganzen Tag einfach den Rechner dumm anlasse und auch was mache , wenn er läuft.

IDLE.jpg
 
Wenn du nur die P Cores aktiv haben willst, kannst du das jederzeit im BIOS angeben (zumindest auf der Z-Plattform, die B-Plattform nutze ich nicht und kann deshalb nichts aus eigener Erfahrung berichten). Ob das dann aber wirklich effizienter wird, wage ich zu bezweifeln.
Das hat bei meinen Z-Board via UEFI leider effektiv nie im Forced Mode (Prozess Lasso) funktioniert. Muss ich mal MSI anschreiben warum. :unsure: ..das Bitsum CoreDirector kommt unter W11 mit Prozess Lasso klar:

Intel XTU CPU Stress allcore mit AVX2:
allcore.png

Intel XTU CPU Stress only P-Core mit AVX2:
onlypcore.png

Nachteil des ganzen, selbst wenn man den XTU Prozess wieder entfernt, dass Bitsum Tool schließt, CPU Affinities bzw. Effizience Mode wieder deaktiviert, der Intel TD lässt sich nicht mehr dazu überreden, in der aktuellen Session die E-Cores wieder effizient einzusetzen. Abhilfe schafft nur ein Rechner Neustart. :fresse:

edit:
Ob das dann aber wirklich effizienter wird, wage ich zu bezweifeln. Denn eigentlich sind gerade die E Cores relativ gut darin die unliebsamen Hintergrundtasks zu erledigen und den P Cores den Rücken freizuhalten.
Und genau das scheinen nicht wenige, obwohl es diese hybrid Architektur seitens Intel nicht erst seit gestern gibt, immer noch nicht zu verstehen.
Die sehen nur Kerne, viele Kerne und denken, jetzt kann ich daddeln wie der Held im Erdbeerfeld! ..gerade in der Daddel Szene scheint man da überfordert mit das einzuordnen. :unsure:
Die E-Cores sind getrimmt auf Applicationeffizienz Worklow und das in vier Klassifizierungen:
Class 0: Die meisten Anwendungen
Class 1: Workloads mit AVX/AVX2-Anweisungen
Class 2: Workloads mit AVX-VNNI-Anweisungen
Class 3: Berechnungsengpässe, zb. E/A- oder Besetztschleifen die nicht skalierbar sind

Das war noch nie Intels Intention, mit der hybrid Core Architektur "Gamer" CPUs zu basteln, wurde über die Jahre nur vom Netz so aufgebauscht (großer Dank geht hierbei besonders an die Clickbait Reviewer Szene für die alles was man irgendwo sockeln kann automatisch auch unter "Daddel Silizium" katalogisiert wird) und hat sich entsprechend manifestiert.
Wer reine Daddel CPUs haben möchte der sollte halt zu AMD greifen. Ist doch ganz einfach.
 
Zuletzt bearbeitet:
Ne habe so 10-12 Watt wenn ich das Tool schließe . Habe aber auch über 1,3V SA wegen DDR4 mit höheren Takt und habe mir noch etwas Luft gelassen. Daher ist schon alles richtig. Wenn man die SA niedrig hält macht das auch paar Watt wohl aus.

Normal sind so 4-5 Watt im Optimum im Idle , aber schön das es bei dir noch weniger ist.
 
Das musst du wohl die HW. fragen. :)

ps: Ich sehe da auch keine "hohe" VID. Wie kommst du darauf? Rein rechnerisch, fällt laut XTU, bei aktiven E-Cores hier ein Mehrverbrauch von 0,06vC an.

Ne habe so 10-12 Watt wenn ich das Tool schließe .
Dann probiere das noch einmal mit irgend einen anderen Tool @ Last und lass XTU im HG laufen. Bei mir sind die E-Cores nach Bitsum CD so gut wie platt.
Zeigt XTU auch so an: 6 Cores, CPU Utilization max. 60%. Normal müsste da 14 und 100% stehen.

..
 
Zuletzt bearbeitet:
Normal sind so 4-5 Watt im Optimum im Idle , aber schön das es bei dir noch weniger ist.
Das ist alles eine Frage der BIOS Einstellungen. ASRock optimiert die offenbar besser auf eine geringe Idle Leistungsaufnahme als andere, wie z.B. ASUS und dann spielen die Energiespareinstellungen in Windows natürlich auch eine Rolle. Ich habe da nichts geändert außer die Power Limits anzupassen und die RGB Beleuchtung zu deaktivieren. Das man sich mit ungünstigen BIOS Einstellungen die Idle Leistungsaufnahme ebenso versauen kann wie mit irgendwelchen Tools die dann unter Windows laufen, sollte klar sein.
 
Dann probiere das noch einmal mit irgend einen anderen Tool @ Last und lass XTU im HG laufen. Bei mir sind die E-Cores nach Bitsum CD so gut wie platt.
Zeigt XTU auch so an: 6 Cores, CPU Utilization max. 60%. Normal müsste da 14 und 100% stehen.

..

Das Tool gehört zur AIO , weil diese wird via USB angeschlossen intern. Lüfter könnte ich auch via BIOS regeln , aber die Pumpe nicht . Die startet mit niedrigster Umdrehung und das wäre unter Last zu wenig Leistung. Daher ist man zwangsläufig darauf angewiesen. Nutzt leider nichts. Schmeiße deswegen nicht die gute AIO weg die 250€ rum gekostet hat.

Der Verbrauch ist mit oder ohne Tool ähnlich wenn ich Hwinfo mal paar Stunden laufen gelassen habe . Also durchschnittliche Verbrauch. Ich lasse meinen PC nicht den ganzen Tag Idlen . Ich mache ja dann irgendwas. Daher alles gut.
 
Da meinen wir beide wohl was anderes. :d
Es ging ja um den Intel ThreadDirector und halt deaktivieren der E-Cores. Das W11 Tool dazu heißt Bitsum CoreDirector.
Da muss ein Bug vorliegen, gerade noch einmal probiert, sobald du einen Prozess "addest" und startest, fährt der Intel TD die E-Cores runter auch wenn du sämtliche Prozesse diesbezgl. schließt.
Alles natürlich unter Energieplan Ultimative Leistung, um diesbezgl. andere Bugs zu vermeiden. Der Intel TD fährt danach mit angezogener Handbremse bis Neustart.
 
Zuletzt bearbeitet:
Meine Win 10 Version hat bis Januar 2032 Support. ;)
Was bringt dir der Support, wenn du jetzt schon eventuell Probleme hast, das wird in Zukunft nicht besser werden.
Kannst du die Win10 LTSC nicht auch einfach upgraden auf Windows 11 oder liegt es an der Umstellung, weil so schlimm ist das nicht.
 
Vor allem, wird er bis 2032 bei derselben Hardware bleiben?
Selbst wenn man jetzt auf AMD setzt (zwecks ohne E-Cores), wer sagt das AMD nicht vielleicht auch in einigen Jahren in diese Richtung geht?
Wer jetzt kein Win11 braucht soll's lassen, ich hab auch 3 Rechner im Haus und nur einer läuft mit Win11. Weder der Devils Canyon 4790K noch der Skylake-X 7800X brauchen es. Der eine ist offiziell nicht mal kompatibel. Aber eines weiß ich sicher: bis 2032 werden die nicht als Hauptrechner laufen.
 
Die e-Kerne sind die Effizienzkerne, von daher ist es Schwachsinn, auch wenn du das nicht lesen willst.

Hat aber mit der Frage vom Themenersteller nichts zu tun. Ich denke Post 1 war ganz klar, was er wissen will. Es war nicht die Frage ob es sinnhaft ist.

Ich habe gelesen, dass diese Kerne minderwertig sind, da diesen gewisse CPU Instruktionen fehlen.
Für mich wäre auch nur ein Betrieb ohne E-Kerne relevant, aufgrund Softwarezwang.
Beitrag automatisch zusammengeführt:

Das System mit 416 Watt ist deutlich effizienter, als das mit 301 Watt, weil es einfach deutlich mehr leistet.

Wenn mein generierter CODE nicht lauffähig ist aufgrund der fehlenden CPU Instruktion, sagen wir Eigenschaft hinzu, dann ist der Vergleich irrelevant.
Beitrag automatisch zusammengeführt:

Gibt auch tools wo du mit einem Tastendruck die E-Cores deaktivieren kannst unter Windows ohne es dauerhaft zu deaktivieren.

Weil der Scheduler die Aufgaben nicht richtig zuweisen kann. Das ist das Problem an einer Mischlösung.
Hat aber AMD auch mit Kerne mit 3D-Cache und ohne.

--

Gut, dass man mit Zahlen arguemntieren will.

Aber Spiele Benchmarks mit veralteten Prozessoren und Grafikkarten aus 2022 sind irrelevant.
Es fehlt die Ryzen 7000er und die Intel 14000er Prozessoren.
Windows und sagen wir mal pauschaliert Grafikkartentreiberupdates verschieben oft auch noch diese Zahlen.
Hinzu kommen noch andere neuere Grafikkarten.
Beitrag automatisch zusammengeführt:

CPU im IDLE Verbraucht nur weil NZXT CAM im Hintergrund läuft

Das ist ein Problem mit dem Betriebssystem.

Mir ist das vor kurzem auch aufgefallen mit Windows 11 Pro und einem Game Launcher.

Leerlauf für mich als Einzelfall als Person vs Leerlauf für ein Windows 11 Pro.
Hat man irgendetwas offen, ist es schon wieder irrelevant. Plus die Millionen an unnötigen Helferlein die sich in den Autostart reinhängen.

Ein echter Leerlauf von einem Gaming Rechner mit Windows 11 Pro nach dem Cold Boot wird schwierig werden.
Beitrag automatisch zusammengeführt:

Die E-Cores sind getrimmt auf Applicationeffizienz Worklow und das in vier Klassifizierungen:

Das bringt nichts. Ich compiliere die Software dass Sie auf schlechteren Kernen ineffizient läuft.
Warum gibt es meiner Meinung nach immer mehr Instruktionen pro CPU Generationenwechsel?
Wäre ja schwachsinnig oder?
Wenn Software nicht die CPU Instruktionen verwendet, ist sie ineffizient.
Das sieht man wenn man mit der gnu toolchain sich beschäftigt.
 
Zuletzt bearbeitet:
@jaydee2k4
Ich habe gerade spaßeshalber mal die E Cores im BIOS deaktiviert (E Cores = 0). Den Rest habe ich unverändert gelassen (VCore, PL1=125 W, PL2= 253 W, IccMax= 307 A). Ich bin auch im Energiesparprofil "Ausbalanciert" geblieben, da ich sonst nicht sagen kann ob der Intel Thread Director ausgehebelt wird (ich vermute es aber).

Dann habe ich einen TimeSpy Extreme Benchmark laufen lassen. Ja, die P Cores können etwas häufiger und länger an ihre obere Grenze Boosten (bei meinem 14700K 5,6 GHz). Aber die CPU Package Temperatur fällt nicht, im Gegenteil sie schien im letzten Abschnitt, dem CPU Test, sogar leicht zu steigen. Der CPU Test schnitt ~4000 Punkte schlechter ab als mit aktivierten E Cores.

Das heißt jetzt erstmal nichts für Spiele. Aber zum Einen sehe ich ohne weitere Maßnahmen wie z.B. Undervolting erstmal keinen Effizienzgewinn. Und ob ein Undervolting ohne E Cores besser gelingt als mit E Cores, darauf würde ich nicht unbedingt wetten. Denn die Cores sind ja eigenständig. Sie teilen sich meines Wissens nach den L3 Cache Zugriff und sie müssten sich den Strom "teilen" bzw. werden beide gemeinsam versorgt.
Und theoretisch könnte der fehlende Wärmeeintrag helfen.

Aber so der ganz große Wurf ist das nicht.


Ich habe auch seinerzeit in DCS Multithreading damit experimentiert die E Cores komplett abzuschalten. Das hatte das Spiel in der Performance auch verschlechtert. Unter Windows 10 musste ich dafür sorgen, dass mindestens ein P Core dem Spiel nicht zur Nutzung überlassen wird und damit für Systemaufgaben frei bleibt. Das hatte dann gut geholfen. Jetzt unter Windows 11 im Profil "Ausbalanciert", Energiestatus "Beste Leistung" kriegen das das Spiel, Windows und die CPU ganz wunderbar selbst hin und es läuft sogar schneller und flüssiger. Ich fasse keine Tools mehr wie Process Lasso an, wenn mich nicht irgendwas dazu zwingt.
 
Ich habe den 14700k geholt. Bei techpowerup hatte jemand sehr gute Ergebnisse mit Ecores aus Pcores auf 5 Ghz gedeckelt und -0.125mv Vcore offset. So soll er nicht mehr als 70 Watt beim Gaming schlucken, meistens weniger. Letztendlich genau wie ich das will.
 
Leider finde ich den Thread nicht mehr. Es war auf jedenfall auf einer englischen Reviewseite in den Kommentaren.

Ich werde jedenfalls berichten wenn er da ist.
 
Aber die CPU Package Temperatur fällt nicht, im Gegenteil sie schien im letzten Abschnitt, dem CPU Test, sogar leicht zu steigen.
Kein Wunder, denn die Wärme fällt auf einer kleineren Fläche an, wenn die e-Kerne deaktiviert sind und damit steigt die Temperatur. Schau Dir nur mal den Review des Xeon W9-3495X an, wo mit dem Noctua NH-U14S DX-4677 auch bei 480W noch bequem gekühlt wurde, weil die Fläche so groß ist:

Und theoretisch könnte der fehlende Wärmeeintrag helfen.
Nein, im Gegenteil, s.o. denn je größer die Fläche ist über die die Wärme anfällt, umso besser lässt sie sich kühlen.
 
So CPU ist da und verbaut. Boost Offset auf -5. LLC auf Mode 5 und Vcore offset mit -0.04 bekomme ich ihn Prime stabil. Ohne Ecores. Zieht so in Cinebench 120 Watt, Prime 140 und in Spielen weniger als mein 12600. Und das bei 5 Ghz. Spürbares upgrade isses auch. Ladezeiten sind mehr als halbiert.

Bis jetzt TOP!
 
Nichts verändert sonst. Spiele liegen auf 3 WD Black 770er 2TB. Starfield gut 10 Sekunden schneller. Age of Wonders 4 einfach von ~20 Sekunden auf 2-3. Irre.

Wahrscheinlich der große Cache.
 
Alle die gemeint haben 8 Kerne bringen nix beim zocken haben wohl keine.
Bei Cities Skylines 2, Victoria 3 oder auch Crusader Kings 3 helfen die ganz massiv.

Bin rundherum zufrieden.
 
Vorallem hätte der 7800X3D gut dabei ausgesehen :d
Ne viel Spaß mit deinem Upgrade ;-)
Die Entscheidung ist ja Nachvollziehbar, weil es eben auch am einfachsten war.


Screenshot 2023-12-30 005316.png
 
So CPU ist da und verbaut. Boost Offset auf -5. LLC auf Mode 5 und Vcore offset mit -0.04 bekomme ich ihn Prime stabil. Ohne Ecores. Zieht so in Cinebench 120 Watt, Prime 140 und in Spielen weniger als mein 12600. Und das bei 5 Ghz. Spürbares upgrade isses auch. Ladezeiten sind mehr als halbiert.

Bis jetzt TOP!
Ja aber dann klär doch bitte mal die Frage auch auf: wieviel weniger Verbrauch hast Du denn jetzt?
 
Je nach Spiel 5~10 Watt. In Victoria 3 gibts aber auch ab und an mal Spikes Richtung 90 Watt. Starfield immer ~65. Da hatte ich vorher ~69 mit dem 12600. Und da werden alle Kerne ausgelastet.
 
Mehr Kerne die jeweils weniger hoch ausgelastet sind, verbrauchen eben weniger Energie als weniger Kerne die dafür jeweils mehr Last haben, sofern sonst kein Unterschied bzgl. der Fertigung oder Architektur dies ausgleichen kann. Raptor Lake (Refresh) wird wie Alder Lake in Intel 7 gefertigt, auch wenn der Prozess inzwischen ausgereifter ist und Raptor Lake haben eben etwas mehr L2 Cache. Wie viel das ausmacht und wie viel die Tatsache das eben mehr Kerne jeweils weniger Last haben, kann man halt schwer sagen, aber es war zu erwarten das die Leistungsaufnahme fällt, sofern man eben nicht das höhere maximale Taktpotential voll ausnutzt.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh