PL1=PL2: Alder Lake-S bekommt mehr TDP-Spielraum

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.950
alder-lake-package.jpg
Mit dem nahenden Start der Alder-Lake-Prozessoren für den Desktop kommen auch mehr und mehr Informationen ans Tageslicht. Bisher konnte man aufgrund der aktuellen Gerüchtelage davon ausgehen, dass die Top-Modelle zwar weiterhin eine TDP von 125 W vorzuweisen haben und auch ein erhöhtes Power-Limit für einen kürzeren Zeitraum von 228 bis 241 W haben.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Es wird also immer klarer, dass Intel hier weiterhin mit der Brechstange die Leistung herausholt um defintiv vor AMD zu landen. Klar, mit PBO kommen auch AMDs CPUs auf nen Verbrauch von 220-250W, aber das ist halt nicht default aktiviert.
 
Man will sich den Grafikkarten anpassen 🤣
 
Hatte schon mehr als ein AM4 Board hier bei dem PBO @ Auto = enabled war. (Asus und Asrock)

Ok... sollte aber eigentlich nicht sein.

Dennoch kann man das ja auch wieder abschalten. Wenn nun bei Intel aber PL1=PL2 sein sollte, dann heißt das ja, dass die CPUs grundsätzlich deutlich mehr Strom ziehen (können) und es keine Option gibt, diese (wie bisher) auf 125W zu locken. Abgesehen von manuellen Eingriffen.
 
Sorry aber bei diesen "Sensations-News" lese ich immer und überall "bis zu" und nicht "liegt bei". ;)

Wenn man sich mal die Intel Bretter anschaut, dann sind dort die @ default PL Settings zumeist immer höher eingestellt als die Intel PL Empfehlungen.
Wer sagt, das dass jetzt bei Z690 anders ist?

Kann Igor hier mal bitte ein Screen der Z690 PL Settings des UEFI posten?
Bzw. ein XTU Advanced Settings Screen reicht auch schon (bin ja nicht so).

Nein? ..dann ist das für mich bis zum Releaseday nix weiter als Spekulatius.

edit: So wie ich das verstehe, kann PL1 Wert ja auch nur PL2 Wert entsprechen bzw. gesetzt werden (wie überhaupt? Durch das Board?) wenn folgendes erfüllt ist:
Dazu müssen fünf aufeinanderfolgende Durchläufe im Cinebench R20 gemacht werden - bei konsistenten Ergebnisse und ohne größere thermische Belastungen der Spannungswandler.
..da will ich mal sehen wie das dann praktisch aussehen / erfüllt werden soll. ;)
 
Zuletzt bearbeitet:
Wenn nun bei Intel aber PL1=PL2 sein sollte, dann heißt das ja, dass die CPUs grundsätzlich deutlich mehr Strom ziehen (können) und es keine Option gibt, diese (wie bisher) auf 125W zu locken.
Eventuell gibt es an einem 125W TDP Modus einfach kein Interesse mehr von den Komplett PC Herstellern. Ich mein, hätte ich auch nicht. Wenn ich als Hersteller solch teure Speerspitze verkaufe, dann erwartet mein Kunde auch maximale Power. Dann baue ich als Hersteller eine AiO ein und der Kunde wird nicht mehr getäuscht.

Find ich ein richtig gutes Vorgehen.
 
Immer diese Aufregung über theoretische Lastszenarien. Zockt ihr Prime95 oder was? Ich denke nicht, dass Alder Lake in Spielen weit über 100W liegen wird.
 
Du weißt doch selbst wie das mit sochen Sensations News a'la Igor ist.
Da wird fett in der 120pt (Arial bold) Schlagzeile ein 241 Watt gesetzt, darunter Funken sprühende Hardware und 1 Absatz darunter mal positiv mehrfach die Lieblingshardware des anderen Herstellers dem ggü. in ein positives Licht gerückt. Das alles irgendwo ohne Hand und Fuß.

..der gute Mensch könnte Karriere bei Bild.de machen. :bigok:

Meine Meinung, muss man nicht teilen aber wo bitte sind die hieb- und stichfesten Beweise dafür unter reality Last?

Wenn es soweit ist und sich diese Spekulatius bewahrheiten, ok, dann kann man so etwas bringen.
Jetzt aber ist das einfach nur unseriös und Panikmache, gerade den Leuten ggü. die a.) nur Schlagzeilen lesen und b.) eh von der Thematik keinen Plan haben.
 
Zuletzt bearbeitet:
Immer diese Aufregung über theoretische Lastszenarien. Zockt ihr Prime95 oder was? Ich denke nicht, dass Alder Lake in Spielen weit über 100W liegen wird.

Und du nutzt deinen Rechner immer nur zum Spielen? Ja, bitteschön.

Es gibt aber Nutzer, die mit ihrem PC noch ganz andere Dinge anfangen und die CPU dadurch deutlich breiter auslasten. Die wollen aber vielleicht dennoch keinen 240W Stromschlucker haben.
Zumal ja bereits in diversen geleakten Benchmarks ersichtlich wird, dass der Leistungszuwachs trotz teils ernormer Leistungsaufnahme nur gering ausfällt.
 
PL4? Interessant... ist bestimmt nur für ultra-kurze Lastspitzen mit 360W. Mal gucken was effektiv an Verbrauch bleibt, wenn der 12900k CB20 oder CB23 durchläuft und wie groß der Leistungsverlust ist, wenn man ihn auf 125W festnagelt. Ich tippe (wie bei den Gpus auch) nur wenige Prozent.
 
..und? Da wird ein 8+8 Kerner gegen einen 16 Kerner gebencht. Was hast du denn geglaubt, was da heraus kommen soll?

Objektiv wäre 16 P-Kerner gegen 16-P Kerner bzw. 8P+8E Kerner gegen 8P+8E Kerner.

..das ein 8P+8E Kerner mehr Energie anlegen muss gegen einen 16P Kerner ist doch nur logisch.

Kleines Beispiel: Beschneide einen Ryzen 5950X mal auf 8 P-Kerne, füge den 8 E-Kerne hinzu und dann lass den mal gegen einen Ryzen 5950X mit 16 P-Kernen antreten.
Würde mich wundern, wenn du dann mit +/- 160 Watt den gemoddeten 8P+8E Ryzen auf das gleiche Performancelevel bekommst wie den 16P Ryzen. ;)
 
Zuletzt bearbeitet:
..hat Intel aber nicht gemacht, die Hinterwäldler. Wollten lieber so einen Quatsch wie Hybrid Design durchzwiebeln. :fresse2:

Aber mal ehrlich. Diese Äpfel mit Birnen Vergleiche hier finde ich immer wieder höchst amüsant. Dazu diese Bild.de News, prikelnd. :bigok:
 
Das ist eine Verschwörung der WaKü-Hersteller!
 
..und? Da wird ein 8+8 Kerner gegen einen 16 Kerner gebencht. Was hast du denn geglaubt, was da heraus kommen soll?
Es geht dabei doch erstmal gar nicht darum, was da gegen was gebencht wird.

Betrachtet man nur allein die Benches zur Intel 12900K CPU, wird deutlich, dass selbst mit massivem OC und bis zu 400W Verbrauch die Leistung nur im einstelligen Prozentbereich ansteigt. Nichts weltbewegendes also.
Wenn man also auf diese eher geringen Leistungszuwächse in Verbindung mit deutlich höherem Stromverbrauch keinen Wert legt, ist es schon blöd, wenn es keinen 125W PL1 mehr gibt.

Im Übrigen kann ich mich noch gut daran erinnern, als der FX-9590 mit 220W TDP rauskam. Da waren das Geschrei und die Häme groß. Aber wenn Intel mit sowas um die Ecke kommt, ist das alles halb so schlimm, ja?
 
Es gibt aber Nutzer, die mit ihrem PC noch ganz andere Dinge anfangen und die CPU dadurch deutlich breiter auslasten. Die wollen aber vielleicht dennoch keinen 240W Stromschlucker haben.
Du hast das wohl noch immer nicht auf dem Schirm. Es geht hier um PC Komplett Hersteller.
Intel sagt, passt die Kühlleistung der CPU an und nicht andersrum, wie vorher.
Möchtest du persönlich jedoch keine bis zu 240 Watt verbrauchen, sondern nur bis zu 125 Watt, dann kaufe ein leistungsschwächeres System. Oder takte ihn runter. Letzteres stellt in der Praxis aber keinen typischen Usecase dar, denn solch High End CPU verbaut man wegen der Leistung, stromsparende Modelle wird es weiterhin geben mit ebenso vielen Kernen. Genau das für dich @Morrich 🙋‍♂️
 
Und du nutzt deinen Rechner immer nur zum Spielen? Ja, bitteschön.

Es gibt aber Nutzer, die mit ihrem PC noch ganz andere Dinge anfangen und die CPU dadurch deutlich breiter auslasten. Die wollen aber vielleicht dennoch keinen 240W Stromschlucker haben.
Zumal ja bereits in diversen geleakten Benchmarks ersichtlich wird, dass der Leistungszuwachs trotz teils ernormer Leistungsaufnahme nur gering ausfällt.
Die kaufen dann eher Threadripper oder fertige Systeme.
 
Im Übrigen kann ich mich noch gut daran erinnern, als der FX-9590 mit 220W TDP rauskam. Da waren das Geschrei und die Häme groß. Aber wenn Intel mit sowas um die Ecke kommt, ist das alles halb so schlimm, ja?
Es geht nicht um schlimm oder nicht schlimm, sondern einfach nur darum, dass man hier hybride Technik mit nicht hybrider Technik vergleicht und erwartet, dass ein im Grunde genommen nur Vollwert 8-Kerner gegen einen Vollwert 16-Kerner mit weniger oder max. gleichen Verbrauch mit letzteren aufschließen bzw. diesen überholen soll. Das ist doch Mumpitz und das die hybride CPU das nur mit mehr Energie trotzdem schafft, auch nur logisch. Die Erwartungshaltung einiger User ist schon grundsätzlich absurd und nicht nachvollziehbar. Gestützt wird dieser Schwachsinn vorab, ohne wirklich nachvollziehbare Belege, dann auch noch von solchen Sensations Gebashe wie diesen Igor News. ob mit Absicht oder nicht sei mal dahin gestellt.
 
Bin ja mal gespannt wie die das verheiraten. Angeblich sollen die Effizienzkerne ja effizient sein. Liest sich ja erstmal nach Verbrauchsmonster.
 
Also egal wie ernst man diese news sehen sollte, mich entäuscht es immer mehr. Der wo ich so viel leistung bei so wenig stromverbrauch haben will wie möglich ist das der gipfel. Na also ich habe selbst nen 5950x und meiner hat durch den Boost den er mitbringt auf 4,1 ghz. Der säuft nicht viel, nur 128 watt also unter den angaben von Amd selbst. So stelle ich mir das auch vor. Bei intel wird das nicht so sein. Meine erwartung werden selbst dann zu hoch sein auch wenn ich keine mehr an intel habe. Wenn intels cpu mal so weit sind, kriegen die gerne auch wieder ne chance. Mir ist es egal wie die kerne aufgeteilt sind. Wenn dies zu leistunf kommt und der stromverbrauch eingehalten dann gerne. Ich dachte echt die kleinen kerne würden sparsamer werden, da lag ich aber voll danaben. Das wunder wird also ausbleiben von dem Intel hochgepriesen hatte. Ja ist immer so in werbung. Wie nimmst medizin und schwups ist krankheit oder erkältung gleich zu ende. Die leben alle in einer anderen Welt. Intel ebenso. Die dachten ernsthaft das sie mit sowas in allen Games und Anwendungen gleich ziehen würden mit ihren 8+8 kernen. Naja erwarte nix weltbewegendes aber aus reiner neugier was intel am ende wirklich geschafft hat, schaue ich gerne. Am ende lache ich sie dann aus nicht mindestens mit einem 5950x gleich zu ziehen zu können. Meine erwartung werden auch zum nächsten rzyen wachsen. Bin gespannt ob Amd die 20 % Anwendung beim zen 4 halten wird. Nichts anderes erwarte ich. Also strengt euch alle an Intel und Amd. Selbst die 3000 threadripprr cpu sind mir zu schwach, da muss ordentliche mehrleistung drauf. Ich warte also auf richtige Burner Cpus. Auch wenn es fake 5nm sind so soll es 1 zu 1 in Leistung durchgedrückt werden. Alles andere wären nur halbe sachen.
 
Interessiert ja im Endeffekt eh nur Dauer Benchmarker, Hardcore Overclocker oder Semiprofessionelle Streamer (und selbst die Wahrscheinlich nicht). Im Normalgebrauch dümpelt die CPU dann eh nur bei 20-50% Auslastung herum und die liegen nicht nonstop an... Bin beim Spielen selbst ohne Overclock absolut noch nie über 100W Verbrauch gekommen obwohl ohne Limits doch sehr viel mehr möglich wäre...

Und du nutzt deinen Rechner immer nur zum Spielen?

Wie schon erwähnt wurde, Professionelle Nutzer die ihren PC mit professionellen Anwendungen auslasten nehmen für gewöhnlich Hardware die auf diese Bedürfnisse ausgelegt sind, alles andere würde mich an der Professionalität zweifeln lassen. Dürfte dann eher Threadripper oder Xeon sein. Bestimmt kein Standard Ryzen oder i7-i9 (oder darunter)... Und ja meinen Spielerechner nutze ich tatsächlich ausschließlich zum spielen.
 
Bin ja mal gespannt wie die das verheiraten. Angeblich sollen die Effizienzkerne ja effizient sein. Liest sich ja erstmal nach Verbrauchsmonster.
Das wird sich dann ja die nächsten Wochen / Monate zeigen, denn ich denke mal, dass der Intel Thread Director und W11 Sheduler bei Lastmanagement und Effizienzverteilung ein großes Wort mit zu reden haben und sicherlich auch noch das eine oder andere seitens MS nachgebessert werden muss. Denn eines sollte man nicht vergessen, dieses Hybridmanagement ist bei Desktop Win noch neu und wird garantiert nicht gleich auf Anhieb überall und in jeden Szenario perfekt funktionieren. Da werden sicherlich auch einige Newsbots sofort ketzerisch, wie bei den AMD L3 Bug, drauf anspringen. Bestimmte Fraktionen gleich wieder Threads aufmachen die Intels Hybride verteufeln usw. usf., sollte man aber im Endeffekt aussitzen und objektiv bleiben. Das ist nunmal das Internet. Tollwiese für Trolls. :)

edit: ..und wer weiß, wenn dann vieleicht sogar mal eventuell in naher Zukunft seitens MS ein "Intel 1903-Boosting" Update für W11 kommen mag, dann sind -wundersamerweise- alle bisherigen Verfehlungen, Bugs und Patzer vergessen und Alder Lake bei allen und jeden die tollste CPU der Welt und war es auch schon immer gewesen. Nichts ist unmöglich und die Ryzen Nutzer wissen ja was ich meine. ;)
 
Zuletzt bearbeitet:
Objektiv wäre 16 P-Kerner gegen 16-P Kerner bzw. 8P+8E Kerner gegen 8P+8E Kerner.
..das ein 8P+8E Kerner mehr Energie anlegen muss gegen einen 16P Kerner ist doch nur logisch.
Natürlich. Die Wahl seitens Intel war aber eher 10P Kerne gegen 8P+8E abzuwägen. Und da ist 8+8 deutlich im Vorteil, bei gleicher Chipfläche. Die Option auf 16P Kerne gab es vermutlich wegen der Chipkosten nicht.
Professionelle Nutzer die ihren PC mit professionellen Anwendungen auslasten nehmen für gewöhnlich Hardware die auf diese Bedürfnisse ausgelegt sind, alles andere würde mich an der Professionalität zweifeln lassen.
Die Realität in Unternehmen sieht leider nicht so aus... Klar, für Leute die den ganzen Tag ausschließlich rendern/simulieren wird man einen fetten Xeon oder Threadripper kaufen, aber alles andere wird sehr gerne auf den kleinen Sockeln gemacht. Ich kenne diverse Firmen im Mittelstand, die z.B. in ihren (Maschbau) CAD Kisten Intel i7 7700(k) und neuer verbaut haben. Wenn so ein Teil dann mal ne kleine Simulation fährt, dann wird es zur Turbine.

Also generell zu sagen, das ein Alder Lake im professionellen Umfeld nie unter Volllast läuft ist schlicht falsch. Die Welt besteht halt nicht nur aus Streamern und Gamern ;)
 
Im Titel ist die Rede von "mehr TDP-Spielraum". Wenn jedoch das Minimum (P1=P2) angehoben wird, dann wird der TDP-Spielraum (Differenz zwischen Min und Max) doch verkleinert?
 
Ja kann sein,mir ist das aber zu wenig,weil bei mir wird es ja eh keinen großen Spielraum geben.Bin also auf sparsame CPUS angewiesen.Habe nur ein 450 Watt Netzteil und nicht vor mir nur wegen ner CPU nen stärkeres Netzteil zu holen.ALso wenn die CPU meint so viel Saft zu ziehen,geht halt dann der PC einfach aus.Verwende zwar nur ne 75 Watt GPU aber dennoch.Also wehe die Frisst so viel,dann nutzt es mir ja nix.Hätte beinahe ein Netzteil mit nur 400 Watt oder gar 350 Watt genommen gehabt.Und warum weil je besser über 50 % Netzteilauslastung desto besser die Effiizients eines Netzteiles auch.Also wenn sowas mehr als 128 Watt brauchen wird,hätte ich ein Problem damit.
 
Im Titel ist die Rede von "mehr TDP-Spielraum". Wenn jedoch das Minimum (P1=P2) angehoben wird, dann wird der TDP-Spielraum (Differenz zwischen Min und Max) doch verkleinert?
Wenn der sich jetzt dauerhaft 241W genehmigen darf, ist das zu 125W ein großer Spielraum:d bin gespannt hoffe es gibt bald ein Test, kann nicht mehr warten.
 
Leute, ihr könnt mal alle günstigen CPU Kühler bis 30€ mal eben aus dem Zimmer fegen, Intel kommt vorbei und erlaubt sich 240W und mehr. :stupid:

Leise und eigentlich völlig ausreichende Kühler wie ein BeQuiet Pure Rock2, die auch noch mal 100W wegschaffen können (bis 150W spezifiziert) werden wohl nicht mehr reichen, um solche Heizkacheln zu kühlen.

Im Titel ist die Rede von "mehr TDP-Spielraum". Wenn jedoch das Minimum (P1=P2) angehoben wird, dann wird der TDP-Spielraum (Differenz zwischen Min und Max) doch verkleinert?
Überlesen dass es ein P4 geben wird? da war ne hübsch hohe Wattzahl dahinter, die ich nur mal bei Grafikkarten gelesen habe ...

VR Thermal Additional Recommendations
• For designs with 8-phase’s VR, which configure PL1=PL2, passive heat sinks are recommended on VR components to avoid VRHOT# assertion.
• Additionally, Intel recommends board manufacturers conduct VR component thermal tests, under loading conditions above to assess the need for passive cooling on their specific topologies.

IA Iccmax (A) 280
IA IPL2 (A) 184
IA ∆i (A) 208
IA ∆t (ns) 200
IA DC/AC LL (mΩ) 1.1
GT Iccmax (A) 30
GT IPL2 (A) 22
GT ∆i (A) 21
GT ∆t (ns) 250
GT DC/AC LL (mΩ) 4.0
AUX Iccmax (A) 28.5
AUX DC LL (mΩ) 2.0
PL1 (W) 241
PL2 (W) 241
PL4 (W) 359

Ich mache ja echt nicht jeden Kleinmist mit, was Klimarettung &Co. angeht, sondern schaue schon, wo es Sinn macht und die Kosten nicht den Nutzen auffressen ... aber noch mehr Verbrauch der next Gen ist jetzt wirklich nicht der Weg, den Intel da gehen sollte.

Was holen ich da nur den Leute an Hardware ran, die ne bessere Schreibmachine als Rechner haben wollen? So schnell wird es wohl keine Intel Plattform mehr werden, wenn man dann 700W Netzteile für Office benötigt, nur damit die CPU, wenn sie mal ordentlich, auch anständig Saft bekommt.
Das dann wohl nur, damit der Rechenknecht 1x die Woche aufglühen darf, damit Windows seine Updates draufpacken kann, oder? Wird wohl eher nen Raspberry werden in solchen Fällen.


Hoffentlich lassen sich die MB-Hersteller ne kundenfreundlich angeordnetes TDP-Limit einfallen, was dann auch vernünftig arbeitet ...
Die meisten Intel User brauchen keine 2% mehr im Penismeter als AMD ... das ist Kinderkacke und Sandkastenniveau, damit man was vorzeigen kann.
Wacht mal bitte auf bei Intel, ihr solltet eure Prioliste mal anders herum halten oder mal die OEM Kisten Schrauber fragen, was der Kunde benötigt.

Dann bleibt ja nur zu hoffen, dass man aus Gen 12 seine Schlüsse zieht und mit Gen13 dann wieder in die Richtige Richtung fährt.
 
Zuletzt bearbeitet:
Es geht nicht um schlimm oder nicht schlimm, sondern einfach nur darum, dass man hier hybride Technik mit nicht hybrider Technik vergleicht und erwartet, dass ein im Grunde genommen nur Vollwert 8-Kerner gegen einen Vollwert 16-Kerner mit weniger oder max. gleichen Verbrauch mit letzteren aufschließen bzw. diesen überholen soll.
Genau das versuchen die Leaks aber seit einem halben Jahr zu suggerieren. Und Intel redet ja auch von "Efficient Cores". Außerdem heißt es ja immer, dass die AMD Vielkerner extrem TDP limitiert sind und ihre Kerne gar nicht richtig nutzen können.
 
Wenn nun bei Intel aber PL1=PL2 sein sollte
Nein, ist es nicht, PL1 ist der gleiche Wert wie die TDP und da ist immer noch in allen Gerüchten von 125W die Rede. Die News ist keine News und schon gar nicht das, was manche daraus machen. Es war bei allen Z Boards schon lange normal, dass diese ab Werk im Default sehr hohe Power Limits eingestellt haben.
Dies hätte man auch beim Blick in die BIOS der Z590, Z490, Z390 etc. Mainboards genauso festgestellt, da haben auch nur die wenigsten ab Werk in der Defaulteinstellung ein Power Limit voreingestellt, welches der Intel Vorgabe, also PL1 = TDP entspricht und wenn doch, dann ist Tau bei denen unendlich lang und PL1 somit irrelevant.
Du weißt doch selbst wie das mit sochen Sensations News a'la Igor ist.
Eben,. die News ist keine, es ist keine Neuigkeit das die BIOS da viel zu hohe Werte voreingestellt haben und das ist auch Quatsch mit Soße, da die Mainboadhersteller dies wie gesagt schon ewig so handhaben:
Offenbar schwimmen der AMD Fangemeinde gerade die Felle weg und nun muss das Image von Alder Lake mit der angeblich hohen Leistungsaufnahme ruiniert werden und/oder die Mainboardhersteller wollen schon mal eine Begründung für ihre Preiserhöhungen liefern, an der dann Intel Schuld sein soll. Das einzige was Intel offenbar gemacht ist, dass wenn die Mainboardhersteller dies schon so machen, sie es dann auch wenigstens ordentlich umsetzen:
Also das Mainboards bei denen der Boardhersteller die PL1 bis auf PL2 anhebt, dies dann stabil läuft.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh