PL1=PL2: Alder Lake-S bekommt mehr TDP-Spielraum

Ich möchte keinem der Kollegen in den Rücken fallen, aber neben der anderen Implementierung durch die Hersteller der Motherboards hat Intel auch den Marketingbegriff "Processor Base Power" eingeführt, der wohl zusammen mit geeigneten Argumentationshilfen (Folien) die Reviewer dazu anhalten soll, PL1 doch bitte schön auf PL2 zu belassen. Inwieweit die aktuellen Briefings der Reviewer und Influencer das noch einmal jedem Beteiligten ins Gehirn brennen sollten, überlasse ich jetzt der Phantasie eines jeden Einzelnen. Insofern war die initiale Meldung von Andreas hier nur fair, während andere einfach schweigen. In Zeiten schwindender Ressourcen so einen energetischen Unfug zu propagieren, ist weder zeitgemäß noch zielführend. Das ist das, was mich am meisten ärgert, denn es konterkariert den eigenlich richtigen Lösungsansatz bei ADL, der so einen Mist gar nicht nötig gehabt hätte. :)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mein persönlicher Benchmark wäre
Witcher3, FullHD, ohne FPS-Cap mit ner 3080 und größer (definitiv CPU Limit), und dann FPS/Watt

Jetzt ist Witcher3 sicher nicht das Maß der Dinge, ich hab es nur gewählt, da es auch auf älterer Hardware läuft, hinreichend fordernd ist und es im notebook-Bereich einige Vergleichswerte gibt.

Sicher wäre auch MSFS2020 oder CP2077 oder Anno1800 denkbar um möglichst viele Kerne ans schwitzen zu bekommen ohne mit der Cinebench-Brechstange Ran zu gehen.

Vielleicht liest diese Idee ja der eine oder andere Reviewer
 
Ich habe mittlerweile 11 Spiele durch und sehr interessante Dinge finden können. Im 720p Limit gibt es Spiele, wo Rocket Lake extrem weit vorn liegt und andere, wo sich dies genau umkehrt und die Ryzen die Intels verkloppen. Es sind beides Extremfälle, die aber nicht nur ein einziges Spiel betreffen. Wo sich ADL dort einsortiert steht noch unter NDA.

Ich kann eigentlich nur jedem raten, alle Spiele in allen 4 Auflösungen zu testen, erst dann ein geometrsiches Mittel aus allen Ergebnissen zu erstellen und vor allem die 720p Tests NICHT mit NVIDIA-Grafikkarten zu machen. Auch wenn eine RTX 3090 oder RTX A6000 vor allem in UHD schneller sind, ab WQHD abwärts werden die Unterschiede zwischen den CPUs mit der übertakteten RX 6900XT deutlich größer bzw. ausgeprägter. Das ist teilweise schon erschreckend, was Team Grün dort an Boden verliert. :d
 
neben der anderen Implementierung durch die Hersteller der Motherboards
Was für eine andere Implementierung? Die meisten Z590, Z490, Z390 etc. Mainboards haben doch per Default schon Power Limit Einstellungen die der CPU dauerhaft weit mehr Leistungsaufnahme zugestehen als Intels PL1 aka TDP, was man auch in den ganzen Revirews der CPUs und Mainboards bei der Leistungsaufnahme gut sehen kann. Also laber keinen Mist und den Mist zu rechtfertigen den du das veröffentlicht hat und den HL leider auch noch in einer eigenen News wiedergegeben hat. Sowas braucht kein Mensch.
In Zeiten schwindender Ressourcen so einen energetischen Unfug zu propagieren, ist weder zeitgemäß noch zielführend.
Es gibt ja wohl immer noch die Möglichkeit die Power Limits im BIOS einzustellen und statt Blödsinn wie diesen oder generell von wegen hoher Leistungsaufnahme in Reviews zu schreiben, sollten der Reviewer lieber darauf hinweisen, dass jeder dies über die BIOS Einstellungen selbst in der Hand hat und die CPUs dann eben oder zusätzlich auch nach Intel Vorgaben bzgl. PL1, PL2 und Tau benchen. Außerdem sollte man die Leistungsaufnahme nur einmal mit der Brechstange Prime95, immer für jeden einzelnen Benchmark (jedes Spiel) ermitteln und ins Verhältnis zu Leistung dort setzen. Klar macht das Aufwand, erspart aber einige Kommentare die vor allem für diejenigen peinlich sind, die diese abgeben.
 
Ich habe mittlerweile 11 Spiele durch und sehr interessante Dinge finden können.
Freu mich schon darauf! 8-)
Bin gespannt wie gut diese Hybridbestückung (8 Kerne mit HT gepaart mit 8 Effizienzkernen ohne HT) in Games funktionieren wird und ob hier alles rund läuft unter W11 was wie zugeteilt wird...
 
Zuletzt bearbeitet:
Sagen wir mal so:

Igor ist ein anerkannter Experte.

Und Holt? Holt schreibt in Foren gerne positiv über Intel.

Ich jedenfalls freue mich schon sehr auf das thermale 360 Watt Schlachtfest, dem sich Intel in Experten-Reviews ausgesetzt sehen dürfte.
 
Hm was ich mich frage was ist denn dieses Tau, ich kann damit leider nix anfangen. Also was kann es und was macht es und wie wird es ausgeschrieben?
 
@Holt:
Manche Dinge muss ich etwas umschreiben, weil die meisten Kollegen außer mir unter NDA stehen und ich niemanden in irgendwelche Verlegenheiten und Konflikte bringen möchte. Fakt ist aber, dass die PL1=PL2 Geschichte im Gegensatz zu früher eine recht offensichtlich beworbene Beeinflussung ist, für die man sogar neue Begriffe prägt. Es ist ein Unterschied, ob man wie bei RKL ein Auswahlmenü mit Hinweisen bekommt, oder per Default für Außenstehende nichts mehr ersichtlich ist. Und es ist einmalig, dass sogar die zur Sparsamkeit neigenden SI dazu angehalten werden, ihre Fertig-Klumpen den neuen Richtlinien anzupassen. Das erfordert komplett neue Kalkulationen im ohnehin sehr schmal ausgelegten Budget. :)
 
Was für eine andere Implementierung? Die meisten Z590, Z490, Z390 etc. Mainboards haben doch per Default schon Power Limit Einstellungen die der CPU dauerhaft weit mehr Leistungsaufnahme zugestehen als Intels PL1 aka TDP, was man auch in den ganzen Revirews der CPUs und Mainboards bei der Leistungsaufnahme gut sehen kann. Also laber keinen Mist und den Mist zu rechtfertigen den du das veröffentlicht hat und den HL leider auch noch in einer eigenen News wiedergegeben hat. Sowas braucht kein Mensch.

Es gibt ja wohl immer noch die Möglichkeit die Power Limits im BIOS einzustellen und statt Blödsinn wie diesen oder generell von wegen hoher Leistungsaufnahme in Reviews zu schreiben, sollten der Reviewer lieber darauf hinweisen, dass jeder dies über die BIOS Einstellungen selbst in der Hand hat und die CPUs dann eben oder zusätzlich auch nach Intel Vorgaben bzgl. PL1, PL2 und Tau benchen. Außerdem sollte man die Leistungsaufnahme nur einmal mit der Brechstange Prime95, immer für jeden einzelnen Benchmark (jedes Spiel) ermitteln und ins Verhältnis zu Leistung dort setzen. Klar macht das Aufwand, erspart aber einige Kommentare die vor allem für diejenigen peinlich sind, die diese abgeben.
Und nochmal die Frage, warum muss ICH als Käufer dies manuell im BIOS einstellen? Warum bauen die Hersteller quasi alle bei Intel diese Übertaktung ein, bei AMD aber nicht oder weit seltener? Und wenn es doch fast nix bringt aber die Leistungsaufnahme negativ dastehen lässt, warum verbietet Intel es nicht einfach? Wäre das nicht das logischste? Ist ja nicht so, dass sie genau das nicht könnten und damit dann, so deine Worte, im Rahmen des Herstellers laufen würden und besser da stehen?!
 
  • Danke
Reaktionen: Tzk
sollten der Reviewer lieber darauf hinweisen, dass jeder dies über die BIOS Einstellungen selbst in der Hand hat
Das ist zwar gut gedacht, aber man kann getrost davon ausgehen, dass so ziemlich alle Nutzer eben NICHT im UEFI rumfummeln. Das bedeutet dann automatisch, das die Defaults von Intel sorgsam gewählt werden sollten. Macht Intel aber nicht. Und an der Stelle muss sich Intel zurecht vorwerfen lassen, das man sowas lieber ordentlich eingestellt bzw. verbindlich an die Hersteller kommuniziert hätte. Also wenn das Board unverändert betrieben wird, dann sollte im UEFI alles gemäß Spec laufen. Meinetwegen kann man ja beim Erststart im UEFI ne Abfrage machen ob der User die hohen Limits wünscht und alles entsprechend einstellen.

Übrigens würde ich bei AMD, Nvidia und jedem anderen Hersteller exakt gleich argumentieren. Warum zum Beispiel ist bei vielen GPUs das "Performance" Bios ab Werk aktiv, wo die Karte 2% schneller ist, aber 50W extra verbläst? Auch das könnte man dem User überlassen. Macht man aber nicht. Oder warum haben Spiele auch heute noch im Menü oft keinen Framelimiter auf 30 oder 60fps? Selbe Frage...
 
Und nochmal die Frage, warum muss ICH als Käufer dies manuell im BIOS einstellen? Warum bauen die Hersteller quasi alle bei Intel diese Übertaktung ein, bei AMD aber nicht oder weit seltener? Und wenn es doch fast nix bringt aber die Leistungsaufnahme negativ dastehen lässt, warum verbietet Intel es nicht einfach? Wäre das nicht das logischste? Ist ja nicht so, dass sie genau das nicht könnten und damit dann, so deine Worte, im Rahmen des Herstellers laufen würden und besser da stehen?!
Die meisten liegen bei nen 5950X mit OC bei stark fordernden Game's wie BF5 bei 150-160W guter Kühlung rum, ich würde mal vermuten das @Stock die TDP einfach ausreicht.
Bei Intel wenn der den Takt halten soll reicht das nicht, da säuft der 8c RKL ja mehr als der cml.
Meiner 10900k zieht ja massiv weniger als nen Standard Chip mit normaler Kühlung und ich kratze ja schon bei BF5 die 120W bei 5,1ghz, da liegen andere eher bei 160-200W.

Wo der ADL sich da einreiht mal schauen, aber hoher Takt soll der wohl auch so richtig saufen.
Ich finde das ehrlich gesagt das das kein unerheblicher Aspekt ist, die Wärme muss ja auch irgendwo hin.Zum anderen ist der idle Wert für mich auch entscheidend manche haben da mit ihrem OC über 200W bei AMD^^.
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: Tzk
eine recht offensichtlich beworbene Beeinflussung ist, für die man sogar neue Begriffe prägt
Das Traurige daran ist die Tatsache, das in der Spec zur Plattform sicher etwas anderes steht. Schöne Doppelmoral einerseits eine "grüne" TDP in die Spec zu schreiben, dann aber hintenrum ne fast schon eingeforderte "Empfehlung" auszusprechen diese Spec als Standard zu umgehen.
 
Die Specs haben sich bis Stand heute nicht geändert, auch die TDP-Klassen sind die gleichen. Sicher, es werden in Spielen sicher keine 241 Watt verblasen, aber ich habe hier viele Situationen gesehen, so selbst ein 11900K ab und an schon bei WQHD und vor allem FHD ins 125-Watt-Limit rennt. Bei 720p ist es dann wirklich krass. Und es stimmt mich schon bedenklich, wenn das jetzt Methode haben soll. Denn der Performance-Gewinn steht in keiner Relation zum Anwachsen der Leistungsaufnahme. Ich habe das mit den Systemhäusern fast täglich durchzukauen. Dort klammert man ADL aktuell komplett aus. Der Hauptgrund ist die Zwangsbindung an Windows 11, das bisher kaum einer den Kunden empfiehlt und dann diese Default-Geschichte. Selbst wenn der Builder das System einbremst, die Gefahr, dass einer mal das BIOS resettet und dann die Reliability Geschichte ist, ist den meisten viel zu hoch. Da geht es nicht um Daddelkisten, sonder auch um Sicherheit. In diesen Branchen ist OC absolut tabu und es wird auch nicht immer die Xeon-Workstation, die sich bei den meisten kaum noch rechnet.

Das Interessante an PBO(2) ist ja, dass man, wenn das Board was taugt, die TDP nie überschreitet, solange alles auf Auto steht. Klar kann man auch 300 Watt und 350 Ampere freigeben, aber das ist dann schon Mutwilligkeit. Intel macht ja mit den ganzen Boost/Turbo-Implementierungen auch nichts anderes. Aber das PL1 auszusetzen und das PL2 zum neuen Dauerzustand zu erklären, widerspricht allen eigenen Whitepapers.

Diese Tabelle ist eigentlich bindend, da offizielle Dokumentation, zumal auch die Baseline sehr interessant ist. Warum setzt man PL1 nicht auf PL2 der Baseline, sondern fordert gleich den Idealzustand heraus?

1635173686423-png.15548
 
Zuletzt bearbeitet:
Wo der ADL sich da einreiht mal schauen, aber hoher Takt soll der wohl auch so richtig saufen.
Ich finde das ehrlich gesagt das das kein unerheblicher Aspekt ist, die Wärme muss ja auch irgendwo hin.Zum anderen ist der idle Wert für mich auch entscheidend manche haben da mit ihrem OC über 200W bei AMD^^.
Wenn man die Brechstange raus holt muss man sich auch nicht wundern wenn viel Strom verballert wird. AMD setzt bei der Singlecoreboosterei zum Beispiel auch bis zu 1,5 Volt an. Das täte, wenn man dies gleichzeitig bei mehreren Kernen machen würde, extrem an der Steckdose nuckeln und zudem wahrscheinlich nicht mehr zu kühlen sein unter normalen Bedingungen...

200 Watt im IDLE? Kann ich mir schwer vorstellen ohne Last. Auch wenn du fixe Volt drauf ballerst (Allcore OC). Die CPU zieht erst so richtig Strom wenn sie auch gefordert wird...
 
Zuletzt bearbeitet:
Hat MS jetzt eigentlich W11 gefixt oder sehen wir parallel zu den "Tweaks" am Powerlimit da auch noch eine Optimierungshilfe für das Marketing?

Beim OEM Gedoens nächstes Jahr kommt dann auch die Effizienz. Das Intel für die Leistungkrone bei den K Produkten drauf scheisst und die Brechstange auspackt ist verständlich. Bei den dicken GPUs im Test kräht auch kein Hahn nach dem Verbrauch. Die Kundschaft wird auch hier die Balken nicht hinterfragen. Details stören nur.
 
Das ist zwar gut gedacht, aber man kann getrost davon ausgehen, dass so ziemlich alle Nutzer eben NICHT im UEFI rumfummeln. Das bedeutet dann automatisch, das die Defaults von Intel sorgsam gewählt werden sollten. Macht Intel aber nicht.
Intel baut keine Mainboards, dies wäre also die Aufgabe der Mainboardhersteller!

Das Interessante an PBO(2) ist ja, dass man, wenn das Board was taugt, die TDP nie überschreitet
Die TDP ist ein Wert auf dem Papier, die tatsächliche Leistungsaufnahme ist etwas anderes als die TDP und liegt auch bei AMD selbst ohne PBO über der TDP. Wie manche hier jemanden der die TDP mit der tatsächliche Leistungsaufnahme gleichsetzt als "anerkannten Experten" sehen kann, entzieht sich mit komplett.
 
Die TDP ist ein Wert auf dem Papier, die tatsächliche Leistungsaufnahme ist etwas anderes als die TDP und liegt auch bei AMD selbst ohne PBO über der TDP. Wie manche hier jemanden der die TDP mit der tatsächliche Leistungsaufnahme gleichsetzt als "anerkannten Experten" sehen kann, entzieht sich mit komplett.
Und du als anerkannter "Foren-Experte" solltest wissen, bei AMD PPT=TDP*1,35. Jeder weiß das, nur du, der Samariter des Luxx-Forums, reitet auf solche Nichtigkeiten hin.
 
Intel baut keine Mainboards, dies wäre also die Aufgabe der Mainboardhersteller!
Und wer macht die Vorgaben zur Plattform für die Hersteller? Aha, genau... Würde Intel die Einhaltung der Spec erzwingen (was kein Problem ist), dann wäre genau das umgesetzt. Macht Intel nicht bzw. im Gegensatz empfiehlt sogar durch die (inoffizielle) Hintertür sogar PL1=PL2 zu setzen. Du siehst, wir drehen uns im Kreis. So oder so, Intel muss hier tätig werden und klare Vorgaben in die richtige Richtung machen. Tun sie aber nicht.
 
Macht Intel nicht bzw. im Gegensatz empfiehlt sogar durch die (inoffizielle) Hintertür sogar PL1=PL2 zu setzen.
Wo denn?

"Validate Electrical and Thermal Capabilities
It is recommended that system integrators verify that with PL1=PL2 settings and the specifications listed above in place that, no adverse thermal impacts to VR or CPU take place. This can be done by running:
• Five consecutive iterations of CineBench20 (MT). 5-10 seconds between runs.
• Verify Scores are within (+/- ) 2% distribution.
• No VR Thermal events.


SoC Heatsink Thermal Capabilities
• The performance requirement of the thermal solution at end-of-life should be 0.07°C/Watt
• System condition assumptions for these requirements are as follows:
• TjMax = 100˚C
• Local Ambient= 30˚C
• Alder Lake S 8+8+1 125 W SoC


VR Thermal Additional Recommendations
• For designs with 8-phase’s VR, which configure PL1=PL2, passive heat sinks are recommended on VR components to avoid VRHOT# assertion.
• Additionally, Intel recommends board manufacturers conduct VR component thermal tests, under loading conditions above to assess the need for passive cooling on their specific topologies."

Source: https://www.igorslab.de/holt-intel-...jetzt-bis-zu-241-watt-genehmigen-doch-wofuer/

Keine Ahnung, aber ich lese da irgendwie nur Test- sowie Designempfehlungen seitens Intel heraus, wenn PL1 = PL2 gesetzt werden. Ich sehe da aber nirgendwo die Empfehlung, dass PL1 = Pl2 als Default eingestellt werden sollen...
 
Warum müssen sie Vorgaben machen? Ist doch geiler wenn Boardpartner und User die volle Kontrolle haben.

Wer Strom sparen will soll es einstellen und fertig.
 
@Paddy92
Ich möchte keinem der Kollegen in den Rücken fallen, aber neben der anderen Implementierung durch die Hersteller der Motherboards hat Intel auch den Marketingbegriff "Processor Base Power" eingeführt, der wohl zusammen mit geeigneten Argumentationshilfen (Folien) die Reviewer dazu anhalten soll, PL1 doch bitte schön auf PL2 zu belassen.
Lese ich an der Stelle schon so raus. Du nicht?
Ist doch geiler wenn Boardpartner und User die volle Kontrolle haben.
Dennoch sollten die Defaults gut gesetzt sein, weil die Masse der User das eben NICHT tut. Sprich sparsam sollte der Default sein und alles andere via Abfrage oder durch sonstigen Nutzereingriff.

Such doch mal hier im Forum nach "Hilfe mein 5800x wird zu heiss" und ähnlichen Suchbegriffen. Genau das passiert, wenn die Hersteller ihrem Wildwuchs ungehindert freien Lauf lassen dürfen.
 
Wenn ich sowas lese wie
"Evaluating unlocked 12th Gen desktop processors in their default configuration will access the best maximum performance capability"
(Dieser Satz geistert schon seit Tagen durch Intels Marketing)

Die Maximum Turbo-Power immer anzulegen ist schon etwas crazy. :d
Egal, es ist, wie es ist und ich gehe wieder arbeiten. So long...
 
Wenn man die Brechstange raus holt muss man sich auch nicht wundern wenn viel Strom verballert wird. AMD setzt bei der Singlecoreboosterei zum Beispiel auch bis zu 1,5 Volt an. Das täte, wenn man dies gleichzeitig bei mehreren Kernen machen würde, extrem an der Steckdose nuckeln und zudem wahrscheinlich nicht mehr zu kühlen sein unter normalen Bedingungen...

200 Watt im IDLE? Kann ich mir schwer vorstellen ohne Last. Auch wenn du fixe Volt drauf ballerst (Allcore OC). Die CPU zieht erst so richtig Strom wenn sie auch gefordert wird...
Mit über 200W idle mein ich den kompletten PC mit oc, klar spielt es auch ne Rolle was du für ne Graka drin hast, meine 3080 brauch 32W, da ziehen einige mit ner 3090 über das doppelte obwohl die nicht Leistung steht.
Wenn du OC betreibst sind einige Energiesparmechanismen raus, dazu kommt was das Board alleine sich genehmigt.Ich fahre z.b. manuelle vcore.

Ich find das halt relativ viel mein 10900k mit
5,1ghz/4,7/2x16GB@4600cl16-16@1,55V rtx3080 3xnvme, 1xDDC3.25+ 1xDDC3.2pwm, soundcard, 7x140mm noiseblocker rgb, 27x140mm Artic P14pwm pst und ein Tastaturdisplay was alleine ca. 10w zieht geht bis auf 115W runter.

Für den ganzen Krempel ist das ok, aber 100W mehr wäre mir ehrlich gesagt zuviel, da macht der PC ja nicht einmal wirklich was.
20211025_160240.jpg
 
Zuletzt bearbeitet:
Es ist doch auch immer das gleiche. Boah, Intel nimmt sich extrem viel Watt. Die Gegenargumentation ist auch die gleiche wie immer. Nutzt du Prime und überhaupt beim Zocken....
Hinzu kommen die, denen es völlig egal, andere wiederum basteln sich ihre eigene Erklärung, oder Rechtfertigung.

Doch darüber, dass es Intel nur darum geht, in den Benches die größtmöglichen Ergebnisse zu erzielen, und die Fertigprodukte von der Stange diese Ergebnisse nie erreichen, weil dort eben nach Spec gearbeitet wird, ist natürlich nie Thema.
Es geht immer nur darum, dass Konzerne versuchen das Maximum an Gewinn einzufahren und eben die anderen es nicht merken, über den Tisch gezogen worden zu sein.
Für die Konzerne, wie in diesem Fall Intel ist der Kleinkrieg in den Foren klasse. Es gibt kein gemeinsam gegen solche Praktiken der Konzerne. Deswegen haben wir ja auch eine Welt der Spaltung, der Zerstörungen, das Gegeneinander, der Gleichgültigkeit und derer, die eben bei diesem Spiel auch ihre bestmögliche Erträge einfahren, weil ja die anderen auch so sind.

Wir waren diejenigen die wussten, aber nicht verstanden,
voller Informationen, aber ohne Erkenntnisse,
endlose Taten, aber mager an Erfahrungen.
So schreiten wir dahin und niemand hält uns auf.
 
Es gibt auch noch die andere gruppe die sich wissentlich abzocken lassen. Die es wissen was da kommt und dennoch sich das produkt kaufen. Solche Menschen wird man nie verstehen, weil diese meistens unlogisch sich verhalten. Darum wird sich nie etwas dran ändern. Der Vater Staat macht auch nix weil will ja nur Geld dran verdienen, darum heizt der sowas lieber noch weiter an. Wir sollen so richtig bluten und bis zum genick bruch abgezockt wetden. Bin gespannt ob das mit Pc noch gut enden wird oder es ein böße ende ohne ende sein wird . Ich hoffe das es in zukunft besser sein wird bezweifle ich sehr.
 
Lese ich an der Stelle schon so raus. Du nicht?
Wo genau steht denn da jetzt, dass Intel den Mainboard-Herstellern empfiehlt, dass dies die neuen Defaultwerte werden sollen?

Das ganze hört sich so an, dass es für ausreichend ausgestattete OC Boards die Option geben soll, dass PL1 = PL2 dauerhaft anliegen können, anstatt diese durch TAU zeitlich zu begrenzen, sowie es diese Option auch schon bei den Boards zuvor gab. Dies wird ein wenig überdramatisierst. Wäre ja nicht das erste Mal, dass da irgendwelche Leute paar Tage vor einem Release hohe Wellen schlagen..
 
Zuletzt bearbeitet:
Sollte der Big/Little Ansatz auch nur ansatzweise funktionieren, sodass man damit stark an Die Size sparen kann, weil das Powerlimit eh die Leistung der Cores so stark begrenzt, dass es keinen Sinn macht, da volle Einheiten zu verbauen - dann haben sie schon gewonnen. Der ganze Vergleich - den die Medien da rauf beschwören von wegen AMD 5950X vs. 12900k -> das ist auch eigentlich meiner Ansicht nach gar nicht das Thema. Nach den MF Zahlen verkauft AMD gerade mal knapp 1/10tel so viele 16C wie 6+8C zusammen. Und nur 1/3tel 12+16C zusammen ggü. 6+8C. Für Intel reicht es doch völlig aus ggü. dem 12C gut abzuschneiden. Die letzten 10% - sollen se halt AMD kaufen. Dafür könnte man so ein Alder Lake aber technisch ggü. AMD auch im "H" Notebook bringen. Und mal eben von 8 auf 12, 14C oder 16C hoch gehen. Dafür gibts bei AMD nichtmal ein Design atm. -> das ist dann wieder so ein Markanteilsding.
Ich glaube auch immer noch, dass Intel "to big to fail" ist, aber es gibt auch viele Firmen, die sich über Jahre Millionen- und Milliardenschulden ans Bein gebunden haben, weil eine Strategie nicht aufgegangen ist. Intel kann es sich scheinbar leisten, diese Schiene einfach weiter zu fahren ... und in der ersten Generation zu stolpern. Big/Little hat seine Vorteile und das nicht erst von AMD eingeführte Chiplet Design auch. Die Frage ist, ob Intel von Anfang an das Ganze vernünftig hinbekommt oder erst in Gen 13 oder Gen14, wenn entsprechende Software gut arbeitet und die Effizienz für den Endkunden sichtbar ist. Momentan sehe ich da nur die Effizienz der Produktionskosten seitens Intel.

Ist nicht das erste Mal, das Intel neue Wege geht und gehen muss. Siehe Core CPUs, die damals aus dem sparsamen Mobilbereich kamen, weil Netburst in der Sackgasse stand, oder Tiger Lake (Gen 11), die auch nicht von Ice Lake abstammt.

Ich sehe es nur eben von hinten, vom Endergebnis für den Kunden kritisch.
Jahrelang ergaben neue Produkte eine zum Teil reduzierte Stromaufnahme inkl einer gewissen Leistungssteigerung.
Die letzten Generationen haben einfach nur beim Energieverbrauch zugeschlagen, so dass als Ergebnis beim Endkunden mehr Leistung durch mehr Energieaufnahme ankommt.
Das kann der Kunde aber auch selbst durch OC erreichen, das ist kein Fortschritt im Auge des Endkunden. Vorallem kein Grund, extrem viel Geld für ne neue Plattform und nen Ram auszugeben.
Das ist dann doch zu viel Änderung auf einmal bei Intel.
Auch wenn es so nicht ist, so kommt es einem vor, als würde bestehende Hardware nur mit mehr Strom versorgt, um mehr Leistung zu generieren. Sry
125W TDP für ne i5 12600k ist im Mainstream einfach zu viel! Punkt.
AMD hatte doch bereits mit den mobilen Ryzen 4xxx gezeigt, dass sparsames Energiebuget durchaus mit hoher Leistung kombiniert werden kann.

Wenn man sich in 5 Jahren dann Performance pro Watt ansieht, wird man diese Zeit bei Intel als Stillstand beschreiben können und das in einer Zeit, wo alle von notwendigen Änderungen sprechen, was Energienutzung angeht. Hoffentlich merken Unternehmen irgendwann mal, dass Ressourcen endlich sind, vor allem, wenn Energie weiterhin massiv aus endlichen Ressourcen gewonnen wird.

Ich muss mal eben schnell zur Tanke, ist grade günstiger geworden ... :asthanos:
 
Zuletzt bearbeitet:
Das hat doch nichts mit „too big to fail“ zu tun, hier steht niemand vor dem Kollaps. Intel war stets und ist immer noch wirtschaftlich völlig gesund. Sogar der miese Netburst damals war wirtschaftlich ein Riesenerfolg. Nicht zu viel Untergangs-Forengeblubber von AMD Trollen lesen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh