Intel wurde wegen dem Verbrauch immer schlecht gewertet.
Wegen des hohen Maximalverbrauches, der aber nicht an Intel lag, sondern nicht selten daran, dass die Mainboardhersteller eben die CPUs ab Werk mächtig übertaktet haben. Teils mit Power Limits von über 4000W, die keinen Sinn machen, weil keiner ein Netzteil hat, was soviel liefern könnte und auch die Spawas der Boards wären damit überfordert. Die Intel Vorgaben wurden einfach ignoriert und das einzige was man Intel da vorwerfen kann, ist das sie da nicht früher eingegriffen und Treiben einen Riegel vorgeschoben haben, aber da ist halt die Frage, ob sie dazu eine Handhabe hatte, die Mainboardhersteller haben ihnen ja immer wieder mal auf dem Kopf rumgetanzt und inoffizielle Features eingebaut um mehr Performance aus den CPUs zu kitzeln, denen Intel dann teils per Microcode Update Riegel vorgeschoben hat, wie das BLCK Übertakten von None-K CPUs.
Dazu wurde dann gerne die Leistungsaufnahme mit Prime und damit Maximallast ermittelt und so getan, als würde die CPU immer so viel Leistungsaufnahme haben. Die Leistungsaufnahme bei konkreten Anwendungen / Spielen zu ermitteln, ist ja eine recht neue Sache. Die meisten wollen aber eben offenbar die maximale Performance und legen keinen Wert auf die Effizienz, aber wie schon im Fazit des Reviews steht:
Die Effizienz lässt sich bei diesem Modell durch die entsprechenden Einstellungen im BIOS nachreichen.
Das geht nicht erst seit Arrow Lake, schon mein Z97 Board hatte die Möglichkeit die Power Limits im BIOS einzustellen. Aber die Reviewer benchen eben mit tollen OC Gaming Mainboard mit deren Default BIOS Einstellungen und da haben die Mainboardhersteller (nicht Intel) eben immer die berüchtigte Brechstange angesetzt um bei den Mainboard Reviews die längsten Balken bei der CPU Performance zu bekommen und den wenigsten ist aufgefallen, dass sie dies nur durch noch mehr OC per Default Einstellung erzielen.
Und es hat mich gewundert, dass Intel den Cache nicht irgendwie kopiert hat.
Das wundert mich auch, zumal Intel ja eigentlich mit den Desktop Broadwell CPUs und deren eDRAM, welches auch als L4 Cache für die CPU Kerne funktioniert hat, diese Sache im Grunde mal gestartet hat. Schon diese beiden Braodwells haben bei einigen Benchmarks / Games außergewöhnlich gut abgeschnitten, eben wegen des zusätzlichen Caches und obwohl Intel bei Arrow Lake den Memorycontroller auch noch auf einem anderen Die untergebracht hat, was ja schon zumindest den Verdacht hätte wecken müssen, dass dies die Latenz negativ beeinflusst, haben sie nichts gemacht. Das kann eigentlich nur bedeuten, dass ihnen der Markt der Gamer nicht so wichtig war.
Aber bzgl. Nova Lake gibt es ja einige wilde Gerüchte, u.a. auch von 144MB L3 Cache. Mal sehen was am Ende wirklich kommt, es gab ja schon bei Meteor Lake Gerüchte im zusätzlichen Cache im Base Tile und dies waren eben auch nur Gerüchte. Dabei ist eben bei einigen Spielen die RAM Performance, also neben dem Durchsatz auch die Latenz, sehr wichtig. Die Latenz von DRAM hat sich seit langem kaum verbessert, bei HBM ist sie nur deswegen besser, weil dies anderes als normales DRAM eben getrennte Lanes für die Übermittlung der Row und Column Adressierung haben, statt Rows und Columns nacheinander über die gleichen Leitungen zu übertragen. Aber HBM muss auch per Halbleiterinterposer angebunden werden, da es eben viele Verbindungen braucht, die man in einem normalen RAM Sockel nicht unterbringen könnte.
Die effektive Latenz kann man aber eben auch durch mehr Cache senken, da jeder Zugriff der vom Cache bedient werden kann, eben die Anzahl der Zugriffe auf das DRAM mindert und schnell erledigt ist als ein DRAM Zugriff. Das hat AMD mit den X3D erfolgreich umgesetzt und Glückwunsch dafür. Würde Intel kontern wollen, hätten sie z.B. einen Raptor Lake oder Arrow Lake Die produzieren könne, wo statt der e-Kerne mehr L3 Cache verbaut ist. Haben sie aber nicht und da ist die Frage warum? Entweder sehen sie den Markt als zu klein an oder es gibt ein anderen Problem, vielleicht den Ringbus oder den Cache Controller. Man sollte ja nicht vergessen, dass die Verwaltung eines größeren Cache prinzipiell immer auch länger dauert als die eines kleinen Caches und es daher einen Punkt gibt, wo mehr nicht mehr besser ist. Wo das Limit liegt, hängt natürlich von der jeweiligen Implementierung ab.
Vielleicht hat AMD die Implementierung bei seinem 3D-Cache besser hinbekommen, aber andererseits hat schon der eher lahme eDRAM von Broadwell bei bestimmten Fällen einiges gebracht. Daher denke ich, dass Intel den Gamingmarkt einfach nicht so ernst genommen hat, die verkaufen ja auch haufenweise CPU am OEMs für die ganzen Officekisten. Aber vielleicht ändert sich das ja nun mit dem neuen CEO. Also abwarten und schauen was dann kommt, auf die Gerüchte die da derzeit kursieren, würde ich nicht zu viel geben.