Core i9-12900K und Core i5-12600K: Hybrid-Desktop-CPUs Alder Lake im Test

Man muss nichts abschalten, kompletter Quark. Die Nasen haben einen Tweet gelesen und sich ansonsten nicht informiert, geschweige denn selbst getestet.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Weil es nun mal die Leistung schlechter macht? Und da wird nichts besser, Intel empfehlt nicht umsonst die abzuschalten.
Nein macht es nicht ! Wo soll das Intel bitte gesagt haben ? Auf sämtlichen Slides und Folien, auch zu den Benchmark-Folien, wurde kein Sterbenswörtchen darüber verloren, die E-Kerne beim Zocken abzuschalten.
Selbst wenn, wäre es aber ein Leichtes, die meisten Mainboards unterstützen ein Abschalten der E-Cores im laufenden Windows wenn man die Scroll-Lock Taste drückt. Das ist wenn überhaupt nur eine Empfehlung aufgrund der bescheuerten Denuvo DRM-"Schutz"-Software.
 
ECores abschalten macht wenig Sinn bestätigen einige Test und auch selbst hab ich es bei paar Sachen probiert. Die eCores abzuschalten bringt halt etwas mehr Headroom bei der Temperatur wenn man da am Limit sein sollte bzw beim OC ins Limit. Die Booststeps sind egal ob mit oder ohne eCores die Gleichen. Nur der Ring geht ohne eCores immer auf 4,7Ghz das macht bei ST ein bisschen was aus. Das wiegt aber nicht den Vorteil des MT wieder auf wenn die PCores für Anwendungen frei bleiben.

Da wurde halt wieder nur die Pre Release News gespeichert wo das irgendwo als "Leak" gekommen ist. In der Realität macht es einfach keinen Sinn
 
Der Ringbus lässt sich manuell auch mit aktivierten E-Cores auf ca. 4.3 GHz takten, das Abschalten bringt fast gar nichts, außer man jagt irgendwelche Rekorde unter LN2.
 
da behält man sich halt neuerungen in der hinterhand
Keine dieser Firmen behält Neuerungen für deren Entwicklungen die Milliarden aufgewendet hat, absichtlich in der Hinterhand. Intel hat die Probleme mit dem 10nm Prozess sicher nicht vorgetäuscht um ihn in der Hinterhand zu behalten und die 14nm Anlagen länger nutzen zu können. Auch haben sie die Architekturen nicht in der Hinterhand behalten, die neuen Architekturen waren für 10nm entwickelt worden und die kann man nicht einfach mal so in 14nm fertigen, von der Größe der Dies abgesehen, sind da viel mehr Anpassungen nötig und diese kosten Geld und brauchen Zeit. Erst mit Cypress Cove hat man dann die Sunny Cove 10nm Architektur auf 14nm backgeportet, als es mit Willow Cove auch schon den Nachfolger von Sunny Cove gab. Das man die Architektur von Cannon Lake nicht ebenfalls in 14nm übertragen hat, dürfte auch einfach daran gelegen haben, dass man damals eben auch noch nicht absehen konnte, wann die Probleme mit dem 10nm Prozess gelöst sein würden. Von in der Hinterhand behalten, kann man da also auch nicht sprechen, denn es gab zwar eine neue 10nm Architektur, aber keinen ausgereiften Prozess um diese zu fertigen und sie in 14nm zu fertigen hätte viel Zeit und Geld gekostet, die macht man also auch nicht mal eben einfach so, falls man es vielleicht brauchen könnte.

Direkt wird TSMC z. B AMD nicht verraten was Apple oder Nvidia anders macht, aber sie werden AMD zumindest einen Hinweis geben, wenn ein anderer Hersteller was probiert hat und gescheitert ist.
Erstens glaube ich nicht, dass TSMC gegenüber einem Kunden über Erfahrungen anderer Kunden reden wird oder darf, diese dürften aber sehr wohl in die Weiterentwicklung der eigenen Entwicklungstools für die Kunden einfließen und zweitens scheinst du von Chipentwicklung keinerlei Ahnung zu haben. Außerdem wäre dies nur für AMDs GPUs relevant, da nur diese in den Taktbereichen arbeiten in denen die Produkte von Apple und NVidia betrieben werden und nicht bei den 4 bis 5GHz mit denen AMDs 7nm CPUs maximal betrieben werden.

intel wurde für das festhalten an eigenen fabs zuletzt kritisiert, weil sei lange an 10 nm gescheitert sind, während andere fabs den prozess längst beherrschten, aber da zeigt sich, dass intel alles richtig gemacht hat.
Eben, sie sind daher auch kaum direkt von der Chipkrise betroffen, sondern vor allem indirekt, denn wenn die Boardhersteller keine Boards für ihre CPUs bauen können weil ihnen andere Chips dafür fehlen, dann kann Intel natürlich auch keine CPU verkaufen, denn ohne ein Mobo nutzt die CPUs nichts und wenn die Mobos wegen der Chipkrise teurer werden, dann müssen viele Kunden eben dies Geld bei der CPU wieder einsparen und werden ein günstigere CPU wählen als sie eigentlich geplant hatten.

Viele die Intel geraten haben seine Fabs zu verkaufen, vergessen außerdem, dass GF und TSMC mit den Nachfolgeprozssen ihrer 28nm Prozesse massive Probleme hatten! Deshalb hingen AMD und NVidia auch so lange bei 28nm fest, bis dann dann endlich mit 16nm (TSMC) bzw. bei GF dann durch die Übernahme von Samsungs 14nm Prozess einen gewaltigen Schritt machen konnten.
ja, das ist wirklich sehr schön einfach gedacht.

andere unternehmen (zu nvidia schielen) haben trotz mangelder konkurrenz in all den jahren deutlich mehr abgeliefert.
Wenn das auf Intel bezogen ist, so sollte man nicht vergessen, dass sie eben eigentlich nach Alder Lake mit Cannon Lake und 10nm geplant hatte. Außerdem hat sich AMD nicht so viel lange vorher auch nicht mit Ruhm bekleckert, also sie immer wieder neue Bulldozer Generationen gebracht haben! Aber ja, auch dies dürfte daran gelegen haben, dass GF eben keinen besseren Prozess als 28nm auf die Reihe bekommen hat und für eine bessere IPC braucht man vor allem mehr Transistoren und für 10% mehr IPC sind das deutlich mehr als 10% mehr Transistoren, die brauchen mehr Platz und erzeugen mehr Leistungsaufnahme, weshalb man eben am besten auch einen kleineren Fertigungsprozess braucht. Klar kann man auch ein wenig mehr IPC durch Optimierungen rausquetschen und mit der Zeit werden auch die Fertigungsprozesse immer besser, was die Optimierungen und vor allem mehr Takt ermöglicht, wie ja gut anhand von Zen+ gegenüber Zen gesehen hat, aber große Sprünge macht man nur mit deutlich mehr Transistoren pro Kern

Bleibt man also mal subjektiv, ich weiß dies fällt den meisten hier schwer und machen scheinen nicht einmal zu wissen was dies ist, so dürfte Intel mit Alder Lake nun in einer ähnlichen Situation wie AMD damals mit Zen sein: Nachdem Probleme mit einem besseren Fertigungsprozess auch neue Architekturen verzögert haben, ist der Knoten nun geplatzt und es kann und wird nun wieder mit größeren Schritten vorangehen als in der Zeit als die Probleme mit dem neuen Fertigungsprozess diese verhindert haben! AMD, GF und TSMC waren nur eben ein paar Jahre früher in dieser Situation als Intel und deshalb scheinen viele dies schon vergessen zu haben.
 
Zuletzt bearbeitet:
Naja, wirklich berauschend war RKL jetzt nicht.
er kam nicht an zen3 ran, aber verglichen mit comet lake war er durchaus ein fortschritt. kein evolutionssprung, aber ein leistungsgewinn war durchaus gegeben.
Damit ziehst du jetzt aber schon einen Strohmann auf.
das war doch gar nicht an dich gerichtet. aber es gibt durchaus leute hier im thread, die den konkurrenzbedingten fortschritt abstreiten.
Beitrag automatisch zusammengeführt:

Intel hat die Probleme mit dem 10nm Prozess sicher nicht vorgetäuscht um ihn in der Hinterhand zu behalten und die 14nm Anlagen länger nutzen zu können.
hat auch niemand behauptet. im gegenteil: 10 nm stand erst auf der roadmap, als die konkurrenzsituation längst gegeben war. aber trotz fehlendem 10 nm prozess hat intel in dieser zeit große fortschritte abgeliefert. in den jahren/generationen davor, wo regelmäßig shrinks durchgeführt wurden, ist dagegen kaum etwas passiert.
 
ja, ich hatte gehofft dass sich betreffende personen auch so angesprochen fühlen, ohne sie namentlich zu nennen ;)
 
Erstens glaube ich nicht, dass TSMC gegenüber einem Kunden über Erfahrungen anderer Kunden reden wird oder darf, diese dürften aber sehr wohl in die Weiterentwicklung der eigenen Entwicklungstools für die Kunden einfließen und zweitens scheinst du von Chipentwicklung keinerlei Ahnung zu haben. Außerdem wäre dies nur für AMDs GPUs relevant, da nur diese in den Taktbereichen arbeiten in denen die Produkte von Apple und NVidia betrieben werden und nicht bei den 4 bis 5GHz mit denen AMDs 7nm CPUs maximal betrieben werden.
Das macht jeder Dienstleister ohne seinen Kunden zu nennen, insbesondere wenn es auch zugunsten von ihm selbst ist z.B die Erzeugung von unnötigem Ausschuss oder das Binden von nicht notwendigen Ressourcen für z. B Testsamples. Die Erfahrung die TSMC bei der Produktion schon in 5nm für Apple gemacht hat, werden die zu 100% für andere Kunden nutzen.

Das macht auch jeder Produzent und jede Dienstleistung, gemachte Erfahrung mit neuen Kunden oder wiederkehrenden Kunden teilen, das ist keine Subjektive Meinung sondern Objektives vorgehen einer jeden Firma und/oder Facharbeiters.

An dem Punkt ist es halt auch ein Problem von Intel bei der Fertigung gewesen Intel war sein eigener Dienstleister und hat nur seinen eigenen "Pfusch" als Referenz für weitere Produkte.
 
im gegenteil: 10 nm stand erst auf der roadmap, als die konkurrenzsituation längst gegeben war.
Diese Roadmap der Fertigung müsste auf einer Präsentation für Investoren von 2010 sein, wie man daran sieht das bei allem ab 2011 ein * an der Jahreszahl steht, dies also die Erwartung für die Zukunft angibt:
Intel_2010_Fertigungs_Roadmap.png


Und spätestens 2015 erschien dann erstmal Cannon Lake in der Client Plattform Roadmap:

Intel_2010_Client_Roadmap.jpg


Damals war es für Q2 2016 geplant, zuerst in Notebooks und wie wir wissen, ist es eine 10nm Architektur! Damit wären sie ein Jahr vor Zen erschienen und die Desktop CPUs in 2017 wohl ungefähr zeitgleich mit Zen auf den Markt gekommen und für Cannon Lake waren mehr als 4 Kerne im Mainstream geplant.
aber trotz fehlendem 10 nm prozess hat intel in dieser zeit große fortschritte abgeliefert. in den jahren/generationen davor, wo regelmäßig shrinks durchgeführt wurden, ist dagegen kaum etwas passiert.
Wieso drehen wir uns nun wieder im Kreise? Mit Fortschritt meinst du ja offenbar Kerne im Mainstreamsockel, aber dafür gab es bei Intel die HEDT Plattform wo sich von 2011 bis 2017 die Anzahl der Kerne von 6 auf 18 verdreifacht hat! Im Mainstream wurde damals vor allem an den iGPU gearbeitet und deren Leistung verbessert, genau wie es AMD bei den APUs gemacht hat. Denn auch bei AMD hat sich zwischen dem Erscheinen von Bulldozer und Zen nichts bzgl. der Anzahl der Kerne getan und wenn man die FX mit 4 Modulen als 8 Kerner ansieht, wie AMD sie damals vermarktet hat, dann hat AMD erst mit dem Erscheinen von Zen2 mehr Kerne im Mainstreamsockel geliefert!
 
Damals war es für Q2 2016 geplant, zuerst in Notebooks und wie wir wissen, ist es eine 10nm Architektur! Damit wären sie ein Jahr vor Zen erschienen und die Desktop CPUs in 2017 wohl ungefähr zeitgleich mit Zen auf den Markt gekommen und für Cannon Lake waren mehr als 4 Kerne im Mainstream geplant.
Also das bestätigt genau das was ich vor ein paar Threads ausgesagt und gemeint habe.
Intel hatte die Technologie in der Schublade hat die aber nicht ausgespielt, weil es keine Motivation dazu gegeben hatte.

Die HEDT Plattform ist für Creators und Wissenschaftler oder Labs gedacht.
Das ist wie bei AMD die Thread Ripper Schiene.
Die Server Schiene zählt man ja auch nicht dazu, die hatten auch schon früher mehr Kerne.
 
Intel hatte die Technologie in der Schublade hat die aber nicht ausgespielt, weil es keine Motivation dazu gegeben hatte.
Jetzt trollst du aber gewaltig, denn damit hätte Intel sich selbst ins Knie geschossen und außer dir glaubt keiner das:
Intel hat die Probleme mit dem 10nm Prozess sicher nicht vorgetäuscht um ihn in der Hinterhand zu behalten und die 14nm Anlagen länger nutzen zu können.
hat auch niemand behauptet. im gegenteil
Womit Luebke dann nun widerlegt ist, da n3cron dies jetzt hier tatsächlich behauptet.
Die HEDT Plattform ist für Creators und Wissenschaftler oder Labs gedacht.
Sie werden aber trotzdem frei verkauft und auch wer nicht zu dieser Gruppe gehört und einfach nur mehr Kerne will/wollte als die Mainstream Plattform bietet / seinerzeit bot, konnte sie legal erwerben. Es gab und gibt auch hier im Forum genug Leute mit den HEDT CPUs von Intel und darunter sich sicher viel Gamer, die diese wegen der vielen PCIe Lanes besonders gerne bei Multi-GPU Konfigurationen einsetzen / eingesetzt haben. Das ist also echt kein Argument, sondern nur trollen und nicht eingestehen wollen, dass du mit deinen Behauptungen einfach total falsch liegst, mal wieder!

Obendrein dürften Wissenschaftler und Labs eher auf Workstations als HEDT setzen, was ein Unterschied ist, auch wenn beide auf der gleichen Plattform beruhen.
Die Server Schiene zählt man ja auch nicht dazu
Das habe ich ja auch nicht getan, aber HEDT steht eben für High End DeskTop und gehört damit zu den Desktops und da hier nur von Desktops die Rede war, habe ich mich darauf beschränkt, nimmt man die Server CPUs dazu, bei denen es ja z.B. schon bei Boardwell bis zu 22 Kerne, z.B. beim E5-2699R v4, während es im Desktop maximal 10 Keren gab. Bei den Haswell Xeons waren es bis 18 Kerne, statt maximal 8 im (HEDT) Desktop, bei bei Ivy Lake-EP maximal 12, bei Sandy Lake-EP maximal 8, im Desktop aber eben maximal 6. Davor gab es bei bei den in Q3/1009 erschienen Nehalem-EP auch nur maximal 4 Kerne, genau wie im Desktop.

~2008-2016 gab es als Intel meiner Meinung auch nachweislich durch Leistungsvergleiche "IPC" und durch kaum revolutionäre Design, was sich nur durch das shrinking in Leistung umgemünzt hatte... weniger Sprünge als in den letzten 3-4 Jahren als der Wettbewerb fahrt aufgenommen hatte.
Die Sprünge waren eher da in Form von Boost Algorithmen, Unterstützung neuer Schnittstellen und schnelleren Speicher etc.
Da hast du aber die Kerne vergessen und von 4 in 2008 ging es im HEDT bis 2017 (als also Zen erschien und war vor etwas mehr als 4 Jahren war, wenn man 2008-2016 und dann die letzten 3 bis 4 Jahre nimmt, ergibt sich sonst in 2017 eine Lücke, immerhin nährt sich 2021 schon dem Ende) auf 18 (i9-7980XE) und bei Skylake-SP Server CPUs bis 28, es gab bei Intel also Faktor 4,5 bzw. 7 mal so viele Kerne in 2017 wie in 2008!

Auch bei der IPC hat sich einiges getan, was nur leider nicht so leicht zu vergleichen ist, da die Benchmarks sich mit der Zeit verändert haben und es schwer fällt Reviews mit gleichen Benchmarks über einen so lange Zeitraum zu finden. Aber einen hattest du ja selbst gefunden:
Natürlich hat es auch dort eine Entwicklung gegeben, aber die Sprünge waren nicht so groß wie die Halbleiter Entwicklung in den letzten 3 Jahren, Was Effizienz und Leistung betriefft.

IPC%205%20-%20Synthetic%20Single%20Threaded_575px.png

Quelle: https://www.anandtech.com/show/8426...view-core-i7-5960x-i7-5930k-i7-5820k-tested/2
Nur wird da eben nicht die Effizienz oder die Leistung verglichen, sondern die Singlethreadperformance und teils man diese durch den Takt, dann hat man die IPC! Dies brauchen wir hier aber gar nicht, da bei dem Test alle mit dem gleichen Takt von 3,2GHz und alle nur mit 4 Kernen liefen:
Man sollte die Tests eben auch lesen aus denen man zitiert und ohne selbst rechnen zu müssen, gibt Anandtech sogar gleich selbst die Werte an:
clock-for-clock performance ist die IPC! Der Eindruck es hätte sich bei der IPC nichts getan und Intels Entwickler hätten ohne die Konkurrenz von AMD geschlafen, ist also wohl falsch, wenn zwichen dem Nehalem von Anfang 2010 und dem Haswell-E von Mitte 2014 28% mehr IPC vorhanden sind und von Haswell zu Skylake hat sich auch nochmal was getan, auch wenn ich nun nur einen Vergleich der Desktopversionen gefunden habe:
Aber auf der Seite findet sich auch dieser Vergleich der der IPC von Sandy Bridge zu Skylake:

Skylake IPC Gains over Sandy.png


Auch da sieht man übrigens schön, das die IPC bzw. IPC Steigerung nicht so einfach nur ein Faktor ist der für alle Befehle und Befehlsfolgen gleich ist, sondern eben je nach Befehlsfolge also je nach Benchmark/Programm sehr unterschiedlich ausfällt.
 
Diese Roadmap der Fertigung müsste auf einer Präsentation für Investoren von 2010 sein,
das bezog sich auf den chronologischen ablauf. :rolleyes2:
sonst musst du natürlich auch die gleiche phase für zen zugrundelegen. der dürfte zu dem zeitpunkt auch längst geplant gewesen sein.
Mit Fortschritt meinst du ja offenbar Kerne im Mainstreamsockel,
nein, mit fortschritt meine ich die generelle leistungsfähigkeit im mainstreamsockel, ungeachtet wie das realisiert wird. fakt ist, dass ein 6700k (14 nm) von der leistung deutlich näher an einem 2700k (32 nm) liegt als einem 10900k (14nm) obwohl letzterer auf die gleiche architektur setzt.
AMD hat bereits 2010 im mainstreamsockel mehr als 4 kerne geliefert, was aufgrund des leistungsrückstands aber in den seltensten fällen das mainstreamflagschiff von intel erreichen konnte. auch als AMD mit 8 kernen kam, fühlte sich intel nicht dazu gedrängt mehr kerne zu liefern. mit dem auftreten von zen hat sich das dann ziemlich schlagartig geändert. ich denke der einfluss von zen ist hier doch ziemlich offensichtlich.
 
im mainstreamsockel
Und warum nur dort? Es macht keinen Sinn Intel zu kritisieren dort nicht so viel Mehrleistung geboten zu haben, wenn Intel zugleich auch HEDT Plattformen i m Angebot hat(te), die eben genau diese gewünschte Mehrleistung ermöglicht haben! So eine selbst auferlegte Beschränkung ist Unsinn und nur dazu da eine unhaltbares Argumentation doch nicht irgendwie wenigstens als nur Scheintot aussehen zu lasen. Gib es einfach auf hier so einen Blödsinn zu verbreiten, den jedes sachliche Argument widerlegen kann, ohne selbst auch nur ein standfestes Argument bieten zu können! Sowas ist Fanboytum in seiner traurigsten Form!

AMD hat bereits 2010 im mainstreamsockel mehr als 4 kerne geliefert, was aufgrund des leistungsrückstands aber in den seltensten fällen das mainstreamflagschiff von intel erreichen konnte.
Super, damit war einem ja auch wirklich geholfen und ja, ich hatte auch einen Phenom II x6. und weiß genau wovon ich rede!
auch als AMD mit 8 kernen kam, fühlte sich intel nicht dazu gedrängt mehr kerne zu liefern
Ja., weil diese 8 Kerne eben nur 4 Module waren und, naja darüber haben die Gerichte nicht entschieden weil AMD nachgegeben und bezahlt hat, eben kaum als echte 8 Kerne anzusehen sein dürften und wenn man sie mit 4 odr 6 (HEDT) Kernen schlagen kann, wieso sollte man sich da einen Kopf machen?

Woher kommt eigentlich dieser Fetisch für Kerne im Mainstream Sockel? Ich sehe da einfach keinen Sinn mehr darin noch Zeit damit zu verschwenden total blödsinnige Argumente immer wieder zu widerlegen. Willst du auf meine IL, was in bestimmten Kreisen ja wie en Ritterschlag zu sein scheint oder was?
 
Und warum nur dort? Es macht keinen Sinn Intel zu kritisieren dort nicht so viel Mehrleistung geboten zu haben, wenn Intel zugleich auch HEDT Plattformen i m Angebot hat(te), die eben genau diese gewünschte Mehrleistung ermöglicht haben!
jetzt vergleichst du aber äpfel mit birnen. nur dass sich otto-normal-gamer keine äpfel leisten kann. du vergleichst doch auch nicht 12900k mit threadripper und sagst dann intel hängt bei anwendungen total hinterher.
bist du denn nicht der meinung, dass intel sich seit zen stärker bewegt hat als die lauen jahre davor?

die von mir meistempfolenen cpus waren in chronologischer reihenfolge: 11400F, 10400F, 1600AF, 2600 (AMD), i7 2600k (gebraucht mit oc). und zwar seit einführung von sandy bridge (am anfang natürlich noch nicht gebraucht :d) ich habe also von 2011 bis 2018 immer die gleiche cpu (überwiegend, nicht ausschließlich) empfohlen, danach mit jeder gen ne andere.
 
jetzt vergleichst du aber äpfel mit birnen. nur dass sich otto-normal-gamer keine äpfel leisten kann. du vergleichst doch auch nicht 12900k mit threadripper und sagst dann intel hängt bei anwendungen total hinterher.
bist du denn nicht der meinung, dass intel sich seit zen stärker bewegt hat als die lauen jahre davor?

die von mir meistempfolenen cpus waren in chronologischer reihenfolge: 11400F, 10400F, 1600AF, 2600 (AMD), i7 2600k (gebraucht mit oc). und zwar seit einführung von sandy bridge (am anfang natürlich noch nicht gebraucht :d) ich habe also von 2011 bis 2018 immer die gleiche cpu (überwiegend, nicht ausschließlich) empfohlen, danach mit jeder gen ne andere.
Kannst du vergessen, wenn man durch die Blaue Intel Brille blickt ist man sich nichts bewusst.
Das wir hier von Mainstream Desktops sprechen und nicht von HEDT Plattformen Richtung Threadripper sollte jedem klar sein, aber die sind auch nicht die Messlatte für den Otto.
Egal wie man es dreht und wendet, er will auch nicht verstehen das einen Teil der IPC dem shrinking geschuldet ist, also X% mehr Transistoren der gleichen Architektur auf der gleichen Fläche oder größer, mal von den Speicheroptimierungen etwas mehr Cache oder vom RAM z. B von DDR3 auf DDR4 mal abgesehen.

Hast du ja im Vergleich schon ziemlich gut erläutert mit dem 6700 14nm und 10900 14nm++++++
Mit fast jedem +hat sich auch die DIE-Fläche auch etwas vergrößert und die Transistoren sind enger geworden (der8auer hat mal Elektronen Mikroskop Schnappschüsse dazu gemacht).
Mal davon abgesehen das die Angabe ja irgendwie irreführend ist, da jeder Hersteller die anders interpretiert.

Es geht ja nicht darum das Intel nicht Fortschritt hatte, wie man an Servern/HEDT gesehen hat, hat sich ja dort durchaus was bewegt aber eben beim normalen Kunden, der Gamer, der Multimedia User der ab und zu mal ein Bild bearbeiten muss oder ein Video.... der sich keinen HEDT oder Xeon leisten kann.

Wenn man im Gegenzug die Grafikkartenzuwächse vergleicht von Generation zu Generation, merkt man schon das es bei der CPU etwas langsamer zugegangen ist und erst in den letzten Jahren stärkere Bewegung herrscht.

Also wenn das stimmt, was zu Zen3 ja auch gestimmt hatte von der Prognose her... dann wieder RIP Intel.
 
Kannst du vergessen, wenn man durch die Blaue Intel Brille blickt ist man sich nichts bewusst.
Das wir hier von Mainstream Desktops sprechen und nicht von HEDT Plattformen Richtung Threadripper sollte jedem klar sein, aber die sind auch nicht die Messlatte für den Otto.
Egal wie man es dreht und wendet, er will auch nicht verstehen das einen Teil der IPC dem shrinking geschuldet ist, also X% mehr Transistoren der gleichen Architektur auf der gleichen Fläche oder größer, mal von den Speicheroptimierungen etwas mehr Cache oder vom RAM z. B von DDR3 auf DDR4 mal abgesehen.

Hast du ja im Vergleich schon ziemlich gut erläutert mit dem 6700 14nm und 10900 14nm++++++
Mit fast jedem +hat sich auch die DIE-Fläche auch etwas vergrößert und die Transistoren sind enger geworden (der8auer hat mal Elektronen Mikroskop Schnappschüsse dazu gemacht).
Mal davon abgesehen das die Angabe ja irgendwie irreführend ist, da jeder Hersteller die anders interpretiert.

Es geht ja nicht darum das Intel nicht Fortschritt hatte, wie man an Servern/HEDT gesehen hat, hat sich ja dort durchaus was bewegt aber eben beim normalen Kunden, der Gamer, der Multimedia User der ab und zu mal ein Bild bearbeiten muss oder ein Video.... der sich keinen HEDT oder Xeon leisten kann.

Wenn man im Gegenzug die Grafikkartenzuwächse vergleicht von Generation zu Generation, merkt man schon das es bei der CPU etwas langsamer zugegangen ist und erst in den letzten Jahren stärkere Bewegung herrscht.
Also...stinkt es dir das es im Mainstream bis 2015/2016 nicht mehr Kerne gab (was der mangelnden Konkurrenz geschuldet war), unterstellst Intel aber gleichzeitig mangelnde Innovation, die du, zugegebenermaßen, Ihnen im HEDT und Serverbereich zugestanden hast ? What ? Wer das Mehr an Kernen unbedingt benötigt hat, kaufte sich HEDT. Dafür musste man natürlich mehr investieren, so ist das nun mal.
Also wenn das stimmt, was zu Zen3 ja auch gestimmt hatte von der Prognose her... dann wieder RIP Intel.
Der darf sich dann mit Meteor Lake messen, Alderlake hat ja schon eine ~10 % höhere IPC als Zen 3, nebenbei taktet er auch höher.
Mit Raptorlake will Intel ja ein 8+16 Core Design releasen, zusätzlich zu einer neuen P-Core Architektur (Raptor Cove).
 
Naja, wenn man sich die Taktraten der HEDT von damals anschaut (ohne OC) und jetzt, ist es schon gravierend. Zudem es damals so war, je mehr Kerne umso niedriger der Takt. Jetzt im "Mainstream" ist es eigentlich um gekehrt (wegen selektieren). Mehr Kerne = mehr Takt. Ob dies auch ohne Konkurrenz seitens AMD so gewesen wäre, möchte ich bezweifeln
 
nur dass sich otto-normal-gamer keine äpfel leisten kann.
Nein, es ging um Intel und die Behauptung da hätte sich nichts getan, es wurde nicht auf die Mainstream Plattform Bezug genommen, sondern auf Intel allgemein. Wer mehr Kerne wollte, musste damals eben tiefer in der Tasche greifen, aber so ist es ja immer, wenn man mehr Leistung will, einen AMG bekommt man auch nicht zum Preis des Mercedes Basismodells.

du vergleichst doch auch nicht 12900k mit threadripper und sagst dann intel hängt bei anwendungen total hinterher.
Nein, aber ich gehe auch nicht hin und behaupte AMD würde maximal 16 Kerne bieten, nur weil ich mich dabei alleine auf den Mainstreamsockel beziehe, ohne dies aber anzugeben. Wenn ich sage, AMD bietet im Mainstreamsockel nicht mehr als 16 Kerne, dann ist dies korrekt, wenn aber sage, AMD bietet ja auch nicht als 16 Kerne, dann ist es falsch, da man dann auch die TR (und EPYC) einbeziehen muss und da gibt es CPUs mit mehr als 16 Kernen.

bist du denn nicht der meinung, dass intel sich seit zen stärker bewegt hat als die lauen jahre davor?
Das ist nicht der Punkt, sondern das sich eben auch in der Zeit davor viel getan hat, bei der IPC und der Anzahl der Kerne, nur waren letztere eben nicht im Mainstreamsockel zu finden. Wegen der Probleme mit 10nm, die dann hier schon als bewusstes Zurückhalten hingestellt wurden, hat es sich in der Zeit natürlich gestaut, da neue Architekturen eben für die 10nm Fertigung entwickelt worden waren.

Das wir hier von Mainstream Desktops sprechen und nicht von HEDT Plattformen Richtung Threadripper sollte jedem klar sein, aber die sind auch nicht die Messlatte für den Otto.
Nein, es wurde nicht von Mainstream Desktops gesprochen, sondern allgemein von Intel und wer viele Kerne wollte, für den gab es eben die HEDT Plattform und wenn Otto sich die nicht leisten kann, dann ist das Ottos Problem.

Egal wie man es dreht und wendet, er will auch nicht verstehen das einen Teil der IPC dem shrinking geschuldet ist, also X% mehr Transistoren der gleichen Architektur auf der gleichen Fläche oder größer
du verdrehst echt alles, ich habe immer wieder geschrieben, dass man für mehr IPC mehr Transistoren erkaufen muss, womit es dann aber eine andere Architektur wird und natürlich wird dann entweder die Fläche größer oder man nimmt eine andere Fertigung mit kleineren Strukturen. Die Tatsache das man dann den gleichen Kern auf einer kleineren Fläche unterbringen kann, kann man auch nutzen um mehr Kerne zu realisieren oder eben für beides, man macht eine neue Architektur mit mehr Transistoren und damit mehr IPC und bringt mehr Kerne unter.

Man sieht dies doch bei den e-Kernen in Alder Lake, die haben schon mehr IPC als Skylake, dürften also auch ähnlich viele Transistoren haben und nur ein Viertel der Größe eines Golden Cove P-Kerns. Nur bringen noch viel mehr Kerne irgendwann auch nichts mehr, da keine Anwendung perfekt über viele Kerne skaliert und manche gar nicht, zugleich hat man aber mit den neuen Fertigungsprozessen nun die Möglichkeit noch viel mehr Transistoren unterzubringen und genau deswegen geht das IPC Wachstum ja auch umso schneller, je kleiner die Fertigungsstrukturen werden, da man eben noch größere Kerne mit noch mehr IPC baut. Ein Golden Cove Kern dürfte etwa 4 mal so viele Transistoren wie ein Skylake Kern haben, kommt aber natürlich bei weitem nicht auf die vierfache IPC von Skylake, was zeigt wie extrem viele Transistoren man aufwenden muss, um die IPC zu steigern.

Es geht ja nicht darum das Intel nicht Fortschritt hatte, wie man an Servern/HEDT gesehen hat
Doch, denn die Aussage war:[/QUOTE]
~2008-2016 gab es als Intel meiner Meinung auch nachweislich durch Leistungsvergleiche "IPC" und durch kaum revolutionäre Design, was sich nur durch das shrinking in Leistung umgemünzt hatte... weniger Sprünge als in den letzten 3-4 Jahren als der Wettbewerb fahrt aufgenommen hatte.
Es war nicht vom Mainstream die Rede und bei Intel beinhaltet auch HEDT und Server und warum die IPC in der Zeit weit geringer gestiegen ist als heute, sollte auch klar werden, wenn man sich anschaut wie viele mehr Transistoren pro mm² damals bei einem Shrink möglich waren. Das waren damals auch doppelt so viele, aber absolut viel weniger als heute, weil jeder Transistor damals viel größer war als heute. Das doppelte von einer Millionen sind zwei Mio, aber das Doppelte von einer Milliarden sind zwei Mrd und mit eines Milliarde mehr kann man viel mehr erreichen als mit einer Million Transistoren.

Also...stinkt es dir das es im Mainstream bis 2015/2016 nicht mehr Kerne gab (was der mangelnden Konkurrenz geschuldet war)
Wobei es auch dem Problem mit der 10nm Fertigung geschuldet war, denn mit Cannon Lake war ein 6 Kerner geplant. Die andere Frage ist die der Software, wenn die typische Software für Heimanwender gar nicht in der Lage ist mehr Kerne auszulasten, dann bringt es wenig mehr zu bauen und man verwendet die zusätzlichen Transistoren die man dank eines Shrinks unterbringen kann, besser darauf mehr IPC zu generieren, also mehr Kerne. Dies haben AMDs FX ja auch deutlich gezeigt, 8 langsame Kerne waren gegenüber Intel 4 schnellen Kernen klar im Nachteil!
 
Man sieht dies doch bei den e-Kernen in Alder Lake, die haben schon mehr IPC als Skylake, dürften also auch ähnlich viele Transistoren haben und nur ein Viertel der Größe eines Golden Cove P-Kerns. Nur bringen noch viel mehr Kerne irgendwann auch nichts mehr, da keine Anwendung perfekt über viele Kerne skaliert und manche gar nicht, zugleich hat man aber mit den neuen Fertigungsprozessen nun die Möglichkeit noch viel mehr Transistoren unterzubringen und genau deswegen geht das IPC Wachstum ja auch umso schneller, je kleiner die Fertigungsstrukturen werden, da man eben noch größere Kerne mit noch mehr IPC baut. Ein Golden Cove Kern dürfte etwa 4 mal so viele Transistoren wie ein Skylake Kern haben, kommt aber natürlich bei weitem nicht auf die vierfache IPC von Skylake, was zeigt wie extrem viele Transistoren man aufwenden muss, um die IPC zu steigern.
Allerdings haben wir noch ein bisschen bis zu dem Punkt wo sich mehr Kerne nicht mehr lohnen.
Im Bereich Gaming haben wir gerade eine Limitierung im Fortschritt die durch die Konsolen gebremst wird, mal von ein paar Simulationen abgesehen.
Die Software muss sich halt auch noch anpassen, aber da haben wir halt auch ein wenig das Henne-Ei Problem.
Einerseits brauchst du die Software die das kann, auf der anderen Seite auch die Hardware die dann liefern/zur Verfügung stellen kann.
Ich meine wir hatten im Smartphone schon früher mehr Kerne als im Desktop/Notebook (Consumer).
Auch wenn einzelne Software nicht davon profitiert, aber die Gesamtheit an unterschiedlichen aktiven Programmen ist sehr dankbar sich keine Rechenzeit teilen zu müssen, auch wenn die Leistungskapazität des einzelnen Kerns etwas schwächelt.

Was mir persönlich noch fehlt, egal ob Intel oder AMD das wäre im Consumer Bereich mehr als Dual Channel Speicher.
Quad Channel wäre halt schon nice, ich weiß Intel hatte schon tripple Channel warum das aufgeben wurde verstehe ich leider nicht.
Früher hat das nur bedingt was gebracht, schließlich hatte man noch keine SSD oder NVMe um große Datenmengen schnell in den Hauptspeicher zu schieben.

Der Bloomfield war damals echt ne Wucht und der KO Schlag für AMD für viele Jahre.
 
Allerdings haben wir noch ein bisschen bis zu dem Punkt wo sich mehr Kerne nicht mehr lohnen.
Das hängt nur von der Anwendung ab, bei einigen sind wir heute schon da und genau deshalb ist Big-little ja auch genial, da man so einmal große Kerne mit hoher Leistung hat, zugleich aber viel mehr kleine Kerne auf dem gleichen Die unterbringen kann, die dann bei den Anwendungen helfen, die viele Kerne voll auslasten können. Bei 8+8 sieht man den Effekt noch nicht so sehr, aber bei den Notebook CPUs die mehr e- als P-Kerne haben, wird man es schon sehen und bei Raptor Lake soll Intel gerüchteweise nochmal mehr e-Kerne bringen, da sollen es dann 8+12 beim 13900K werden. Mehr als 8 schnelle Kerne werden die wenigsten Leute brauchen, Spiele können selbst die ja nicht einmal auslasten und für Anwendungen wie Rendern, wo alle Kerne gut ausgelastet werden können, hat man dann die Unterstützung der e-Kerne die tragen ja einiges bei:
Bei Integer bringen also die halb so viel wie die P-Kerne, tragen also zu 1/3 der Gesamtperformance bei, bei FP etwas weniger, aber dafür sind sie auch sparsamer:
Wobei man immer bedenken muss, dass 4 e-Kerne so viel Platz wie ein P-Kern brauchen, während er halb wie viel wie ein P-Kern leistet (bei weniger Takt wohlgemerkt, wenn ich das nicht übersehen habe, was der Test nicht bei einem für alle gleichen, fixierten Takt) und bei 1/3 der Leistungsaufnahme! Zwei e-Kerne leisten also etwa so viel wie ein P-Kern, bei nur etwa 2/3 von dessen Leistungsaufnahme und auf der Hälfte der Diefläche!
Die Software muss sich halt auch noch anpassen, aber da haben wir halt auch ein wenig das Henne-Ei Problem.
Klar, aber man sollte nicht vergessen, dass sich nicht jedes Problem parallelisieren lässt! Wenn das nächsten Ergebnis vom vorherigen abhängt, dann geht dies nur der Reihe nach und auch viele andere Dinge wie die RAM Verwaltung vom OS sind nur schwer parallelisier bar, außer man teilt das RAM in unterschiedliche Bereiche auf und jeder Thread darf nur seinen Teil verwalten. Bei Servern wäre das machbar, wenn sowieso zahlreiche Programme laufen die alle einen bestimmten Anteil am RAM brauchen, auf dem Desktop aber Mist, wenn man dann ein Programm hat welches ganz viel RAM braucht und nur die Hälfte (oder ein Viertel) bekommen kann, weil der Thread der RAM Verwaltung wo es sein RAM anfragt nicht mehr verwalten darf. Also lässt man das oder legt um die kritischen Bereiche einen MUTEX und nutzen die Threads nicht mehr, weil immer nur eine in diesem Bereich aktiv sein kann, während die anderen warten müssen.

Außerdem ist der Overhead des OS bei der Erzeugung von Threads auf nicht so ganz klein und übrigens auch so ein Bereich wo nicht mehrere gleichzeitig rumfummeln dürfen und deshalb lohnt es sich auch nicht für jeden Mist einen eigenen Thread zu starten, nur weil mal eben ein kleinerer Bereich der Aufgabe auch parallel bearbeitet werden könnte. Der gute Wille alleine reicht also bei weitem nicht um die Software dazu zu bringen alle Kerne perfekt auslasten zu können und da haben wir noch gar nicht über I/O gesprochen, wenn alle Kerne viele RAM Zugriffe machen, dann staut es sich dort, wie man ja auch im Review von Anandtech sieht:

Was mir persönlich noch fehlt, egal ob Intel oder AMD das wäre im Consumer Bereich mehr als Dual Channel Speicher.
Quad Channel wäre halt schon nice
Bekommt man bei Alder Lake mit DDR5 ja, da dort ja jeder Riegel zwei Subchannels hat und in gewissem Sinne sind ist es dann Quad Channel und wird auch oft so bezeichnet:
Bei dem im Zitat davor genannten 503.bwaves ereicht der 12900K mit DDR5 fast doppelt so viele Punkte wie mit DDR4.

ich weiß Intel hatte schon tripple Channel warum das aufgeben wurde verstehe ich leider nicht.
Weil es im HEDT (LGA1366) Sockel war und nicht im Mainstream!

Früher hat das nur bedingt was gebracht, schließlich hatte man noch keine SSD oder NVMe um große Datenmengen schnell in den Hauptspeicher zu schieben.
Die Bandbreite des RAM brauchen vor allem die CPU Kerne (bei einer iGPU natürlich und ganz besonderes die iGPU), aber selbst für eine schnelle PCIe 4.0 SSD (wobei es damals noch nicht mal PCIe 3.0 gab), würde wohl kaum von der RAM Bandbreite sagen wir eines Sandy Bridge beschränkt werden, denn selbst mit dem lahmsten DDR3-1333 hat der noch über 15GB/s RAM Durchsatz geschafft.

Der Bloomfield war damals echt ne Wucht und der KO Schlag für AMD für viele Jahre.
Obwohl es die nur mit 4 Kernen gab und es HEDT und damit für Otto zu teuer ist und:
Das wir hier von Mainstream Desktops sprechen und nicht von HEDT Plattformen Richtung Threadripper sollte jedem klar sein, aber die sind auch nicht die Messlatte für den Otto.
 
Das hängt nur von der Anwendung ab, bei einigen sind wir heute schon da und genau deshalb ist Big-little ja auch genial, da man so einmal große Kerne mit hoher Leistung hat, zugleich aber viel mehr kleine Kerne auf dem gleichen Die unterbringen kann, die dann bei den Anwendungen helfen, die viele Kerne voll auslasten können. Bei 8+8 sieht man den Effekt noch nicht so sehr, aber bei den Notebook CPUs die mehr e- als P-Kerne haben, wird man es schon sehen und bei Raptor Lake soll Intel gerüchteweise nochmal mehr e-Kerne bringen, da sollen es dann 8+12 beim 13900K werden. Mehr als 8 schnelle Kerne werden die wenigsten Leute brauchen, Spiele können selbst die ja nicht einmal auslasten und für Anwendungen wie Rendern, wo alle Kerne gut ausgelastet werden können, hat man dann die Unterstützung der e-Kerne die tragen ja einiges bei:
Also das BIG-Little grundsätzlich super ist, bestreitet glaub ich niemand.
Ich sehe nur das Problem bei Games die wirklich gut parallelisieren können.
E-Kerne sind super für daily tasks etc.
Bekommt man bei Alder Lake mit DDR5 ja, da dort ja jeder Riegel zwei Subchannels hat und in gewissem Sinne sind ist es dann Quad Channel und wird auch oft so bezeichnet:
Stimmt, hatte ich nicht auf dem Schirm auch ECC ist ja default an Board.
Klar, aber man sollte nicht vergessen, dass sich nicht jedes Problem parallelisieren lässt! Wenn das nächsten Ergebnis vom vorherigen abhängt, dann geht dies nur der Reihe nach und auch viele andere Dinge wie die RAM Verwaltung vom OS sind nur schwer parallelisier bar, außer man teilt das RAM in unterschiedliche Bereiche auf und jeder Thread darf nur seinen Teil verwalten. Bei Servern wäre das machbar, wenn sowieso zahlreiche Programme laufen die alle einen bestimmten Anteil am RAM brauchen, auf dem Desktop aber Mist, wenn man dann ein Programm hat welches ganz viel RAM braucht und nur die Hälfte (oder ein Viertel) bekommen kann, weil der Thread der RAM Verwaltung wo es sein RAM anfragt nicht mehr verwalten darf. Also lässt man das oder legt um die kritischen Bereiche einen MUTEX und nutzen die Threads nicht mehr, weil immer nur eine in diesem Bereich aktiv sein kann, während die anderen warten müssen.

Außerdem ist der Overhead des OS bei der Erzeugung von Threads auf nicht so ganz klein und übrigens auch so ein Bereich wo nicht mehrere gleichzeitig rumfummeln dürfen und deshalb lohnt es sich auch nicht für jeden Mist einen eigenen Thread zu starten, nur weil mal eben ein kleinerer Bereich der Aufgabe auch parallel bearbeitet werden könnte. Der gute Wille alleine reicht also bei weitem nicht um die Software dazu zu bringen alle Kerne perfekt auslasten zu können und da haben wir noch gar nicht über I/O gesprochen, wenn alle Kerne viele RAM Zugriffe machen, dann staut es sich dort, wie man ja auch im Review von Anandtech sieht:
Ja ganz klar auch in Bezug auf Big-Little muss der Scheduler "smarter" werden um zu erkennen ob es nicht sinnvoller ist 1 P Core zu nutzen anstelle von 2-3 E-Cores.
Ich weiß nicht wie es aktuell bei Windows 11 ist, aber ich könnte mir gut vorstellen das ist in naher Zukunft ne Funktion gibt, falls die nicht schon existiert ähnlich switchable graphics das man eine Anwendung auswählt und ihr ein Profil zuweisen kann, wie "high performance", "high efficiency" oder einfach "Benutzerdefiniert" und der Scheduler dadurch automatisch die jeweiligen Kerne nutzt und reserviert.

Weil es im HEDT (LGA1366) Sockel war und nicht im Mainstream!
Intel hatte bezüglich Bloomfield ja auch wieder Marketing Müll daraus gemacht.
Ich hatte den i7 920 nicht als HEDT in Erinnerung. Damals Gab es schon die Core2 auf dem Markt und dann kamen Intel Core i als Nachfolger...
Die Nachfolgenden i7 sind ja auch nicht HEDTs ?? Intels Namen und "Market" Definition ist schon ein wenig Haarspalterei ;-)
1639206501212.png

1639206709573.png

Vom Preis her waren für mich damals alle Prozessoren über 500€ definitiv nicht für Mainstream und definitiv HEDT.
Wenn man sich die aktuellen Preise anschaut sind Sie für 500-600€ wohl normal geworden für "Performance Desktop", wenn man aber die Preissteigerungen der letzten Jahre berücksichtig wäre man 2009 auch nur auf einen Preis von 300-400€ gelandet.
 
Ich sehe nur das Problem bei Games die wirklich gut parallelisieren können.
Und welche wären dies? Wenn man sich die Leistungsaufnahme in Spielen ansieht, können es nicht so viel sein, da diese bei Alder Lake meist unter der offiziellen TDP liegt, selbst wenn das Boards PL1 = PL2 eingestellt hat und damit einem 12900K dauerhaft 241W erlaubt, von denen erst bei den meisten Spielen eben nicht einmal die Hälfte nimmt.
auch ECC ist ja default an Board.
Vorsicht, die On-Die-ECC ist meines Wissens nach laut Spezifikation nur optional und auch wenn alle Riegel bei denen ich bisher nachgeschaut habe diese hatten, muss dies nicht so bleiben. Da die On-Die-ECC womöglich die Latenz erhöht, könnte ich mir vorstellen, dass der eine oder andere Hersteller versucht sein könnte die sportlichsten Riegel ohne anzubieten, man sollte also im Zweifel genau darauf achten ob der gewünschte RAM Riegel sie wirklich hat! Außerdem habe ich noch nichts dazu gefunden wie wirkungsvoll diese ECC ist, da gibt es ja bei den RAM ECC Technologien auch unterschiedliche Stufen bzgl. der Anzahl der Fehler die korrigieren können und auf jeden Fall hat die On-Die-ECC den Nachteil, dass die Übertragungsfehler zwar schon seit DDR4 durch eine CRC erkannt werden können, aber die können ohne echte ECC Riegel (also bei DDR5 dann mit 80 Bit Datenbreite) nicht korrigiert werden, sondern die Übertragung muss solange wiederholt werden bis sie fehlerfrei geklappt hat, was zu Leggs und Freezes führen könnte.

Ja ganz klar auch in Bezug auf Big-Little muss der Scheduler "smarter" werden um zu erkennen ob es nicht sinnvoller ist 1 P Core zu nutzen anstelle von 2-3 E-Cores.
Ein SW-Thread kann ja immer nur auf einem Kern laufen und bei 2 oder 3 SW Threads dürfte es fast immer schneller sein diese auf je einen e-Kern zu verteilen als wenn sie sich auf dem gleichen P-Kern gegenseitig Konkurrenz machen, da ein e-Kern (je nach Befehlsfolge und dem jeweiligen Takt) ja eben etwas mehr mehr als Halb so schnell wie ein P-Kern ist. Während es also bei 2 SW Thread auf dem gleichen P-Kern gerade noch schneller als mit jedem auf einem eigenen e-Kern sein könnte, dürfte es bei 3 SW Thread immer klar zugunsten der e-Kerne ausgehen.

Aber ja, der Task Scheduler und die entsprechenden Informationen von der CPU die diesen ja dann beeinflussen, sind bei Big-Little sehr wichtig und da wird sich bzgl. der Entwicklung vermutlich auch noch einiges bzgl. der Optimierungen tun. Man hat ja schon mit Zen gesehen, welchen Einfluss solche Optimierungen haben können, wobei es damals darum ging die Threads möglichst nicht zwischen Kernen auf anderen CCX hin und her zu schieben und wie stark der Einfluss der CPU Architektur auf die Entscheidungen des Task Schedulers sein sollte.
Ich weiß nicht wie es aktuell bei Windows 11 ist, aber ich könnte mir gut vorstellen das ist in naher Zukunft ne Funktion gibt,
Win 11 wurde je laut MS gerade geschaffen, bzw. Win 10 in Win 11 umbenannt, weil es da gewaltige Änderungen beim Task Scheduler gab und der nun eben von der HW bzgl. der Entscheidung auf welchem Kern welcher SW Thread laufen soll, gesteuert werden kann. Früher hat er nach Gutsherrenart diese alleine entschieden, denn kamen gewissen Einflüsse der CPU Architektur hinzu, etwas bei Intel mit dem Turbo Boost 3.0 und bei AMD ich meine ab Zen2 die Information welches der schnellste Kern ist um Singlethreadlasten auf diesem laufen zu lassen und wie gesagt seit Zen dann die Information welche Kerne auf dem gleichen CCX liegen. Statt dem Task Scheduler noch mehr Regeln beizubringen gibt es ab Win 11 halt Hardware Scheduling von Intel den Thread Director der als Schnittstelle zwischen dem Win 11 Task Scheduler und der CPU, deren Informationen über die Art und Auslastung der Kerne er auswertet, dann dem Task Scheduler empfiehlt welche Thead auf welchem Kern laufen sollte.

AMD wird auch seinen eigenen Thread Director schreiben müssen oder hat dies schon getan, aber beide werden an ihren Thread Directoren sicher noch einiges an Optimierungspotential finden und kann da dann eben Dinge die Grenzen der CCX und den schnellsten Kern der CPUs oder jedes CCX berücksichtigen. Damit hat MS letztlich die Verantwortung darüber welcher SW Thread auf welchem Kern laufen soll, an die CPU Hersteller übertragen, was angesichts der zunehmenden Komplexität dieser Entscheidung bei den neuen Architekturen auch sinnvoll ist, da die CPUs selbst mehr Informationen über die tatsächliche Auslastung der Kerne haben als Windows selbst und der CPU Hersteller besser als MS in der Lage sein sollte dieses Informationen sinnvoll auszuwerten.

Außerdem wird MS sicher nicht traurig sein die Verantwortung dafür los zu sein welcher SW Thread auf welchem Kern läuft und bei Reklamationen an den CPU Hersteller und dessen Thread Director verweisen zu können.
Ich hatte den i7 920 nicht als HEDT in Erinnerung.
Ist er aber, da der i7 920 für S. 1366 ist und vor Alder Lake waren alle Sockel mit mehr als 1200 Kontakten (zumindest dem Namen nach, denn die Nummern der Namen geben ja nicht immer die genau Anzahl der Pins wieder) HEDT. Bzgl. HEDT und Mainstream kommt es nicht auf den Preis, sondern die Plattform an!
 
Man muss nichts abschalten, kompletter Quark. Die Nasen haben einen Tweet gelesen und sich ansonsten nicht informiert, geschweige denn selbst getestet.

Und hast Du das getestet ?

Meine Tests haben ergeben, das der Ring Bus Cache z.B. ohne E-Cores dauerhaft bei 4700Mhz läuft (mit bei ca.3600Mhz) sowie die Speicherlatenz etwas besser wenn man die Effizienz Kerne deaktiviert.

Bei mir sind die E-Cores aktuell ausgeschaltet da ich das System fürs Gaming nutze und bisher meine Games mit max 8 Cores arbeiten, kann sein das ich die wieder aktiviere wenn ich einen nutzen sehe.

Ebenso skalliert der Energiesparmodus von Windows die P-Cores bei nicht gebrauch runter und ruft ja auch da schon "nur" dann Leistung ab, wenn diese benötigt wird.

:coffee:
 
Und welche wären dies? Wenn man sich die Leistungsaufnahme in Spielen ansieht, können es nicht so viel sein, da diese bei Alder Lake meist unter der offiziellen TDP liegt, selbst wenn das Boards PL1 = PL2 eingestellt hat und damit einem 12900K dauerhaft 241W erlaubt, von denen erst bei den meisten Spielen eben nicht einmal die Hälfte nimmt.

so ist es, ich sehe zumeist max 120W die sich der 12900K genehmigt, ich lass unter anderem die Leistungsaufnahme permanent auf einem Sensorpanel anzeigen.
Beitrag automatisch zusammengeführt:


na dann, wohl das Augenmerkt etwas anderst gesetzt als ich ;)
 
Naja welches Augenmerk? Muss ja nur auf die FPS und die Thread Auslastung schauen, was gibt es noch zu beachten? Das "Spiel nutzt nur x Cores" Argument macht ja keinen Sinn, weil nicht nur das Spiel läuft. Auf meinem System laufen durchschnittlich um die 200 Prozesse, warum soll ich da Kerne wegnehmen. Deswegen sieht man ja auch häufig beim Spielen, dass sich E-Cores hochtakten und mitarbeiten. Den Ringbus kann man wie schon gesagt auf ca. 4.3 GHz takten, wenn die E-Cores aktiv sind. Der Latenzvorteil zu den ~4.8 GHz ohne E-Core ist da wirklich marginal, da sollte man sich lieber an die Timings setzen.
 
Und welche wären dies? Wenn man sich die Leistungsaufnahme in Spielen ansieht, können es nicht so viel sein, da diese bei Alder Lake meist unter der offiziellen TDP liegt, selbst wenn das Boards PL1 = PL2 eingestellt hat und damit einem 12900K dauerhaft 241W erlaubt, von denen erst bei den meisten Spielen eben nicht einmal die Hälfte nimmt.
Games die mehr intelligentere AI haben oder teilweise Simulationen betreiben.
Ashes of Singularity, Total War Warhammer 2/3, Civilization 6. (Wenn man die Runde abgibt und die AI Züge berechnet werden oder in den Echtzeitschlachten die Bewegungen und Interaktion der AI/Einheiten.
Auch Battlefield 2042 könnte mit Sicherheit mehr als 8 Kerne ausnutzen.
Insbesondere Games die primär für PC entwickelt werden können mehr als 8 Kerne ausnutzen, alles was für Konsole mitentwickelt wird ist dann logischerweise für maximal 8 Kerne ausgelegt.

Mal von der Kernanzahl abgesehen ist natürlich der größere Performance nutzen bei den größeren CPUs der Cache, der bei beiden Herstellern leider eher mit der Kernanzahl skaliert und das unter anderem die höhere Performance mit bringt, deswegen hat sich die langläufige Meinung eingebürgert viel hilft viel... das ist natürlich nur bedingt richtig. ;)

Ich gehe aber davon aus man langfristig mehr als 8 Kerne ausnutzen können wird, aber nicht in allen Genres, ob es allerdings mehr als 12-16 Kerne werden wage ich erstmal sehr stark zu bezweifeln, allerdings gibt es für Simulationen natürlich erstmal keine Grenzen.

Spiele werden halt immer "realer" und sollen immer mehr die Realität abbilden und das geht nur in dem man Bürger Simuliert, Fahrzeuge und weitere Objekte die interaktiv etwas machen oder ausführen und sich das auf die Spielwelt auswirkt.

Natürlich wissen wir nicht bzw. ist es jetzt Spekulation, aber es ist eher zu erwarten das neben dem Big-Little in naher Zukunft auch andere Co-Prozessoren auf den Sockel kommen die nochmal spezialisierter sind z. B für AI Berechnungen ... nicht aus zu schließen.
 
Naja welches Augenmerk? Muss ja nur auf die FPS und die Thread Auslastung schauen, was gibt es noch zu beachten? Das "Spiel nutzt nur x Cores" Argument macht ja keinen Sinn, weil nicht nur das Spiel läuft. Auf meinem System laufen durchschnittlich um die 200 Prozesse, warum soll ich da Kerne wegnehmen. Deswegen sieht man ja auch häufig beim Spielen, dass sich E-Cores hochtakten und mitarbeiten. Den Ringbus kann man wie schon gesagt auf ca. 4.3 GHz takten, wenn die E-Cores aktiv sind. Der Latenzvorteil zu den ~4.8 GHz ohne E-Core ist da wirklich marginal, da sollte man sich lieber an die Timings setzen.

Das hab ich schon erledigt, meine primary und Subtimings sind schon optimiert, falls Du mal in den Ram OC Thread geschiehlt hast wirst Du das vielleicht gesehen haben :wink:

Ok, das mit den 4300Mhz Ring Bus stimmt anheben funktioniert. (Danke für den Tip)
dennoch sieht man schlechteren Latenzen und der L1 Cache ist enorm in Mitleidenschaft gezogen wenn die E-Cores aktiv sind.

woran liegt das denn bitte ?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh