Bis zu 32 Kerne pro CCD: Informationen zu Zen 5 und Zen 6

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.867
YouTube-Leaker Moore's Law Is Dead hat in seinem neuesten Video eine Zen-Roadmap veröffentlicht, die viele Details zu den zukünftigen Architekturen Zen 5 und Zen 6 enthält. Für Zen 5 sind sogar äußerst detaillierte Informationen zur Mikroarchitekur enthalten. Die Jahresangaben zeigen allerdings auch, dass die Roadmap schon ein paar Jahre sein dürfte, denn hier wird Zen 5 für das aktuelle Jahr 2023 erwähnt. Auf den Markt kommen dürften die entsprechenden Prozessoren aber erst 2024. Dennoch zeigt die Roadmap die Marschrichtung, die AMD eingeschlagen hat und was uns in den kommenden beiden Generationen erwartet.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also auch in Zukunft kein "BigLittle" bei AMD Zen.
 
Für die meisten Homeuser, insbesondere die Gamer, würden z.B. 32 c-Kerne vs. 16 grossen/performanteren IMO wenig Sinn auf nem Desktop-Sockel ergeben; es kommt aber natürlich immer auf die Workload an.
Wenn, dann müsste es beide Varianten geben, so dass der Käufer sich entscheiden kann was für ihn wichtiger ist.
 
Für die meisten Homeuser, insbesondere die Gamer, würden z.B. 32 c-Kerne vs. 16 grossen/performanteren IMO wenig Sinn auf nem Desktop-Sockel ergeben; es kommt aber natürlich immer auf die Workload an.
Es kommt überhaupt erstmal darauf an, ob c-Kerne wirklich effizienter sind. Wenn sie das nämlich nicht sind, willst du für hohe Multicore-Workloads trotzdem keine c-Kerne.
Nur weil die c-Kerne weniger Strom brauchen, heisst eben nicht, das sie auch effizienter wären, weil sie haben ja auch weniger Leistung.

Wenn, dann müsste es beide Varianten geben, so dass der Käufer sich entscheiden kann was für ihn wichtiger ist.
Man kombiniert kleine und große Kerne auf den selben Chip, um die Effizienz des gesamten Chips zu steigern. Weil große Kerne bei geringen Lasten oft ineffizient sind, kleinen Kernen aber die Spitzenleistung für hohe Lasten fehlt, läuft ein System nur mit großen Kernen im Idle halt ineffizient, ein System nur mit kleinen Kernen läuft bei hohen Lasten ineffizient. In dem man beide Varianten in die selbe CPU packt, kann man beide Lastzustände effizient abdecken.

Die Frage danach ob man mehr nutzen aus vielen, aber schwächeren Kernen ziehen kann, hat damit nix zu tun ist abgesehen davon schon steinalt. Der wesentliche Unterschied zwischen Core-I und Xeon war jahrelang, das die Xeons schwächere Kerne haben, aber in den oberen Ausbaustufen aber halt mehr Kerne als es bei den Core-Is überhaupt gab.
 
Moore's Law Is Dead, wieso nimmt jemand den Typen überhaupt noch ernst? Der behauptet alles mögliche und wenn er mal wieder bei dem was er sich aus den Fingern gesaugt hat daneben lag, dann leugnet er entweder es behauptet zu haben oder sagt einfach seine Quelle hätte falsch gelegen:


Der dürfte eine Menge Geld auf YT und Co. verdienen indem er sich einfach was ausdenkt und wenn man nur genug Prognogen raushaut, wird ja die eine oder andere auch zutreffen, selbst wenn alle nur aus den Fingern gesaugt sind. Den sollte man ignorieren und schon gleich gar keine News aufgrund seiner Mists schreiben.

Was das Packaging angeht nutzt AMD auch bei den aktuellen RYZEN und EPYC noch immer die einfachste Technologie die BGA auf einer Trägerplatine entspricht und wenn man die CCDs auf dem IO Die unterbringen wollte, würde dies gigantisch und damit sehr, sehr teuer ausfallen. AMD wird eher eine mit Intels EMIB vergleichbare Lösung einsetzen, TSMC hat da wohl auch schon was passendes in Arbeit oder sogar schon ferig. Die einzige moderne Verbindungstechnik in AMDs CPUs ist das Stacking des 3D V-NANDs auf den CCDs.
 
Den sollte man ignorieren und schon gleich gar keine News aufgrund seiner Mists schreiben.

Tja dafür haben sich aber schon viel zu viele seiner Prognosen in der Vergangenheit als zu treffend erwiesen.
 
Es geht mir auch weniger um seine Prognosen. Ja, Leaks sind immer mit Vorsicht zu genießen. So lange er Dokumente vorweisen kann, schaue ich mir das aber genauer an und in diesem Fall haben wir uns dazu entschieden was dazu zu machen.
 
Es kommt überhaupt erstmal darauf an, ob c-Kerne wirklich effizienter sind. Wenn sie das nämlich nicht sind, willst du für hohe Multicore-Workloads trotzdem keine c-Kerne.
Nur weil die c-Kerne weniger Strom brauchen, heisst eben nicht, das sie auch effizienter wären, weil sie haben ja auch weniger Leistung.
Ja wenn ich mir die Intel Grillplatten ansehe, hab ich da auch so meine Zweifel.
Die ganzen Benchmarkgewinne werden da doch mit einer abartigen TDP erkauft, inwiefern die (im vernünftigen Betrieb mit etwas UV bzw. eingeschränktem Powertarget) besser dastehen als Zen3/4, weiss nicht.

Imho ist BigLittle bei AMD auch unnötig. Man hat die Probleme doch eher Singlecore mit Intel mitzuhalten, Multicore ist ja kein Problem. Wer nen 5950x/7950x tatsächlich ausgelastet bekommt, darf sich eh Gedanken über Xeon/Epyc/TR machen. Dazu sind die AMD Cores ja soweit "sparsam" (zumindest bei Zen 3) und zahlreich, sogesehen ist hier ein herumpfuschen mit E-Cors imho nicht nötig. Dazu haben die Ryzen-Cores ja noch SMT, welches die E-Cores ja auch nicht haben.
Für die meisten Homeuser, insbesondere die Gamer, würden z.B. 32 c-Kerne vs. 16 grossen/performanteren IMO wenig Sinn auf nem Desktop-Sockel ergeben; es kommt aber natürlich immer auf die Workload an.
Naja, Singlethread-Leistung kann man halt nicht beliebig aufblasen, Parallelisierung ist vergleichsweise einfacher. Wenn man mal eine gute Struktur für son Multi-Layout hat tuts ja nicht viel zur Sache, ob man da jetzt 4 oder 32 Chips oben hat. Grafikkartenshader als Extrembeispiel.

Ein 7800x3d ist Singlecore ja "nur" ~2x so schnell wie ein 10 Jahre alter 3570k. Bei mehr Workload siehts dann eh ganz anders aus.


Ich bin natürlich bei euch, dass 1 100% schnelle Core mehr Wert ist als 2 50% schnelle Cores, sogesehen kein Fan der E-Cores (was sich natürlich ändern kann, ich bin da offen für sinnvolle Entwicklungen).
Benchmarks zeigen das ja deutlich, wenn man nen i9 mit nem i5 aktueller Generation in Alltagsanwendungen (und Gaming, 720p low Benches zählen nicht) vergleicht, ist da nicht viel um.
 
Große und kleine Kerne auf einem Die zusammenzufassen würde zwar für kleinere Desktop CPUs naheliegen, aber nochmal ein zusätzliches Compute Chiplet Design erfordern und damit dem bisherigen Ansatz von AMD zuwiderlaufen. Da wäre ich erstmal skeptisch. AMD wollte bisher möglichst Kosten sparen und die gleichen Compute Chiplets auch im Server/Workstation Bereich einsetzen, insoweit wäre es sinnvoller die Kernvarianten weiterhin zu trennen, um bei der Konfiguration der dicken CPUs flexibler zu bleiben. Ich würde vermuten, dass wir im Desktop Performance Segment eher ein Design mit zwei Chiplets und einer 8 + 16/32 Konfiguration wie bei Intel sehen werden und die Integration verschiedener Kerntypen erstmal der (ohnehin monologischen) APU Variante vorbehalten bleibt.
 
Was das Packaging angeht nutzt AMD auch bei den aktuellen RYZEN und EPYC noch immer die einfachste Technologie die BGA auf einer Trägerplatine entspricht-
soweit korrekt
wenn man die CCDs auf dem IO Die unterbringen wollte, würde dies gigantisch und damit sehr, sehr teuer ausfallen. AMD wird eher eine mit Intels EMIB vergleichbare Lösung einsetzen, TSMC hat da wohl auch schon was passendes in Arbeit oder sogar schon ferig. Die einzige moderne Verbindungstechnik in AMDs CPUs ist das Stacking des 3D V-NANDs auf den CCDs.
Es ist/wird sehr klein und kosteneffizient. Schau dir die MI300 APU an. TSV wird für CCDs, Shaderdies und viele andere Sachen benutzt werden.

Wenngleich AMD das noch immer nicht bestätigen will.
Selbe ISA, unterschiedliche Menge an L3§ -> das reicht nicht um es als anderen Kern zu deklarieren.
Mich würde interessieren wo die AM5-APUs aka 7xxxG bleiben. Kommt da was oder muss ich auf sarlak warten?
 
Ich glaube es erst, wenn die Fakten der nächsten Generationen offiziell seitens AMD auf dem Tisch liegen. Vielleicht war die Tabelle ja eine AMD Roadmap vor Trump, Corona, Wirtschaftskrise und dem ganzen Geraffel, was sonst noch abgeht. Leaks können ja auch mal stimmen, bzw. zum Teil zutreffend sein, oder auch nicht. Trotzdem finde ich es spannend, wenn es stimmt, dass AMD die Idee der sogenannten Effizienzkerne mit aufnehmen will, die dann die "P-Kerne" von irgendwelchen Interrupts-Abarbeitung entlasten. 16 oder 32 Kerne auf ein Chiplet wären natürlich schon nice. Für den Heimgebrauch eines Ottonormalverbrauchers zum Zocken bedingt nützlich. Insgeheim hoffe ich, dass TSMC die 2-3 nm massiv voranbringt, 5 und 4 nm übersprungen werden, vielleicht auch eine massive Weiterentwicklung der APU's umsetzen. Die Frage ist auch, wie lange hält sich der AM5 Sockel?
 
Mich würde interessieren wo die AM5-APUs aka 7xxxG bleiben.
Ich erhoffe mir, dass AMD spätestens Anfang 2024 APU bringen wird. Damit AMD zumindest im Gespräch bleibt. Sonst wird es recht still bis Herbst 2024.
Die APUs werden fast schon in jedem Handheld verbaut und im Notebook offensichtlich beliebter als Rembrandt.
 
Es ist/wird sehr klein und kosteneffizient. Schau dir die MI300 APU an. TSV wird für CCDs, Shaderdies und viele andere Sachen benutzt werden.
Da sehe ich vor allem einen sehr großen Chip und alle Chiplets sind so dicht zusammen, dass man sie kaum einzeln erkennen kann. Das ist auch typisch wenn man Halbleiter Interposer verwendet. Da ist von 900W die Rede und damit ist eine Wasserkühlung wohl sowieso Voraussetzung, aber im Desktop wäre es eben schwer alle Chiplet übereinandergestapelt noch zu kühlen, da die Fläche auf der diese Wärme anfällt, dann eben sehr klein wäre und wir sehen im Review des Xeon-W 3495X was für einen Einfluss die Fläche auf die Kühlung hat:
Der NH-U14S DX-4677 hat ohne Lüfter die gleichen Abmessungen wie der normale NH-U14S und wiegt 27g mehr, was der größere "Bodenplatte" geschuldet sein dürfte, aber viel Spaß mit dem NH-U14S auch nur ein Drittel dieser 912W von z.B. einem 13900K wegkühlen zu wollen.
Trotzdem finde ich es spannend, wenn es stimmt, dass AMD die Idee der sogenannten Effizienzkerne mit aufnehmen will
Mit Intels Effizienzkernen sind die Zen4c Kerne nur bedingt zu vergleichen, dann die haben bis auf halb so viel L3 Cache pro CCX (mit 8 Kernen) den vollen Funktionsumfang und Kompaktheit statt hohen Takt hin optimiert:
Berücksichtigt man den halbierten L3 Cache, so sind es mehr als 35%, denn der L3 belegt auf einem Zen4 Die ja auch fast so viel Platz wie die Kerne selbst, aber Intel bekommt halt 4 e-Kerne auf dem Platz eines P-Kernes unter, da sind es also 75% weniger Platz. Vielleicht werden die Zen5c Kerne ja dann eher geshrinkte Zen4c als echte Zen5 Kerne sein, also z,B, weiterhin mit 256Bit AVX Registern und damit AVX512 Befehle in zwei Schritten ausführen müssen, während Zen5 wohl 512Bit breite AVX Einheiten bekommen soll, womit der Unterschied in der Größe und Architektur der Kerne dann zunehmen würde.

Rein vom Konzept her machen die Hybrid Design im Mobilen und Mainstream Desktop Bereich aber schon Sinn, denn für die Singlethreadlasten hat man halt die schnelle P-Kerne und auch Lasten wie Spiele die eben mehr als einen aber bei weitem nicht alle (8 oder mehr) Kerne auslasten, aber wenn man dann eine Anwendung hat die alle Kerne wirklich voll auslasten kann, so würden bei vielen P-Kernen der Takt schon wegen der hohen Leistungsaufnahme begrenzt sein. Man teile mal die Werte des Xeon-W 3495X durch 4, dann kommt man bei 4GHz auf 228W für 14 P-Kerne und dies bei 94749/4 = 23687 Punkten bei CB23. Für meinen 13900K habe ich mit PL1=PL2=65W 23501 Punkte bei CB23 ermittelt. Auch wenn der Vergleich ein wenig hinken dürfte, weil der fette Uncore Bereich des Xeons halt mehr braucht, so zeigt es doch, dass die e-Kerne ihnen Namen verdient haben und die Effizienz bei Anwendungen die die volle Multithreadperformance ausnutzen, eben eine Menge bringt. Ein Cluster aus 4 e-Kernen hat etwa die gleiche Leistungsaufnahme wie ein P-Kern, sofern die Taktraten im BIOS nicht verstellt wurden, aber eben grob die doppelte Performance.
 
E-Kerne ergeben auf dem Desktop keinen Sinn. Die stören nur und bremsen und führen zu Rucklern beim Gaming.
Deswegen werde ich von Intel auf AMD wechseln.
 
Zuletzt bearbeitet:
E-Kerne ergeben auf dem Desktop keinen Sinn. Die stören nur und bremsen und führen zu Rucklern beim Gaming.
Gibt es für diese Behauptung Belege? Ich kenne dazu diesen Review:

Wie sieht macht es bei den meisten Spielen dort wenig aus, unterm Strich dürfte es bei den mehr Spielen mehr bringen die e-Kerne aktiviert zu lassen, bei einigen ist der Vorteil dann sogar ganz schön groß, aber bei einigen sollte man die e-Kernen lieber deaktivieren. Mein Mainboard hat da übrigens eine BIOS Einstellung wo man die e-Kerne jederzeit durch Drücken der Rollen Taste parken kann, was also ideal ist um sie nur in bestimmten Situationen zu deaktivieren. Deswegen muss man also nun wirklich nicht zu AMD wechseln.
 
Na das ist doch nervig da ständig rumfummeln zu müssen und zu testen, ob die E-Kerne jetzt bremsen oder nicht. Ich habe von Nutzern gelesen, dass die E-Kerne auch Ruckler verursachen und das will man ja auf keinen Fall haben. Dann lieber einen AMD 16 Kerner.
 
Kein Schwachsinn. Schau dir mal den Link von Techpowerup an.
Oder das mit den Rucklern?
Kann ich mir schon vorstellen, wenn so ein lahmer Kern die Arbeit übernimmt. Bei Games kommt es auf eine hohe Single Core Leistung an.
Ich selber habe ja noch Intel, leider. Aber ohne E-Cores.
 
Bei Games kommt es auf eine hohe Single Core Leistung an.
Solche Threads landen aber dann auf den P-Kernen, selbst bei Win 10. Kann es sein das die Berichte von den Rucklern von den Leuten kommen die ein noch älteres Windows verwenden oder vielleicht ein Linux mit einem alten Kernel der die richtige Aufteilung der SW Threads auf die Kerne nicht beherrscht?
 
Also auch in Zukunft kein "BigLittle" bei AMD Zen.
Hoffentlich, der Weg den Intel beschreitet sagt mir nicht zu, im Desktop wohlgemerkt, bei mobilen Geräten wäre es was anderes.
Kleine effiziente Kerne sind schön und gut, aber die will ich nur aktiv haben wenn nichts los ist, also im Leerlauf, ich will auch keine Listen die der CPU sagen wann sie die starken Kerne auslasten sollen.
 
Solche Threads landen aber dann auf den P-Kernen, selbst bei Win 10. Kann es sein das die Berichte von den Rucklern von den Leuten kommen die ein noch älteres Windows verwenden oder vielleicht ein Linux mit einem alten Kernel der die richtige Aufteilung der SW Threads auf die Kerne nicht beherrscht?
Kann ich nicht sagen, was für eine Windows Version die haben. Aber die Leute berichten von Microstutter.
Manche schalten sogar das Hyperthreading ab.
Abgesehen davon gefällt mit diese Hybrid-Architektur überhaupt nicht. Ich will vollwertige Kerne. Ein guter Grund zu AMD zu wechseln.
 
Na wenn AMD es wenigstens besser machen würde als Intel.Wenn e oder Schmall Kerne,dann exklusiv nur für Windows.Also am besten diesen in den IO Chip rein.DIese agieren dann nur für Windows oder Linux.ALso muss da der Treiber das so machen.Dann haben die normalen Kerne wie es bei AMD so ist,alles frei für die richtige Arbeit.Die Games werden dann auch besser laufen weil die Kerne wo das Game verwendet dann frei von Windows wären.Mal sehen wie AMD das so lösen würde.Das wäre der deutlich bessere Ansatz wenn schon sparsamere Kerne.Damit würde AMD im Idle auch sparsamer sein.Warum weil die verkleinerten Kerne,dann wirklich sparsam sind.Damit würde AMD auch das Idle Problem endlich lösen aber unter Vollast noch immer um einiges besser sein als Intel.Sparsam und dennoch viel Leistung.
 
Also auch in Zukunft kein "BigLittle" bei AMD Zen.
Im Desktop gehe ich ganz klar davon aus, dass AMD dort nicht ihre Kapazitäten verschwendet. Völlig nutzlos. Schon heute können Intels 24 Kerne CPUs im Multi nicht die 16 Kerne von AMD schlagen und benötigen dazu auch noch über 60W mehr.
Zudem sind die beiden Konzepte eben unterschiedlich. AMD wird die C-Kerne in Notebooks, Handhelds und Epyc verkaufen. Und es gibt sicherlich noch andere Bereiche, in denen die C-Kerne sinnvoller angelegt sind, als im Desktop. Und wenn man bedenkt, dass Intel über Jahre an Meteor gebastelt hat um dann trotzdem nicht für Oktober 2023 Meteor in den Desktop zu bringen, weil Meteor noch nicht einmal Raptor schlagen kann, vergeht also noch einmal ein ganzes Jahr bei Intel bis etwas Neues kommt.

AMD gelingt es noch nicht einmal Phoenix in den Desktop zu bringen. Laut Volker von ComputerBase ein Trauerspiel, weil schon im Notebook die Teile knapp sind. Warum dann C-Kerne in einem Bereich bringen, in dem AMD auch ohne C-Kerne in Multi besser ist als Intel mit ihren E-Kerne?

März oder April 2024 sind es 18 Monate nach Zen 4. Ich glaube nur nicht daran, dass dann im kleinsten Markt Desktop schon Zen 5 kommen soll, während noch andere Bereich überhaupt mit Zen 4 beliefert werden wollen. Deswegen ist für mich Herbst 2024 realistisch mit +10-15% IPC.
 
Was wie im Herbst 2024 uff, da muss ich ja dann noch länger warten aber gut, dann ist das halt so. Dann habe ich halt mein System 4 Jahre schon dann. Aber gut das lohnt sich dann für mich schon. Hilft halt nix wenn man Zen 5 haben will. Zen 6 kommt dann Ende 2025 und Ende 2026 kommt dann ne ganz neue Plattform. Das würde ja voll und ganz zu dem ganzen auch passen. Wer warten kann wird am Ende also belohnt.
 
Die Games werden dann auch besser laufen weil die Kerne wo das Game verwendet dann frei von Windows wären.Mal sehen wie AMD das so lösen würde.Das wäre der deutlich bessere Ansatz wenn schon sparsamere Kerne.Damit würde AMD im Idle auch sparsamer sein.Warum weil die verkleinerten Kerne,dann wirklich sparsam sind.Damit würde AMD auch das Idle Problem endlich lösen aber unter Vollast noch immer um einiges besser sein als Intel.Sparsam und dennoch viel Leistung.
Auf die paar Watt kommt es auf derm Desktop nicht an. Und die E-Kerne stören beim Gaming nur. E-Kerne machen nur bei Servern und Smartphones Sinn.
 
Naja du verstehst nicht ganz was ich meinte. Im io die sind exklusiv nur Windows darf da drauf zugreifen. Für die Spiele sind die Kerne dann unsichtbar. Gelöst wird das ganze am besten mit einem Windows treiber. Der die kleinen Kerne exklusiv Windows zu Ordnet. Damit hat dann der Rest ja ein Vorteil. Die last kann dann wirklich voll auf die anderen Kerne verwendet werden. Zwar ist das nur ne minimale steigerung aber besser als nix ist es ja. Es gibt welche die wollen die cpus so optimal auslasten bis zum letzen Ecke eben das maximale aus der ganzen Sache holen. Also alles was geht, das maximal mögliche eben. Was anderes kann ich halt echt nicht erwarten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh