MCM-Ansatz ausgebaut: EPYC 2 soll auf bis zu neun Dies setzen

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Timemachine@1990
Es wird niemals on-chip Cache geben, da viel zu groß und zu teuer...
 
@Spielerkind
Und nur weil du das meinst ist das so?
Deine Argumentation ist viel zu oberflächlich - noch dazu blendest du aus, dass der Markt aus weit mehr besteht als ein paar HPC Servern wo sich Epycs gut machen.

Wenn ich mal so durch die Reihen der Storageanbieter durchgehe - ab ner gewissen Größe ist dort sehr häufig ein x86-64 based Xeon verbaut, ich gehe durch die Reihen von Routern oder irgendwelcher Security Appliances, auch dort findet sich reihenweise Intel based Stuff. Selbst "dumme" Switches nutzen zum Teil Xeons.

Nix für ungut - und wenn du noch so oft die selben Aussagen wiederholst, für Intel ist das im Moment denke ich eher eine Mischkalkulation mit dem vor Monaten, wenn nicht gar Jahren schon ermittelten Annahmen zum optimalen Kompromiss zwischen Kosten und Nutzen. Intel fertigt die CPUs nicht ohne Grund in weit breiterer Modellvielfalt - wahrscheinlich kommt AMD da auf absehbare Zeit nicht auf Absatzmengen wo sich die Mehrkosten dedizierter Fertigung ggü. dem Konzept "ein DIE für alles" lohnt. Noch x-mal zu behaupten es wäre anders machts imho nicht wahrscheinlicher. Warum auch immer du das nicht verstehen möchtest.

Nenn uns doch einfach mal konkrete Rechnungen wo und wie das am Ende günstiger gehen würde?
Das Argument, größere Chips sind teurer zieht nur dort, wo große Chips verbaut sind - und das ist bei Xeons nicht der Massenabsatzmarkt. Oder ist die Fertigung bei GloFo dMn so scheiße, dass bei AMD so viel Ausschuss entsteht?
Laut damaligen Aussagen von Intel soll wohl die 22nm FinFET gegen Ende in Region 95% Yieldrate gelegen haben. Es finden sich zudem Folien die nich so viel Unterschied zu 22nm für den/die 14nm Prozesse bescheinigen. Demnach ist davon auszugehen, dass der absolute Ausschuss sich eher in Grenzen hält - bei GloFo und TSMC sicher nicht anders. Der Einheits-DIE bei immer gleicher Größe müsste aber trotzdem teildeaktiviert werden. Verschenkte und voll funktionstüchtige Fläche.
 
Und?
Trotzdem wird es je größer eine Die wird immer teurer, wenn du das abstreitest, dann hast du davon halt wenig Ahnung!

Aber eigentlich ist mir ja egal was du da behauptest, du unterstellst mir anscheinend Teilweise irgendwelche Aussage über die ich selbst den Kopf schüttel, weil ich so einen Blödsinn eigentlich nie behaupten würde...

Als Mod sollte man die Forenregeln eigentlich einhalten!
 
Ich sehe bei AMD den Engpass eher in der Entwicklung. Die haben schlichtweg nicht die Arbeitskräfte und -leistung um zig Designs auf den Markt zu schwemmen. Irgendwo muss man sich auf ein Design konzentrieren, sonst hat man hinterher zwar viele Designs, aber keins taugt. Und das bringt das Unternehmen auch nicht weiter.

Außerdem lässt sich das aktuelle AMD Design viel flexibler an die Marktanforderungen anpassen. Reissen die Kunden AMD den 2600X aus den Händen? Kein Problem, baut man mehr davon. Ist der 2700X oder ein Threadripper stärker gefragt, schiebt man die Paletten mit Dies halt dahin. Das geht bei Intel mit den vielen Dies halt nicht. Da liegt dann der 22 Core Die auf Halde, wenn stattdessen 9900Ks gefertigt werden müssen.

Als Mod sollte man die Forenregeln eigentlich einhalten!

Ich sehe hier ehrlich gesagt keinen Regelverstoß. :rolleyes: Aber hauptsache mal die "Mod" Keule geschwungen...
 
@Don
Gibt es Informationen darüber, ob durch den zentralen Controller (der ja den Speicher anbindet) das Konzept mit mehreren NUMA Nodes pro CPU abgeschafft wird?
Für mich klingt das fast so.
 
Wie im Kindergarten hier. MMn. gehört es sich einfach, jemanden beim richtigen Benutzernamen zu nennen. Und ein Moderator sollte eine gewisse Vorbildfunktion haben. Aber das ist nur die bescheidene Meinung eines "dummen" Mitlesers.
 
Und?
Trotzdem wird es je größer eine Die wird immer teurer, wenn du das abstreitest, dann hast du davon halt wenig Ahnung!

Aber eigentlich ist mir ja egal was du da behauptest, du unterstellst mir anscheinend Teilweise irgendwelche Aussage über die ich selbst den Kopf schüttel, weil ich so einen Blödsinn eigentlich nie behaupten würde...


Als Mod sollte man die Forenregeln eigentlich einhalten!

Du machst dich extrem lächerlich!
fdsonne hat Ahnung von was er redet. Verfolge seine Beiträge für längeren Zeitraum zurück und du wirst es selbst erkennen.
Du fällst in jeden Thread auf und gibst Behauptungen von sich, die angeblich bare münzte sein sollen.
Gehe mal in sich und hinterfrage dein Auftreten!
 
Wie im Kindergarten hier. MMn. gehört es sich einfach, jemanden beim richtigen Benutzernamen zu nennen. Und ein Moderator sollte eine gewisse Vorbildfunktion haben. Aber das ist nur die bescheidene Meinung eines "dummen" Mitlesers.

Deine Meinung, darfst du haben. Ich persönlich hab davon noch nie gehört oder mich daran gestört.
 
Ich sehe hier ehrlich gesagt keinen Regelverstoß. :rolleyes: Aber hauptsache mal die "Mod" Keule geschwungen...
Er hat meinen Namen mit Absicht falsch geschrieben, das ist ganz klar ein Regelverstoß!

Gibt es Informationen darüber, ob durch den zentralen Controller (der ja den Speicher anbindet) das Konzept mit mehreren NUMA Nodes pro CPU abgeschafft wird?
Die DDR4-Speichercontroller und DDR4-PHYs werden in eine eigene Die ausgelagert.
 
Sie hoben misch direggt ins Gesischd gefilmd. Des dörfen se nisch!!
 
@elcrack0r: Wo ist der olle Daumen hoch, wenn man ihn mal brauch :coffee2:

*verteilt Popcorn in die Runde*
 
Ich sehe bei AMD den Engpass eher in der Entwicklung. Die haben schlichtweg nicht die Arbeitskräfte und -leistung um zig Designs auf den Markt zu schwemmen. Irgendwo muss man sich auf ein Design konzentrieren, sonst hat man hinterher zwar viele Designs, aber keins taugt. Und das bringt das Unternehmen auch nicht weiter.

Außerdem lässt sich das aktuelle AMD Design viel flexibler an die Marktanforderungen anpassen. Reissen die Kunden AMD den 2600X aus den Händen? Kein Problem, baut man mehr davon. Ist der 2700X oder ein Threadripper stärker gefragt, schiebt man die Paletten mit Dies halt dahin. Das geht bei Intel mit den vielen Dies halt nicht. Da liegt dann der 22 Core Die auf Halde, wenn stattdessen 9900Ks gefertigt werden müssen.

Zum ersten, natürlich wird das so sein. Sehe ich auch kein Problem drin. Unsinnig finde ich hingegen diese komischen Wunschvorstellungen von Leuten wie dem Kollegen da oben.
Gerade für AMDs aktuellen Ansatz ist so ein Design richtig und sicher mit der beste Kompromiss. Nur heist das ja lange nicht, dass der Spaß der Weisheit letzter schluss wäre.

Zum zweiten, naja mag stimmen - aber was macht das am Ende für nen Vorteil? (gerade für Intel?)
Der Sinn der dedizierten Fertigung ist wahrscheinlich eher, dass es günstiger ist nen DIE dediziert zu fertigen ab nem gewissen Absatz, als einen größeren zu teildeaktivieren. Fein Beispiel passt da schon ganz gut - der 2600(X) verkauft sich besser als der 2700X (laut MF Zahlen). Ab genügend hohen Yields teildeaktiviert man vollfunktionsfähige DIEs. Als Hersteller könntest du das auch einfach für Umme verschenken -> würde aber die Preise kaputt machen. Also schmeißt man das eher weg. So funktioniert halt der Kapitalismus...
Für AMD wird dieser Prozess am Ende wahrscheinlich immernoch kostengünstiger sein als es anders zu machen (sonst hätte man das sicher getan)
Heist aber lange nicht, dass es bei steigenden Mengen immernoch so is... Genau hier behaupte ich, hat der Kollege da oben einen Denkfehler. Ich würde mich nichtmal wundern wenn die bei Intel gar deutlich günstiger fertigen könnten als AMD bei GloFo und noch sicherer auch mit 7nm bei TSMC - wo AMD selbst sagt dass sich die Kosten pro yielded Wafer(fläche) verdoppeln. Es dürfte demnach um so wichtiger werden das so zu designen um die absatzstärksten Modelle eher native oder wenig Verschnitt zu produzieren als krampfhaft nem Einheits-DIE zu folgen und überall zu teildeaktivieren... Dafür pro Stück vllt günstiger, in Summe durch hohen Flächenbedarf ggf. wieder teurer zu sein.

Gerade in den Twitter Pics - da gibts als einzige variable den Controller-Fabric Chip. Die Compute DIEs will man ja in der Anzahl skalieren - anstatt in der Core-Anzahl. Bei guten Yields wären weniger voll beschaltene eher wirtschaftlich - bei schlechteren eher mehr teildeaktivierte.


Er hat meinen Namen mit Absicht falsch geschrieben, das ist ganz klar ein Regelverstoß!

Sorry, in meinem Gedächnis hatte sich irgendwie die Aussage: "Die englische sprache ist mir egal" eingeschlichen - die war dir doch vor paar Tagen noch so wichtig??
Bitte entscheide dich doch endlich mal, ob wir lieber in englisch oder deutsch kommunizieren sollen... Es würde es ungleich einfacher machen.
 
Genau hier behaupte ich, hat der Kollege da oben einen Denkfehler. Ich würde mich nichtmal wundern wenn die bei Intel gar deutlich günstiger fertigen könnten als AMD bei GloFo und noch sicherer auch mit 7nm bei TSMC - wo AMD selbst sagt dass sich die Kosten pro yielded Wafer(fläche) verdoppeln. Es dürfte demnach um so wichtiger werden das so zu designen um die absatzstärksten Modelle eher native oder wenig Verschnitt zu produzieren als krampfhaft nem Einheits-DIE zu folgen und überall zu teildeaktivieren... Dafür pro Stück vllt günstiger, in Summe durch hohen Flächenbedarf ggf. wieder teurer zu sein.

Gerade in den Twitter Pics - da gibts als einzige variable den Controller-Fabric Chip. Die Compute DIEs will man ja in der Anzahl skalieren - anstatt in der Core-Anzahl. Bei guten Yields wären weniger voll beschaltene eher wirtschaftlich - bei schlechteren eher mehr teildeaktivierte.
Sorry, aber solchen Blödsinn glaubst du doch nicht etwa selber?
 
Das ist ja gerade der Grund wieso AMD so billig fertigen kann. Intels größere Chips kosten ein Vermögen in der Fertigung. AMD produziert einfach nur ein Modul und skaliert es nach Bedarf. Dieses Konzept hat Zukunft, es braucht Optimierung, auf lange Sicht kann ich mir aber vorstellen dass Intel es ähnlich machen wird.
 
Genau, Intel kann wahrscheinlich günstiger fertigen als AMD, jetzt hätte ich fast meinen Espresso ausgespuckt^^^

Eine Die für alles ist der richtige ansatz, da spart AMD nochmal und der Verschnitt wird eh immer geringer!

Bei Rome gibt es eine CPU-Die, ohen I/O.
Also gibt es bei I/O bei dieser Die schon mal ca. genau 0% Verschnitt!

Dann kommt eine I/O-Die.
Dort gibt es maximal bei TR Verschnitt, weil die hälfte der Memorychannels und sehr viele PCEe-Lanes deaktiviert werden.
Da fallen aber eh teildefekte Dice an, TR ermöglicht AMD die noch zu verwenden.

Für AM4 kommt Raven 2 als Tetracore.
Für 6-8 Kerne nehmen sie vielleicht die CPU-Die ohne I/O + Vega12.
Vega 12 ist viel zu groß für 20 CUs, würde mich jetzt nicht wundern, wenn die I/O-Die für AM4 dort schon integriert ist.

Da hätte man zwar in jeder V12-dGPU totes Silizium, aber das kommt günstiger als wenn man für AM4 eine größere APU entwickeln würde.

V12 ist mit 20 CUs fast so groß wie P10 mit 36 CUs, da geht sich ein kompletter Chipsatz + I/O aus!
 
Zuletzt bearbeitet:
Genau, Intel kann wahrscheinlich günstiger fertigen als AMD, jetzt hätte ich fast meinen Espresso ausgespuckt^^^
Dann belege erst mal, dass es anders ist. Bei Intel kommt halt lustigerweise noch ein satter Gewinn rum, obwohl du manchmal klingst, als könnten die nicht kostendeckend fertigen. Tja...

Eine Die für alles ist der richtige ansatz, da spart AMD nochmal und der Verschnitt wird eh immer geringer!
Schön. Dann hättest du dich mal vor 10a dort beworben, dann müsstest du jetzt nicht in bedeutungslosen Foren herumtrollen ;). Was sagen eigentlich deine Kumpels bei Semiaccurate (die haben auch ein Forum). Aber Moment, da ist jeder 2te Beitrag auch Intel-Hater, aber leider nicht, weil AMD besser ist :d :haha:

Warum kann man eigentlich in Foren nicht für den Ausschluss von Mitgliedern voten...
 
vinacis_vivids = Gamerkind?

Schon alleine Signatur usw. spricht dafür.
 
Interessant das hier alle direkt "Blödsinn" schreien. Dabei ist es doch nur logisch, das bei hohen Yields ein 2600X teurer sein muss als ein eigener 6C Die. Einfach weil man bei den derzeitigen 2600ern immer 2 Cores "wegschmeisst" bzw. Fläche auf dem Wafer verschwendet. Da kann man die Rechnung immer aufmachen, ab wann sich ein eigener Die lohnt. Ist im Prinzip sogar ganz leicht: Stückzahl * verlorene Wafer-Fläche durch teildeaktivierte Cores * Waferkosten > Entwicklungskosten für den 6C-Die

Da noch die Yields mit rein und schwupp kann man sehr gut berechnen ab welcher Stückzahl sich ein eigener Die lohnt. Kann daher die obigen Posts ("das ist Blödsinn") nicht nachvollziehen.

vinacis_vivids = Gamerkind?

Keine Ahnung, ist aber auch egal. Ist bestimmt ne Reinkarnation einer der vielen gebannten Accounts hier im Forum. Man erinnere sich nur mal an Schaffe, Elkinator und Konsorten... Ob das nun verschiedene Personen sind (und wie viele), darüber mach ich mir keinen Kopf.
 
Zuletzt bearbeitet:
Warum kann man eigentlich in Foren nicht für den Ausschluss von Mitgliedern voten...
Na zum Glück könnt ihr nicht Leute, deren Meinung euch nicht gefällt einfach ausschließen!

Zu mehr als einem persönlichem Angriff hat es bei dir leider nicht gereicht, schade!
vinacis_vivids = Gamerkind?
Noch nie von dem gehört, ist der hier noch aktiv?

Ist im Prinzip sogar ganz leicht: Stückzahl * verlorene Wafer-Fläche durch teildeaktivierte Cores * Waferkosten > Entwicklungskosten für den 6C-Die
Da muß man aber auch die 8C Dice berücksichtigen, bei denen wirklich etwas defekt ist und deaktiviert werden muß.
Aber AMD steuert bei EPYC eh dagegen, indem man I/O wieder auslagert.
Bei dne kleineren EPYCs wird der Verschnitt ja immer höher, je weniger Kerne man anbietet, weil alles 4 mal vorhanden ist.
Den I/O-Teil deaktiviert man auch zum Großteil, niemand braucht bei EPYC die USB-Ports alles Dice und so weiter.

Jetzt kommt da eine eigene I/O-Die.
Die CPU-Die hat 8 Kerne ohne I/O.

Aktuell muß AMD für einen 8C EPYC ganze 4 Dice verwenden, da ist mehr als 75% der Chipfläche deaktiviert.
In 7nm wäre diese Verschwendung sehr teuer.

Bei Epyc 2 kann man da theoretisch eine I/O-Die + eine CPU-Die verbauen, mehr braucht man nicht.

Für SP3r2 verwendet man dann die Selbe I/O-Die, da nimmt man teildefekte und so deaktiviert Chips.

Bei AM4 gibt es Raven Ridge 2 als Tetracore.
Da bleibt nur die Frage, ob AMD eien 7nm APU mit 8C auflegen will.

Günstiger wäre wohl, da die CPU-Die zu nehmen und sie mit Vega12 zu kombinieren.
In Vega12 sollte sich der dafür nötige Chipsatz udn das ganze I/O-Zeug ausgehen, die Die ist für nur 20CUs extrem groß ausgefallen.
Das würde erklären, warum Vega12 überhaupt erst so spät gekommen ist!!

Aktuell hat AMD bei AM4 ja auch den nachteil, daß ihren 6-8 Kerner generell keine iGPU haben.

Falls jemand etwas nicht verstanden hat, einfach nachfragen udn mich nicht gleich wieder grundlos beschimpfen;)
 
Natürlich muss man die Yield auch berücksichtigen. Mein Beispiel oben war vereinfacht, weil ich für meine Aussage keinen Mehrwert darin gesehn hab alles unnötig aufzublasen. AMD könnte natürlich dazu übergehen I/O und die eigentlichen Kerne zu trennen. Wäre nur die Frage ob es sich lohnt einzelene Kerne oder ganze CCX abzuspalten... Ich vermute die CCX wären wirtschaftlicher. Und wenn man dabei ist, wäre es sogar denkbar die IGP entweder mit in den I/O Komplex zu stecken oder als separates Modul anzubinden. Also z.B. für nen Quadcore: kleines I/O Modul + IGP + 1x CCX. Für nen Octacore dann: kleines I/O Modul + IGP + 2x CCX. Und für Epyc: großes I/O Modul + IGP + 8x CCX. Ist aber alles sehr theoretisch.

Ich vermute daher eher, das es beim generellen Aufbau beim alten bleibt, also 4 Kerne pro CCX und einfach nur mehr CCX pro Die, oder sogar alles komplett identisch, also 4C/CCX und 2CCX/Die. AMD hat aus meiner Sicht einfach nicht die Ressourcen um mal eben den Gesamtaufbau zu ändern.
 
AMD hat aber auch nicht die Ressourcen, unnötig viele Dice aufzulegen, was du aber gerade vorgeschlagen hast.
7nm ist ausserdem extremst teuer, gerade die Treiber bei I/O kann man aber nicht wirklich shrinken, aber man kann sie in billige 12LP oder 22FDX-Wafer verfrachten.

Die integration eines I/O-Teiles für AM4 in Vega12 wäre eigentlich die günstigste Lösung.

Günstiger geht es nicht, weil man sonst mehr unterschiedliche Dice entwerfen muß.
AMD braucht für Mobile auch eine APU mit 8 Kernen, die kann man dann aus 2 Dice "bauen".
 
Moment, langsam. Ich hab nicht vorgeschlagen das AMD zig Chipdesigns auflegen soll... Meine Aussage war, das es ab einer gewissen Stückzahl sinnvoll sein kann dies zu tun (siehe Intel). Nicht das es für AMD jetzt gerade zwingend erforderlich oder gar wirtschaftlich ist.

Ich sehe bei AMD einfach ein Ressourcenproblem, weshalb man beim aktuellen Multichip Design gelandet ist. Vernünftig zu entwickeln, dafür aber evtl. Abstriche bei der effektiv genutzten Waferfläche.
 
OK, dann hab ich das falsch verstaden.

AMD spart halt teure 7nm Chipfläche.
Intel wird noch einige Jahre brauchen, bis sie das so wie AMD auslagern können.

Intel hätte mit dieser Technik sicher weniger Probleme mit 10nm.
Sie könnten den CPU-Teil in 10nm fertigen und I/O + GPU lagert man in den gut laufenden 14nm Prozess aus.

Bei den 10nm APUs von Intel nimmt die GPU viel Fläche ein, der 10nm CPU-Teil wäre viel kleiner als aktuell dei ganze APU.
Damit hätten sie bei den 10nm Wafern mehr als Doppelt so viele Dice, die Yield würde also steigen.
 
Du und deine Dice. Kannst du dir nicht mal die korrekte Schreibweise angewöhnen oder ist das nur bei deinem Nick wichtig? Jemand der mit so verqueren Vermutungen um sich wirft, sollte wenigstens die Fachbegriffe beherrschen. So kann man keinen deiner Posts ernst nehmen.
 
Als Plural sind sowohl Die als auch Dies als auch Dice zulässig. Wenn man sonst nix zu kritisieren hat, dann halt die Wortwahl/Rechtschreibung?! Ist das dein Niveau? ;)
 
Ich verwende Dice, weil mir das Wort Dies nicht gefällt, finde in deutschen Sätzen schaut das komisch aus.
Korrekt sind aber beide Bezeichnungen!

Aber lass ihn doch, mehr als mich blöd anzugehen kann dieser Kerl nicht.

Jetzt hat er sich eh wieder mal vor dem Forum bloßgestellt^^^
 
Würde man nicht selbst bei 6C noch Platz sparen gegenüber 8C auf 14 (12) nm? Ich rechne damit dass AMD mit Zen 2 erstmals seit über einem Jahrzehnt wieder an der Singlethread-Krone kratzen wird. Coffee Lake ist mächtig, aber es hat sich nicht mehr entwickelt. Intel muss jetzt eine neue Generation entwickeln.
 
Naja, 7nm ist trotzdem teuer und I/O, bzw. die Treiber sind nicht wirklich verkleinerbar.
Ein DDR4-PHY in 14nm wäre wohl gleich groß wie einer in 7nm, das Selbe mit PCIe, deren PHYs werden nicht wirklich keiner.

Für eine iGPU ist auch keine teure 7nm Chipfläche nötig.

Da kann ich mir schon vorstellen, daß in Vega12 ein "Chipsatz" samt I/O integriert ist und das kombiniert man dann mit der CPU-Die zu einer APU.
Als reine dGPU ist auf V12 dann einiges an totem Silizium vorhanden, das kommt AMD aber sicher günstiger als keinen Chipsatz in V12 zu integrieren und dann auch noch eine native 8C APU zu entwerfen.

Oder hat jemand eine logische Erklärung dafür, warum Vega 12 mit 20 CUs fast so groß ist wie Polaris mit 36 CUs?
Eigentlich müßte Vega 12 ja viel kleiner sein, weil der dort vorhandene HBM2-PHY viel kleiner als der DDR4-PHY von Polaris ist.
 
Coffee Lake Skylake ist mächtig, aber es hat sich nicht mehr entwickelt.

Fixed it for you. Intel hat an der IPC seit Skylake nix mehr gemacht... Skylake, Kaby, Coffee und Coffee Refresh haben alle identische IPC. Ansich traurig... Von Sky auf Kaby kam ne bessere IGP, von Kaby auf Coffe und von Coffe auf Coffe Refreh nur jeweils 2 Kerne dabei.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh