HWL News Bot
News
Thread Starter
- Mitglied seit
- 06.03.2017
- Beiträge
- 114.133
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Die größere Fragen die sich stellen:
1. Bastelt AMD das Design und TSMC den Prozess um, damit mehr Takt drin ist?
2. Gibts noch mehr IPC?
Ich sehe es als Schutzwall gegen überoptimierte Intel-Software an. Und who knows, wenn AMD die Anbindung optimiert bekommen hat, sollte der Leistungsverlust durch die größeren Registersuchläufe vernachlässigbar sein. Wäre halt schöner, wenn Software so geschrieben wird, dass sie agnostisch agiert - aber davon können wir uns wohl verabschieden.
Da AMD mit ihrem Chiplet Design einen anderen Ansatz verfolgt müssen sie halt auch zusehen, das die meiste Software auf ihrer Plattform performant läuft.
Wobei AMD wohl verneinte, dass es nen Chiplet Ansatz bei der APU gibt. (zumindest vorerst)
[...] Wobei AMD wohl verneinte, dass es nen Chiplet Ansatz bei der APU gibt. (zumindest vorerst)
Der Knackpunkt war "dieser" im Sinne von genau diesem Typ von I/O-Die, dadurch konnte sie das objektiv wahrheitsmäßig verneinen, um keine negative PR für den anstehenden Picasso-Launch zu ernten.
Ich gehe mit 99 % davon aus, dass kommendes Jahr bei den 4000er APUs GPU- und Zen 2 oder gar 3-Chiplets kommen, um auch im mobilen Bereich bei >4 Kernen Intel voll angreifen zu können.
Ehrliche Frage, welchen Sinn haben dann noch diese Aufbauten wenn eh für jeden Marktbereich die Chips neu entwickelt werden müssen?
Ganz einfach. Zwischenschritte und oder andere Schritte werden begangen, wenn benötigte Entwicklungen sich verzögern und oder noch Zeit brauchen.fdsonne schrieb:Ehrliche Frage, welchen Sinn haben dann noch diese Aufbauten wenn eh für jeden Marktbereich die Chips neu entwickelt werden müssen?
...
So ist es, AMD fährt da aber einen Schlingerkurs, früher hat man auf den Open64 Compiler gesetzt, jetzt ist es wohl AOCC v2.0 auf Basis von Clang, aber beide nur für Linux.Ist alles eine Sache des Compilers, da wäre ein größeres Engagement seitens AMD natürlich auch begrüßenswert.
Nun den Chiplet Design scheint AMD die Nachteile des vorherigen Designs der Zen(+) CPUs mit mehreren Dies (TR und Naples) nun ja deutlich verringert zu haben und bei den RYZEN bis einschließlich 8 Kerne gibt es ja auch nur ein Chiplet, aber wie man am Beispiel des 3900X sieht, scheint es mit zwei Chiplets nicht mehr die Einschränkungen wie vorher noch bei den TR zu geben. Wenn eine Software auf den AMD CPUs nicht so gut performt wie auf Intel CPUs, dann liegt dies einfach an der Architektur und dies sieht man ja auch beim Vergleich zwischen unterschiedlichen Intel CPUs, die Skylake-X mit ihrem Mesh und den Änderungen beim Cache, performen bei einigen Anwendungen wie z.B. Games auch schlechter als man im Vergleich zu den S.1151 Skylake aufgrund der Taktraten und Kernzahl hätte erwarten können und dafür bei anderen Anwendungen besser, obwohl die Architektur der eigentlichen Kerne hier sogar identisch ist.Wüsste auch keine Software die per se auf Intel optimiert ist, die bisherigen x86-CPUs waren eben meist monolithischer Natur.
Da AMD mit ihrem Chiplet Design einen anderen Ansatz verfolgt müssen sie halt auch zusehen, das die meiste Software auf ihrer Plattform performant läuft.
Eben und wer hat die Zeit (die kostet bei kommerzieller SW Geld und Entwickler sind knapp, gute kaum zu bekommen) oder Lust (bei Open Source) alle paar Jahre wieder auf was Neues zu optimieren? Der Aufwand ist zu hoch und die Unterstützung durch Compiler durch AMD ist eben auch mies und nur auf Linux beschränkt.Und jetzt 2-3 Jahre später wirft man den Kram komplett über Board.
Es können 1, 2 oder 4 sein und dies sollte im BIOS konfigurierbar sein.Den 64C Epyc, den ich bis dato gesehen hatte, kam mit 2x NUMA Nodes.
Wo ist denn dieser freie Platz? Außerdem braucht man für HBM eine andere Verbindungstechnik wie einen klassischen Interposer oder eben Intels EMIB, welches im Grund ja nur ein Interposer ist der aber nur unter einem Teil der Dies steckt. Beim klassischen Interposer sitzen alle Dies auf dem Interposer und der muss daher entsprechend groß sein, was ihn teuer macht, deshalb sitzen die Dies da ja auch immer so dicht gedrängt drauf und schon beim Bild der RYZEN 3000 und Rome war wegen der Abstände der Dies klar, dass hier keine Interposer verwendet werden.Der "freie" Platz des dritten Chiplets könnte vielleicht für HBM genutzt werden (?)
Apple und nicht AMD entscheidet, was sie in ihre MacBooks packen.Dann könnten sie das Teil mit HBM, USB 4 (also auch mit Thunderbolt) in MacBook (Pros) packen
Die aktuellen APUs basieren auf Zen(+), dies soll schon veraltet sein? Bisher hat nur Intel bei den Kaby Lake-G HBM für die GPU auf der Platine der CPU verwendet, APUs nennt nur AMD so ein Konstrukt und dies waren groß, teuer und haben daher keine große Verbreitung gefunden. Die Alternative eine getrennte GPU/Graka zu verbauen, ist dann auch nicht teurer und dafür flexibler, braucht nur eben etwas mehr Platz. Das ist eine kleine Nische und AMD hat sicher nicht die Reourcen um solche Nischen abzudecken, sondern konzentriert sich zu recht auf Produkte mit denn Geld zu verdienen ist.Persönliche Meinung: Der Grund, dass das bisher nicht ging (APUs CPU-seitig "veraltet"), waren/sind zu wenig Ingenieure (da AMD finanziell zu schlecht aufgestellt war), um alles gleichzeitig fertig zu bekommen
Eben, der Markt für APUs ist nicht der für Systeme mit hoher Performance, sondern der Low-Cost Bereich, schon weil man eben niemals leistungsmäßig gegen die Kombination von CPU und getrennter Graka ankommen wird, dafür sind die Resourcen in nur einem Sockel zu beschränkt, was Leistungsaufnahme, Kühlung und auch die RAM Bandbreite angeht. Letztere kann man mit HBM umgehen, aber das treibt die Kosten gewaltig in die Höhe. Selbst wenn man nun so eine Monster APU bauen würde, so kann man die schon wegen der erforderlichen Kühlung gar nicht in sehr kompakte Gehäuse verbauen, was aber gerade der einzige Vorteil davon wäre.Ehrliche Frage, welchen Sinn haben dann noch diese Aufbauten wenn eh für jeden Marktbereich die Chips neu entwickelt werden müssen?
Der Spaß würde Sinn ergeben, wenn man die GPU, die es jetzt nicht gibt, mit einem vorhandenen IO DIE und einem (oder mehreren) Compute DIEs paart. Aber nicht, wenn man für die APU nen neuen IO DIE bräuchte.
Dafür ist der I/O Chip aber jetzt schon sehr groß, entweder wird der auch auf 7nm Fertigung umgestellt, was dann auch zu den neusten GPUs passen würde oder es bleibt nur wieder eine 12nm GPU Version für die wenig Platz verfügbar ist, eigentlich nur so viel wie man einsparen kann, wenn man auf die Option zur Anbindung eines zweiten Chiplets verzichtet, denn viel größer kann der I/O Chip nicht mehr werden, sonst passt er nicht mehr unter den HS.Aber was vorstellbar wäre, wäre ein Standard Zen-Chiplet für die CPU Kerne (Zen2 wie bei Matisse) und ein angepasstes IO Die mit integrierter GPU.
Der aktuelle I/O Chip ist doch schon ohne GPU, oder was meinst Du mit IGP?In späteren Generationen wird man wohl versuchen, das IO Die ohne IGP zu bauen
Das Problem sind die Verbindungen zwischen den Dies, dies ist ja schon bei den CPU Chiplets ein Problem:Glaube, dass AMD nicht herum kommt, den I/O-Die ebenfalls in 7 nm fertigen zu lassen, nicht weil es leistungstechnisch sinnvoller ist, sondern einfach nur um physischen Platz zu sparen, damit entsprechende APUs überhaupt möglich werden.
Damit ist man schon sehr am Limit und der nächste Schritt wäre ein Interposer, aber die kosten eben auch einiges an Geld. Eine GPU im I/O Chip wäre sicher unter Aspekt interessant, dass man dafür im Verhältnis zur Chipfläche nur wenige zusätzliche Anschlüsse bräuchte, denn für die I/O Funktionen braucht man zu viele und kann daher kaum noch Chipfläche einsparen, da man diese einfach braucht um die Anschlüsse unterzubringen. Ich fände es interessant so eine kleine iGPU zu haben, die für Windows und Multimedia reicht, aber für die größte Zielgruppe, die Gamer, dürfte die uninteressant sein und keiner wird deswegen eine größeren Aufpreis zahlen wollen. Die Xeon waren bis Haswell bei Gamern u.a. beliebt, weil manche nicht für eine iGPU bezahlen wollte die sie sowieso nicht nutzen werden.
Dann müsste man aber wohl auf Interposer setzen, eben wegen der Dichte der Anschlüsse.Vielleicht ein von den Abmessungen her kleiner (=günstiger) in 7 nm gefertigter I/O-Die, der an einer Seite eine "breites" Universal-GPU-Interface hat und so mit verschiedenen, separat gefertigten GPU-Chiplets kombiniert werden kann?
HBM braucht immer Interposer und so ein Monster mit 32GB wäre sehr teuer und ein absolutes Nischenprodukt. Der einzige Vorteil wäre, weniger Platz dafür zu brauchen, aber der wäre wegen der Kühlung, gerade bei einer mobilen Workstation sollte diese schon leistungsstärker sein, dann wieder zunichte gemacht, da kann man gleich die Teile wie bisher getrennt verbauen und hat außerdem viel mehr Konfigurationsmöglichkeiten. HBM als CPU RAM ist außerdem nur bei sehr speziellen Anwendung wirklich für die Performance relevant.Könnte man es irgendwie als Feature verkaufen, HBM über den i/O-Die auch für die CPU mitzuverwenden? Beispielsweise ein 32 GB-8C-APU-Monstrum für mobile Workstations, wo das eigentliche Mainboard/Logic Board mit APU die Abmessungen einer 2,5"-SSD hat und der Rest des Gehäuses wird für Akku, Massenspeicher und Kühlung verwendet?
Bin auch gespannt, wann die zur Auslieferung kommen.
Produktion 3 quartal 2020? Also erdt 2021 zu kaufen?
Wird Sie, zumindest kenne ich außer Spezialfällen kaum jemand, der in seiner Software noch hart codierten Assemblercode mit Intel-spezifischen Befehlen an einer Stelle stehen hat.
Wenn dem so ist, kann man Intel auch nicht vorwerfen, dass sie bestimmte Befehlserweiterungen nur bei Intel CPUs aktivieren, oder sollen sie auch noch die ganzen AMD CPUs durchtesten um zu sehen was da schneller ist und stabil funktioniert?
Das war noch auf die RYZEN der ersten Generation bezogen, aber es zeigt eben, dass offenbar die Singlethreadperformance bei Mathlab oft wichtig ist und ebenso was genau das Programm macht.
Alleine durch AVX512, der Xeon-W 2175 hat zwei AVX512 Einheit pro Kern, kann schon ein großer Performancevorsprung entstehenm siehe hier die Ergebnisse des Cannon Lake i3-8121U bei 3D Particle Movement v2.1 mit AVX512. Intels libs sind natürlich auf Intels CPUs optimiert, was niemanden wundern dürfte und umgekehrt wird auch niemand von AMD eine Optimierung auf Intel CPUs erwarten. Keiner wird die CPUs des anderen testen um solche Fehler zu finden und zu vermeiden:
Was wäre das Geschrei groß, wenn Intel Libs dann bei AMD CPUs gar zu Abstürzen führen.
Das deren Performance total mies ist, dafür kann doch wohl EINDEUTIG Intel nichts, sondern da muss AMD sich an die eigene Nase fassen und sollte eine Version bringen die auch eine ordentliche Performance bietet!
Nein, bisher gibt es noch keine APUs mit den Chiplets, denn so benennt AMD erst seit Zen2 die 7nm Chip auf denen die CPU Kerne sind. Es gibt aber noch keine APU damit, die 2000er APUs basieren auf Zen (14nm) und die 3000er auf Zen+ (12nm).sondern diese Chiplets den kleinsten gemeinsamen Nenner bilden, der sich durch alle Familien von der günstigsten APU bis zum hochpreisigsten Epyc durchzieht.
ja und? Alleine durch AVX512, der Xeon-W 2175 hat zwei AVX512 Einheit pro Kern, kann schon ein großer Performancevorsprung entstehenm siehe hier die Ergebnisse des Cannon Lake i3-8121U bei 3D Particle Movement v2.1 mit AVX512. Intels libs sind natürlich auf Intels CPUs optimiert, was niemanden wundern dürfte und umgekehrt wird auch niemand von AMD eine Optimierung auf Intel CPUs erwarten. Keiner wird die CPUs des anderen testen um solche Fehler zu finden und zu vermeiden: Was wäre das Geschrei groß, wenn Intel Libs dann bei AMD CPUs gar zu Abstürzen führen.
Die Antwort von AMD muss eine eigene, auf die eigene CPUs optimierte Lib sein, so eine Lib scheint es ja auch zu geben:
Das deren Performance total mies ist, dafür kann doch wohl EINDEUTIG Intel nichts, sondern da muss AMD sich an die eigene Nase fassen und sollte eine Version bringen die auch eine ordentliche Performance bietet!