Ryzen-4000-Serie: Acht Zen-2-Kerne und Vega-GPU für Notebooks

@DTx
Du redest ausschließlich von Mobile. Ich möchte einen Renoir haben, NICHT für meinen Laptop, sondern für einen Desktop.
Weil du die Vega Grafikeinheit ein bedeutungsloses Thema findest, trifft das noch lange nicht auf andere zu. Die IGPU wird die Graka komplett ersetzen und ist für mich ein Kaufkriterium.

Du gehst auch davon aus, dass alle Normalkunden überhaupt wissen, dass die zwei oder einen RAM Stick im Lappi verbaut haben UND dass das für die integrierte Grafikeinheit überhaupt wichtig ist. Das ist aber nicht so. Die sitzen vor ihrem „Weihnachtsgeschenk“ und sind enttäuscht, dass das Spiel auf dem neuen Laptop ruckelt, weil der Lappi ja zu wenig Leistung hat!(in Wahrheit aber nicht, und AMD wird wieder von den unwissenden normalos dafür gedisst)
Viele Spiele mit etwas besserer Grafik fallen mit Single Channel direkt unter die 30fps Marke, oft sogar unter 20fps.
Vega 8 Graphics | Single Channel vs Dual Channel RAM | Ryzen 2200g - YouTube
Wie du siehst reicht SingleChannel vllt für Office, das war’s aber auch.

Edit:

@Bitmaschine
Auch wenn die Grafikinheit im IO Die wäre, würde immernoch die Bandbreite zum RAM begrenzen. Man hätte also nicht viel gewonnen. Ich denke sobald DDR5 an den Start geht, sollten AMDs IGPUs wieder einen ordentlichen Boots machen können.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also, der 2400G für meine Mutter läuft richtig gut mit schnellem Speicher. Ich hab den auf 3400 CL14 getreten. Da dort der Flaschenhals etwas aufgebohrt wurde, ist das ne hübsche APU die man auch zum zocken von 0815-Spielchen benutzen kann, wie Battletech oder so. Wenn die Laptop-APUs jetzt mit 3200'er Speicher daherkommen, sollte sich da schon einiges an zusätzlicher Performance rauskitzeln lassen. Und dort kann der Unterschied von ein paar CUs dann doch schon sichtbarer werden.

Es bleibt natürlich noch ein Flaschenhals, keine Frage. Und OEMs mögen auch kein OC auf Speichermodulen, sonst wäre mein 2700U hier auch schon auf 3200.
 
Bei der 3000 Serie ist es ja ähnlich. Das war mir schon bewusst. Die 192 mehr an Shader bringt gerade mal 4-14% mehr an Leistung. Eine Verdoppelung der Cores/Shader wären aber schon cool.
Aber unsinnig, wenn man die Shader nicht mit Daten füttern kann, zumal bei den Notebook APUs sowohl die Kosten als auch die Leistungsaufnahme im Rahmen bleiben müssen, da wird man sicher keine Shader verbauen die am Ende keine Mehrleistung bieten können.
Ich persönlich finde AMD's Design der Chiplets zukunftsweisend.
Für die CPUs mit mehr als den 8 Kernen die auf ein Chiplet passen ist die Lösung viel besser als die vorherige, da nun wieder ein gemeinsamer DRAM Controller vorhanden ist und damit die NUMA Problematik entfällt. Aber was bringt dies für den Nutzer eines 3600 oder 3700X? Gar nichts, im Gegenteil ist die Anbindung so knapp, dass man beim Schreiben ins RAM nicht einmal die volle Durchsatzrate erzielt! Dies dürfte daran liegen, dass die Anzahl der Verbindungen einfach durch die geringe Größe der Chiplets beschränkt ist, die Abstände wurden ja schon ans Limit verringert und die Alternative eines Silizium Interposers wäre zu teuer, siehe mein letzten Post. Deshalb dürfte AMD auch den I/O Chip nicht so bald in 7nm fertigen, außer sie bauen da künftig noch etwas ein um die für die Verbindungen sowieso nötige Diefläche sinnvoll nutzen, etwa eine kleine iGPU.

Ein monolithisches Design hätten diesen Nachteil nicht, ein monolithischer 6 oder 8 Kerner hätte für den User also nur Vorteile, auch die geringere Leistungsaufnahme des Bereichs der im I/O Die steckt, aber AMD bringt es so natürlich massive Produktionsvorteile, sie brauchen nur ein Modell Chipletdies fertigen zu lassen und außerdem können sie mit dem I/O Die die noch bestehenden Abnahmeverpflichtungen gegenüber GF besser erfüllen.

Wäre doch klasse, wenn die Grafikeinheit im I/O-Chip untergebracht werden würde ... träumen darf man ja :fresse2:
Dies könnte man machen, aber dann müsste man den entweder weiter in 12/14nm bei GF fertigen lassen, was Nachteile bei der Leistungsaufnahme der iGPU hätte oder man müsste sowieso einen neuen 7nm Chip dafür entwickeln, da kann man in den auch gleich die CCX integrieren und spart die Montage des zweiten Dies auf der Trägerplatine der CPU, außerdem sind mobile CPUs meist ohne HS und so vermeidet man auch gleich noch Kühlprobleme wegen Höhenunterschieden der Dies.

Technisch sind die monolithischen Designs besser, wirtschaftlich aber eben ja nach Größe der Dies und der erreichen Stückzahlen aber meistens im Nachteil. Das die Dies wohl bei so 200 bis maximal 240mm² liegen werden, hatte ich schon vorgerechnet und damit sind sie nicht besonders groß und AMD dürfte auch entsprechende Stückzahlen absetzen können, es spricht als nichts gegen aber viel für ein monolithische Design.
@DTx
Du redest ausschließlich von Mobile. Ich möchte einen Renoir haben, NICHT für meinen Laptop, sondern für einen Desktop.
@DTx steht schon lange auf meiner Ignoreliste, daher weiß ich nicht was er nun wieder blubbert, aber die Renoir APUs dürften genau wie hier Vorgänger mit identischen Dies als Mobile- und Desktopmodelle erscheinen, die sich dann nur bzgl. der TDP und damit des Betriebspunktes unterscheiden.
Die IGPU wird die Graka komplett ersetzen und ist für mich ein Kaufkriterium.
Da ich kein Gamer bin, genügt mir eine iGPU die für den Windows Desktop und vielleicht noch das Abspielen von Videos reicht, wäre als Fallback Lösung aber sich auch für den einen oder anderen Gamer interessant und auch für die meisten Heimserver auf AM4 Basis hilfreich. Für mehr sehe ich die iGPUs auch nicht wirklich als sinnvoll an, ernsthaftes Gaming ist damit doch nicht wirklich drin und die Gamer werden daher immer auch eine ordentliche Graka verbauen, mit denen eine iGPU schon wegen der knappen Resourcen (Diefläche, Leistungsaufnahme und RAM Bandbreite) nie konkurrieren kann.
Die sitzen vor ihrem „Weihnachtsgeschenk“ und sind enttäuscht, dass das Spiel auf dem neuen Laptop ruckelt, weil der Lappi ja zu wenig Leistung hat!
Auf einem Billiggeräte oder einem extrem kompakten Geräte wo eben nur die iGPU da ist zu Gamen und sich dann über die miese Performance aufzuregen, ist ein klarer Fall von Fehlkauf! Es gibt ja extra Gaming Notebooks, die kosten mehr und sind größer und schwerer, haben dafür aber eine eigene Graka verbaut um eben eine bessere Gamingperformance zu ermöglichen als eine iGPU dies könnte. Ausgenommen vielleicht der Exot Kaby Lake-G, aber die sind sauteuer und daher auch kaum irgendwo zu finden, denn im Grunde sind die Kaby Lake-G eben auch nur eine CPU mit einer eigene Graka mit HBM auf einer einzelnen Platine integriert, aber das HBM und der dafür nötige Siliziuminterposer machen die Sache halt teuer.

Auch wenn die Grafikinheit im IO Die wäre, würde immernoch die Bandbreite zum RAM begrenzen.
Das sowieso, daher ist die Frage ob Chiplet Design oder Monolithisch eher die Frage ob man die CCX gleich mit in den sowieso neu zu designenden Chip integriert hat oder nicht.
 
Aber unsinnig, wenn man die Shader nicht mit Daten füttern kann, zumal bei den Notebook APUs sowohl die Kosten als auch die Leistungsaufnahme im Rahmen bleiben müssen, da wird man sicher keine Shader verbauen die am Ende keine Mehrleistung bieten können.
Für die CPUs mit mehr als den 8 Kernen die auf ein Chiplet passen ist die Lösung viel besser als die vorherige, da nun wieder ein gemeinsamer DRAM Controller vorhanden ist und damit die NUMA Problematik entfällt. Aber was bringt dies für den Nutzer eines 3600 oder 3700X? Gar nichts, im Gegenteil ist die Anbindung so knapp, dass man beim Schreiben ins RAM nicht einmal die volle Durchsatzrate erzielt! Dies dürfte daran liegen, dass die Anzahl der Verbindungen einfach durch die geringe Größe der Chiplets beschränkt ist, die Abstände wurden ja schon ans Limit verringert und die Alternative eines Silizium Interposers wäre zu teuer, siehe mein letzten Post. Deshalb dürfte AMD auch den I/O Chip nicht so bald in 7nm fertigen, außer sie bauen da künftig noch etwas ein um die für die Verbindungen sowieso nötige Diefläche sinnvoll nutzen, etwa eine kleine iGPU.

Ein monolithisches Design hätten diesen Nachteil nicht, ein monolithischer 6 oder 8 Kerner hätte für den User also nur Vorteile, auch die geringere Leistungsaufnahme des Bereichs der im I/O Die steckt, aber AMD bringt es so natürlich massive Produktionsvorteile, sie brauchen nur ein Modell Chipletdies fertigen zu lassen und außerdem können sie mit dem I/O Die die noch bestehenden Abnahmeverpflichtungen gegenüber GF besser erfüllen.

Dies könnte man machen, aber dann müsste man den entweder weiter in 12/14nm bei GF fertigen lassen, was Nachteile bei der Leistungsaufnahme der iGPU hätte oder man müsste sowieso einen neuen 7nm Chip dafür entwickeln, da kann man in den auch gleich die CCX integrieren und spart die Montage des zweiten Dies auf der Trägerplatine der CPU, außerdem sind mobile CPUs meist ohne HS und so vermeidet man auch gleich noch Kühlprobleme wegen Höhenunterschieden der Dies.

Technisch sind die monolithischen Designs besser, wirtschaftlich aber eben ja nach Größe der Dies und der erreichen Stückzahlen aber meistens im Nachteil. Das die Dies wohl bei so 200 bis maximal 240mm² liegen werden, hatte ich schon vorgerechnet und damit sind sie nicht besonders groß und AMD dürfte auch entsprechende Stückzahlen absetzen können, es spricht als nichts gegen aber viel für ein monolithische Design.
@DTx steht schon lange auf meiner Ignoreliste, daher weiß ich nicht was er nun wieder blubbert, aber die Renoir APUs dürften genau wie hier Vorgänger mit identischen Dies als Mobile- und Desktopmodelle erscheinen, die sich dann nur bzgl. der TDP und damit des Betriebspunktes unterscheiden.
Da ich kein Gamer bin, genügt mir eine iGPU die für den Windows Desktop und vielleicht noch das Abspielen von Videos reicht, wäre als Fallback Lösung aber sich auch für den einen oder anderen Gamer interessant und auch für die meisten Heimserver auf AM4 Basis hilfreich. Für mehr sehe ich die iGPUs auch nicht wirklich als sinnvoll an, ernsthaftes Gaming ist damit doch nicht wirklich drin und die Gamer werden daher immer auch eine ordentliche Graka verbauen, mit denen eine iGPU schon wegen der knappen Resourcen (Diefläche, Leistungsaufnahme und RAM Bandbreite) nie konkurrieren kann.
Auf einem Billiggeräte oder einem extrem kompakten Geräte wo eben nur die iGPU da ist zu Gamen und sich dann über die miese Performance aufzuregen, ist ein klarer Fall von Fehlkauf! Es gibt ja extra Gaming Notebooks, die kosten mehr und sind größer und schwerer, haben dafür aber eine eigene Graka verbaut um eben eine bessere Gamingperformance zu ermöglichen als eine iGPU dies könnte. Ausgenommen vielleicht der Exot Kaby Lake-G, aber die sind sauteuer und daher auch kaum irgendwo zu finden, denn im Grunde sind die Kaby Lake-G eben auch nur eine CPU mit einer eigene Graka mit HBM auf einer einzelnen Platine integriert, aber das HBM und der dafür nötige Siliziuminterposer machen die Sache halt teuer.

Das sowieso, daher ist die Frage ob Chiplet Design oder Monolithisch eher die Frage ob man die CCX gleich mit in den sowieso neu zu designenden Chip integriert hat oder nicht.

Mal sehen. In Moment geht es rasend schnell bei der Entwicklung in der Chipentwicklung. Gerade in der Strukturverkleinerung. Außerdem wird auch an den Schnittstellen geschraubt, um die Flaschenhälse außerhalb des Prozessors effizienter und schneller zu machen. Von daher kann ich deinen und den aktuellen Standpunkt durchaus nachvollziehen. Geht oder kann nicht, bedeutet für mich nur Stillstand auf hohen Niveau. Ich schaue lieber in die Zukunft :)
 
Muss man deswegen gleich den ganzen Beitrag über dem eigenen zitieren? Das die Entwicklung der Fertigungsprozesse gerade so schnell zu gehen scheint, liegt daran das GF und TSMC gewaltige Probleme mit ihren 20nm Prozessen hatten, eben wie Intel bei 10nm, so dass AMD lange auf die 28nm festgenagelt war. Die erste 28nm GPU (7970) erschien Anfang 2012 und die erste 28nm CPU von AMD (Jaguar) rund 1 Jahr später, AMD hing also bei den CPUs 4 Jahre beim 28nm Prozess fest. Das die CPUs und auch GPUs immer schneller und effizienter werden und daher auch immer schnellere Schnittstellen wie z.B. RAM oder PCIe bekommen, ist auch ein kontinuierlicher Prozess und künftige CPUs werden noch mehr Kerne haben, ebenso wie künftige GPUs dann auch mehr Shader besitzen werden. In diesem Thread geht es aber um die RYZEN 4000 APUs und die müssen eben noch mit DDR4 oder LPDDR4X auskommen und bekommen bestenfalls PCIe 4.0, da die kommenden Standards noch nicht so weit sind.

Gerade bei den U Serie APUs ist sowieso die Frage ob PCIe 4.0 überhaupt kommt, denn die Leistungsaufnahme ist eben umso höher je schneller die Schnittstellen sind und man wird sehen müssen wie der Unterschied bei 7nm Fertigung ausfallen wird, aber bei nur 15W TDP kommt es auf jede Watt an. PCIe 4.0 bringt gerade in solchen Notebook wo die verbaut werden, keinen praktischen Vorteil. Grakas profitieren noch nicht von der zusätzlichen Bandbreite, wenn dann allenfalls bei GPU Computing, aber nicht beim Gaming und die PCIe 4.0 SSDs bringen Heimanwendern nur in Benchmarks Vorteile, im Alltag haben die nämlich gar nicht so viele und so lange Zugriffe um die maximalen Transferraten oder gar IOPS ausreizen zu können.

Es erfolgt nämlich nicht jede Übertragung mit der maximalen Transferraten, auch wenn mancher dies wohl immer noch glaubt, aber ein Blick auf die 4k Q1T1 Werte sollte reichen um das Gegenteil zu erkennen. Da hängen die auch bei so 50 bis 60MB/s Lesend fest, was 12.500 bis 15.000 IOPS entspricht und damit kann man sich vorstellen wie viele parallele Zugriffe nötig wären um die teils über 600.000 IOPS lesend überhaupt erreichen zu können. So viele parallele Zugriffe haben allenfalls Server, aber bei Heimanwendern sind im Alltag schon 4 parallele Zugriffe viel.
 
Schöne news, das heißt evtl auch dass die embedded Zen2 chips angekündigt werden.
Hoffe nur dass diese schnell umgesetzt werden.

Warte schon ewig auf effiziente Zen chips mit Leistung und wenig Verbrauch für einen kleinen HeimServer.
 
Bisher decken die EPYC 3000 den Embedded Markt ab, es gibt auch von Supermicro ein paar Board mit denen und auf Servethehome ein paar Reviews dazu. Inzwischen sie sogar bei Geizhals welche als lagernd gelistet. Aber die basieren noch nicht auf Zen2 und bisher ist mir auch noch nichts über Nachfolger auf Zen2 Basis bekannt.

Auch wenn deren Verfügbarkeit schlecht ist, so ist die Auswahl bei den Boards mit Intel Xeon-D CPUs weit größer und damit die Chance eines zu finden welches gut zu den eigenen Anforderungen passt, weitaus besser.
 
Danke für die zahlreichen Links.
Gibt sogar welche mit 10GBe. Bei den Xenon Boards schaut es derzeitig leider etwas schlecht mit geringer Leistungsaufnahme und 4+ Kernen aus.
Bis 25W wäre hier perfekt, 15W und 4+ Kerne mit vernünftigem Boost wäre natürlich besser, deswegen setzte ich meine Hoffnung in Zen2.

Habe aber die Sorge dass es bestimmt noch ein gutes Jahr dauert.
 
Beim ASUS Zephyrus G15 hätte ich mir 32GB DDR 3600 Speicher, ohne die Geforces gewünscht!

Man kann nicht alles haben.:giggle:
 
Ist halt ein Gaming-Notebook. Selbst wenn die neuen Ryzen APUs eine schnellere iGPU haben sollten als die alten kommen diese nicht ansatzweise in die Regionen einer 1660 oder 2060.
 
Da ende letzten Jahren der AMD A10 Laptop meiner Frau aufgegeben hat, warte Ich schon sehnsüchtig auf Ryzen 4000U, dass der 4700U über 8 reale Kerne verfügt ist auch sehr erfreulich, da braucht man kein SMT mehr. Bin gespannt, wie viel mehr Leistung da raus kommt. Wenn der Schritt so groß ist wie beim Desktop, dann werden das richtige gute Geräte zu hoffentlich kleinen Preisen.
 
Wobei ich zugeben muss dass vega durchaus laufen kann, wenn man weiß wie man die zügel anlegen muss.

Mit niedroger voltage und den verbesserten fertigungsverfahren (wir haben hier 2 jahre optimierungen) kann das ding sicher gut was leisten.
Nein.

Naja langsam sollte man auch mal auf Navi setzten.
Sehe ich auch so. Werde zu gegebener Zeit denke ich bei Dell sondieren auch wenn AMD es immer noch sehr schwer hat gegen Intel mit dedizierter Grafik, wahrscheinlich auch nicht genug Stückzahlen verfügbar.
Du kannst allerdings meinen alten Augen helfen Holzmann, ist das ein Aufkleber bei dem Asus Zephyrus oder sind da ernsthaft Löcher auf der Gehäuserückseite des Displays :o ?
 
Ist halt ein Gaming-Notebook. Selbst wenn die neuen Ryzen APUs eine schnellere iGPU haben sollten als die alten kommen diese nicht ansatzweise in die Regionen einer 1660 oder 2060.

aber man könnte ne M5500XT / M5600XT reinstecken... so als denkanstoss... gibt ja nicht nur die vega in der APU ;)
 
aber man könnte ne M5500XT / M5600XT reinstecken... so als denkanstoss... gibt ja nicht nur die vega in der APU ;)

Vega 20 wäre gut ;) - leider nur in einem Mac vorzufinden wo doch eher ein Thinkpad mit solch einem GPU/APU schon sehr Leistungsstark wäre.
 
Vega20 in einer apu o_O
 
@DTx
Du redest ausschließlich von Mobile. Ich möchte einen Renoir haben, NICHT für meinen Laptop, sondern für einen Desktop.
Weil du die Vega Grafikeinheit ein bedeutungsloses Thema findest, trifft das noch lange nicht auf andere zu. Die IGPU wird die Graka komplett ersetzen und ist für mich ein Kaufkriterium.

Du gehst auch davon aus, dass alle Normalkunden überhaupt wissen, dass die zwei oder einen RAM Stick im Lappi verbaut haben UND dass das für die integrierte Grafikeinheit überhaupt wichtig ist. Das ist aber nicht so. Die sitzen vor ihrem „Weihnachtsgeschenk“ und sind enttäuscht, dass das Spiel auf dem neuen Laptop ruckelt, weil der Lappi ja zu wenig Leistung hat!(in Wahrheit aber nicht, und AMD wird wieder von den unwissenden normalos dafür gedisst)
Viele Spiele mit etwas besserer Grafik fallen mit Single Channel direkt unter die 30fps Marke, oft sogar unter 20fps.
Vega 8 Graphics | Single Channel vs Dual Channel RAM | Ryzen 2200g - YouTube
Wie du siehst reicht SingleChannel vllt für Office, das war’s aber auch.
Du darfst einfach nicht den Zusammenhang entfernen und dann sagen, ich hätte geschrieben, dass Vega bedeutungslos ist.
Eine 512 Shader Vega ist bedeutungslos und gleichzeitig frage ich, welche Leistung denn eine 512 Shader Navi im Vergleich bringen würde. Zudem habe ich auf die völlig nichtssagenden Aussagen, Vega zieht ja so viel Strom geantwortet. Weil Vergleiche zu den dezidierten Vega Grafikkarten gemacht werden. Diese Punkte sind die Kernaussage für meine Meinung über die Bedeutungslosigkeit und somit auch diese Diskussion darüber, Vega, oder Navi. Letztlich beides Lösungen, die nur mit niedrigsten Ansprüchen zum Zocken reichen.
Wo habe ich geschrieben, dass jeder Normaluser um die Bestückung des Arbeitsspeicher weiß. Das Gegenteil habe ich geschrieben. Zudem auf die Tatsache hingewiesen, dass in diesen niedrigen Leistungsklassen es egal ist. Wer sich sowas kauf und dann abstruse Vorstellungen hat, ist für mich kein Normaluser, sondern ein Träumer. Ich habe auch gezeigt, dass es Konfigurationen gibt, die Dual Channel bieten.
Insofern verstehe ich deinen Kommentar nicht, der ja eine Reaktion auf meinen Kommentar sein soll.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh