HWL News Bot
News
Thread Starter
- Mitglied seit
- 06.03.2017
- Beiträge
- 113.886
... weiterlesen
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Ich würde mal auf Mem Controller und L3 Cache tippen. Vielleicht noch andere Sachen, aber die beiden dürften wohl mit drin sein.Wenn man sieht wie groß das SOC auf dem Bild ist, frage ich mich umso mehr, was dies denn nun genau sein soll.
Für die Verbindung wird ja EMIB verwendet, die Verbindungen sind also von unten über einen Die der teilweise unter den beiden Dies liegt, die jeweils darüber verbunden werden. L3 Cache natürlich sein, dann hätte Intel eine einfache Möglichkeit mehr oder weniger Cache für die unterschiedlichen Modelle zu verbauen, ohne totes Silizium bei den Modellen mit weniger Cache zu haben. Wie man anhand des 5800X3D sieht, bringt viel L3 Cache bei Games ja eine Menge und schon bei Broadwell haben wir ja gesehen, wie sehr auch eine iGPU von mehr Cache profitiert.Schnittstelle für CPU-GPU Tile
wenn man nicht dafür einen anderen PHY braucht.Dann könnte man LAN/SOUND/USB Hardware genau so einfach wie Treiber updaten...
Das denke ich auch. Je länger ich die Soc-Einheit anschaue, umso wahrscheinlicher ist es, bzw. glaube ich, dass die iGPU und CPU in die Einheitsanzahl und Länge variieren kann und bei der SoC die Cachegröße und Funktion so festgelegt wurde (oben/unten). Es sieht schon sehr verdächtig nach Cache-Einheiten aus, die eine schnellere Anbindung und größere Pre-Fetches ermöglichen. Vielleicht ist der Daten-Bus entsprechend breiter für Grafik/CPU-Tile ausgelegt/angebunden? Könnte ich mir gut vorstellen, um den Geschwindigkeitsverlust durch EMIB auszugleichen.L3 Cache natürlich sein, dann hätte Intel eine einfache Möglichkeit mehr oder weniger Cache für die unterschiedlichen Modelle zu verbauen, ohne totes Silizium bei den Modellen mit weniger Cache zu haben. Wie man anhand des 5800X3D sieht, bringt viel L3 Cache bei Games ja eine Menge und schon bei Broadwell haben wir ja gesehen, wie sehr auch eine iGPU von mehr Cache profitiert.
Ich benutze jetzt sicherlich Worte die den technischen Gegebenheiten nicht gerecht werden.Ist es eigentlich relativ leicht bei einer CPU den L3 Cache zu erhöhen?
Man muss erstmal die dazugehörige Technologie entwickeln, nicht ohne Grund hat AMD ein Patent auf dem aufgeklebten (Super) L3 Cache!☠️Ist es eigentlich relativ leicht bei einer CPU den L3 Cache zu erhöhen? Weil wenn das bei AMD so gut geklappt hat, was sollte denn Intel davon abhalten es nachzumachen?
Man braucht im Prinzip nur mehr Diefläche, oder stapelt die Dies halt. Beides kostet Geld und erzeugt auch eine zusätzliche Leistungsaufnahme.Ist es eigentlich relativ leicht bei einer CPU den L3 Cache zu erhöhen?
Ob das so gut geklappt hat, wenn dies die einzige RYZEN CPU ist die man nicht übertakten kann? Die Gamingperformance ist trotzdem gut, aber es zeigt das die Implementierung irgendwo noch mit Limitierungen zu kämpfen hat.Weil wenn das bei AMD so gut geklappt hat, was sollte denn Intel davon abhalten es nachzumachen?
Nicht so richtig. Core2Quad und die ersten IGPUs von Intel waren auch Chipletdesigns.Zudem ist die Chiplet-Technologie für INTEL Neuland,
Ich könnte mir auch vorstellen, dass AMD auf diese Lösung für mehr L3 Cache ein Patent hat, was wiederum zusätzliche Kosten für Intel bedeuten würde. Oder Intel müsste den Chip in Teilen neu designen, was evtl. eine deutliche Verzögerung für den Release bedeutet hätte. Auf jeden Fall ist Intel wieder auf den Geschmack für Chiplets gekommen. Was, wie ich finde, ein hohes Potenzial hat, weil es Möglichkeiten für spezielle Anwendungen und Erweiterungen (Module) bietet.Weil wenn das bei AMD so gut geklappt hat, was sollte denn Intel davon abhalten es nachzumachen?
Nur das AMD und Intel ein Patentaustauschabkommen haben und außerdem ist das Stacking von Dies bei NAND Flash schon lange Standard und ob es patentwürdig wäre dies für SRAM auf SRAM anzuwenden?Ich könnte mir auch vorstellen, dass AMD auf diese Lösung für mehr L3 Cache ein Patent hat, was wiederum zusätzliche Kosten für Intel bedeuten würde.
Da werden nach und nach alle drauf kommen müssen, dann die Kosten für die Designs explodieren je kleiner die Strukturen werden. Deshalb hat AMD dies ja auch schon mit Zen so gemacht, denn damals waren sie knapp bei Kasse und musste eine günstige Lösung finden um sowohl Desktop als auch Server CPUs bauen zu können, gerade bei letzteren waren sie ja vorher schon gar nicht mehr richtig am Markt vertreten und da dauert es auch länger Marktanteile zu gewinnen, so dass sich ein eigenes Design für einen großes Die für Zen dort nie gerechnet hätte.Auf jeden Fall ist Intel wieder auf den Geschmack für Chiplets gekommen.
Das war kein Chiplet-Design, sondern einfach zwei Core2Duo-Dies auf einer Platine.Nicht so richtig. Core2Quad und die ersten IGPUs von Intel waren auch Chipletdesigns.
Natürlich gabs da jetzt ein paar Jahre nix und mit dem Siliziuminterposer ist es auch was anderes (auch als die AMD Lösung)
Klar.Wird es ab Meteor Lake einen neuen Sockel geben?
Da hat jede CPU dann einen extra Buchstaben am Ende, oder?Für einen Laien sicher nicht einfach.
Könnte ich mir gut vorstellen. Und mit kryptischen Zahlen davor (z.B. 13488UXe12). Ich sehe schon die endlose Tabelle, obwohl ich schon denke, dass es nicht sooo viele Varianten geben wird. Man wird sehenDa hat jede CPU dann einen extra Buchstaben am Ende, oder?
Gibt dann den K, den F, einen J, einen Z usw usw.
Intel hat noch nie etwas genau gleich wie AMD gemacht? Nein?Das ist technisch schon noch was anderes als Chiplets wie bei AMD
Also im Update teilt Intel höchst selbst den "SRAM" (L3) und "MEMORY Control." dem SOC zu. Dazu dann noch die Media Engine/Imaging, die Display Ausgänge, die Busse zum Verbinden des Ganzen und Low Power IP und IO (vermutlich I2C und SPI und die USB PHYs). Der größte Teil wird da aber wohl der L3 sein. Vielleicht bietet Intel da ja auch eine Abstufung an (CPUs mit mehr L3 oder weniger, je nach Kundenwunsch). Jedenfalls hat Intel hier durch die feinere Aufteilung in mehr Tiles/Chiplets vermutlich sogar einen Vorteil, weil man damit die einzelnen Tiles stärker differenzieren kann. Evtl. kostet das Effizienz (mehr IO zwischen den Tiles), aber interessanter Ansatz.So groß sind die RAM Controller nicht und es gibt ja noch das I/O Tile, da würde ich den eher vermuten, zusammen mit dem PCIe Host Controller.
Lizenzkosten für das Patent?Ist es eigentlich relativ leicht bei einer CPU den L3 Cache zu erhöhen? Weil wenn das bei AMD so gut geklappt hat, was sollte denn Intel davon abhalten es nachzumachen?
Also ich würde mal vermuten, dass Intel (außer bei den kleinen U Modellen) auch weiterhin externe Chipsätze verwenden wird, zumindest habe ich noch nichts Gegenteiliges gehört. Aber vielleicht ist das Bild ja von so einer mobilen U CPU mit integriertem Chipsatz. Allerdings wundert mich wieso ein Chipsatz in N6 Fertigung dann so groß (der scheint ja größer als das 6+8 CPU Tile zu sein) ist und das man einen Chipsatz überhaupt in so einem modernen und damit teuren Prozess fertigen lässt. Dann gibt es ja noch das I/O Tile, da dürften der RAM und PCIe Host Controller drin stecken, dies würde von der Größe her auch passen.gerade in Bezug auf das SoC-Tile. Dass das I/O-Extender-Tile extra konzipiert ist, das überrascht mich schon, macht aber schon Sinn.
AMD und Intel haben ein Lizenzaustauschabkommen und außerdem kann man sich wohl kaum die Größe des Caches patentieren lassen, sondern allenfalls die Technologie wie AMD diesen auf das Die gebracht hat, nur gehört diese Technologie nicht AMD sondern wohl TSMC und wird außerdem bei anderen Dies wie z.B. NAND Dies schon viel länger eingesetzt.Lizenzkosten für das Patent?
Das vermute ich auch, dass das gezeigte für den mobilen Bereich gedacht ist, weil Intel da doch recht stark präsent ist. Anscheinend erfährt der Desktopbereich wieder einen gewissen Einbruch (liegt es an die Grafikkartenpreise? ) . Ein anderer Hinweis ist der Ausbau für die Tiles in die Länge, was vielleicht bessere Kühllösungen ermöglicht (bessere Wärmeverteilung, flachere Laptops).Die wahrscheinlichste Erklärung dürfte also sein, dass dies wirklich für eine U Serie CPU (bzw. genaugenommen SoC) ist und die Desktopmodelle dann keinen SoC bekommen, dafür aber eben ggf. eine weit größere CPU Tile bei den Modellen mit mehr Kernen.
Es muss wohl eine spezielle Aufgabe erfüllen, gerade bzgl. Media und Grafik. Bei AMD ist dieser I/O Bereich auch deutlich größer, im Verhältnis zu den CPU - Chiplets. Das wird sicher seine Gründe haben, was sich mir auch noch nicht richtig klar ist. Ich denke, die Caches nehmen den meisten Platz ein und es gibt laut dem Update, Variationsmöglichkeiten in der Größe. Vielleicht sind es weniger Lagen in der Y-Richtung, vielleicht kann ein thermisches Problem umgangen werden. Aber das ist jetzt sehr spekulativ.Allerdings wundert mich wieso ein Chipsatz in N6 Fertigung dann so groß (der scheint ja größer als das 6+8 CPU Tile zu sein) ist und das man einen Chipsatz überhaupt in so einem modernen und damit teuren Prozess fertigen lässt.
Wohl vor allem, weil mit Intel 4 ein neuer Fertigungsprozess verwendet wird und Intel bringt dann normalerweise zuerst die mobilen CPUs, vor allem denen mit geringer TDP. Einmal weil da die bessere Effizienz die die neue Fertigung meist mit sich bringt, besonders wertvoll ist und zum anderen, weil die maximalen Taktraten am Anfang meist nicht so hoch sind wie nachdem mehr Erfahrungen mit dem Prozess gesammelt werden konnten, was bei diesen CPUs weniger ins Gewicht fällt als bei den Desktopmodellen.weil Intel da doch recht stark präsent ist.