Multi-Chip-Ansatz: TSMC stapelt mehrere Wafer übereinander

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.820
tsmc.jpg
Zukünftige CPUs und GPUs werden wohl den Weg eines Multi-Chip-Ansatzes gehen. Ganz ähnlich wie AMD dies bei den Ryzen-Prozessoren bereits heute tut, werden solche Designs auf vielen kleineren Modulen aufgebaut sein, die entsprechend des Einsatzzweckes des jeweiligen Produktes skaliert werden können. Dementsprechend arbeiten auch viele CPU- und GPU-Hersteller an einer technischen Umsetzung dieses Ansatzes.AMD verwendet für seine GPUs mit HBM einen Interposer, der jedoch recht kompliziert zu fertigen und dementsprechend recht teuer ist. Intel setzt auf eine Technologie namens
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das wird wohl noch spannend, gerade auch bei GPUs. Die Fertigung von Einzelmodulen dürfte günstiger sein als Riesenchips. Stattdessen könnte man wie bei Ryzen nur noch Einzelmodule herstellen die dann skalierbar sind und sich auf die Verbesserung der Zwischemodullatenz fokussieren.
 
So einfach wie du dir das Vorstellst, ist die Sache aber nicht.
Lies dir das mal durch.
Next-Gen GPU: Warum ein Multi-Chip-Ansatz für Navi alles andere als trivial ist - Hardwareluxx

AMDs infinity Fabric schafft grade mal 160Gb/sekunde. Für CPUs reicht das aus, GPUs haben mittlerweile eine Speicherbandbreite von 500 bis 1000Gb/sekunde...... solch ein Interconnect gibt es leider noch nicht....

Dabei geht es aber imo immer um Interconnects über ein PCB. Bei HBM oder Intels EMIB werden die einzelnen Chips nicht über ein PCB verbunden sondern über Silizium. Dazu müssen die Chips halt sehr nahe beinander liegen, dafür ist die Latenz und der Durchsatz deutlich besser. HBM erreicht hier was? 250GB/s oder sowas pro Chip.
 
und was ist mit der wärme, ein heizender chip auf einem heizenden chip?
 
Dabei geht es aber imo immer um Interconnects über ein PCB. Bei HBM oder Intels EMIB werden die einzelnen Chips nicht über ein PCB verbunden sondern über Silizium. Dazu müssen die Chips halt sehr nahe beinander liegen, dafür ist die Latenz und der Durchsatz deutlich besser. HBM erreicht hier was? 250GB/s oder sowas pro Chip.
Das wäre auch die einzige Möglichkeit, ein Interposer oder EMIB. So wie es bei der R9 295X2 ist (oder Ryzen CPUs), kann ich mir niemals eine effektive GPU MultiChip Lösung vorstellen. Durch den großen Abstand geht viel zu viel Bandbreite verloren.
Und EmPas argument ist in diesen Zusammenhang auch nicht unwichtig. Wenn es über EMIB oder Interposer läuft, hast du auch viel Wärmeentwicklung auf kleiner Fläche.
 
Und EmPas argument ist in diesen Zusammenhang auch nicht unwichtig. Wenn es über EMIB oder Interposer läuft, hast du auch viel Wärmeentwicklung auf kleiner Fläche.

Die Wärmeentwicklung wäre aber immernoch die gleiche W/mm2 wie bei einem monolytiachem Monsterchip.

Bei dem Verfahren hier hast du die doppelt Leistungsabgabe pro mm2 und das bei einem dickeren Substrat und demnach wohl schlechterer Wärmeabgabe. Ja gut, man kann niedriger Takten, macht aber einiges der zusätzlichen Leistungen wieder kaputt. Also fraglich, ob sich hier der Mehraufwand lohnt.

Ich sehe das eher als Problem, als die Bandbreite zwischen zwei Chips auf einem Interposer.
 
Ist es denn nicht grade der Sinn, mehr Chipfläche durch das MultiChipDesign zu bekommen? Stell dir mal einen Threadripper im monilytischen Design vor. Der Chip wäre riesig. Und durch mehr Chipfläche steigt auch die wärme.
Alleine zwei Gp104 Chips aus der Gtx1070 nebeneinander wären mit den normalen Grakakühlern nicht zu betreiben.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh