Werbung
Aktuell werden die ersten AI-Beschleuniger mit HBM3 bestückt. Dazu gehören NVIDIAs H100, aber auch der Radeon Instinct MI300A und MI300X von AMD. Lieferanten des schnellen Speichers sind Samsung und Sk hynix – beides in Südkorea ansässige Unternehmen. Laut BusinessKorea hat Sk hynix auf einem Investoren-Event seine Bestrebungen bestätigt, diesen Speicherbereich in diesem und dem kommenden Jahr weiter auszubauen.
Zwar macht der HBM nur 1 % des Produktionsvolumens aus, man macht damit aber inzwischen 10 % des Umsatzes. Der AI-Boom sorgt aktuell für die entsprechende Nachfrage. Aktuell liefert man den teuren HBM3 mit einer Kapazität von 16 GB und Transferraten von 5,6 oder 6,0 GBit/s aus. Für HBM3 sind aber bereits Verbesserungen in Form von 819 GB/s pro Chip und einer Kapazität von bis zu 64 GB geplant. Ob dieser dann als HBM3E auf den Markt kommen wird oder nicht, ist aktuell noch nicht bekannt. Geplant ist die Massenprodukt eines HBM3E laut Sk hynix für die erste Jahreshälfte 2024.
Bereits 2026 soll dann die nächste Generation erscheinen: Schlicht als HBM4 bezeichnet. Für HBM4 kommt dann auch eine Technik namens "hybrid bonding" zum Einsatz. Dies beschreibt die Art und Weise wie die mehrfachen Speicherstapel miteinander verbunden werden. Sk hynix will die Technik optimiert haben, was zu höheren Transferraten und auch mehr Lagen führt. Man kann also davon ausgehen, dass für HBM4 die Mindestkapazität bei 32 GB liegt. Der Vizepräsident von Sk hynix Park Myoung-soo wird mit einer Erweiterung von 12 auf 16 Lagen zitiert.
HBM wird weiterhin eine Speicherlösung für das Datacenter sein. Die Kosten für den Speicher liegen um den Faktor fünf bis sechs höher als anderen DRAM-Produkte. Hinzu kommt ein teures Packaging, denn der HBM wird pro Chip über 1.024 Datenleitungen an die GPU bzw. den Beschleuniger angebunden.