Werbung
Sk hynix hat angekündigt, dass man HBM3-Speicher ab sofort mit zwölf Speicherebenen fertigt und so auf eine Kapazität von 24 GB pro HBM3-Chip kommt. Die Massenproduktion soll in der ersten Jahreshälfte 2023 starten, die ersten Kunden werden bereits mit Samples bestückt.
Bisher liefert Sk hynix HBM3 mit acht Speicherebenen (zusätzlich zu einem I/O-Layer) und kommt damit auf eine Kapazität von 16 GB. In dieser Form kommt er auf dem H100-Beschleuniger von NVIDIA zum Einsatz. Mit einer um 50 % höheren Kapazität könnte NVIDIA den H100-Beschleuniger mit 120, bzw. 144 GB ausstatten. Aktuell sind es 80, bzw. 94 GB.
Welche Produkte auf den HBM3 mit 24 GB pro HBM3-Chip setzen werden, ist nicht bekannt. Dazu äußern sich die Speicherhersteller üblicherweise nicht. Die LLMs (Large Language Models), die aktuell in aller Munde sind, verlangen nach immer größeren Speicherkapazitäten, damit möglichst viele Parameter des Modells direkt in den Speicher passen und damit möglichst schnell an die GPU geliefert werden können.