NEWS

HBM3-Update

819 GB/s und bis zu 64 GB pro Chip

Portrait des Authors


819 GB/s und bis zu 64 GB pro Chip
1

Werbung

Die JEDEC Solid State Technology Association hat ein Update der Spezifikationen von HBM3 veröffentlicht. Darin werden die technischen Spezifikationen noch einmal zurechtgerückt. Einige der technischen Daten waren bereits bekannt, vor allem weil Hersteller wie SK hynix bereits im Vorfeld ihre konkreten Umsetzungen vorstellen. In der Entwicklung zu HBM3 kam es offenbar zu einigen Problemen, denn er kommt später als erwartet und war vor allem in den ersten Versuchen auch deutlich langsamer, als dies projiziert wurde.

Das was die JEDEC als initiale Spezifikationen nun vorsieht, ist vor allem eine Erhöhung der Kapazität und Bandbreite. Letzteres wird unter anderem dadurch erreicht, dass nun 6,4 GBit/s an Daten pro Pin übertragen werden können – eine Verdopplung gegenüber HBM2. Auch die Anzahl der Kanäle wird von acht auf 16 verdoppelt. Hier ist die Rede von zwei Pseudo-Kanälen pro Speicherkanal, ähnlich wie bei DDR5 mit zwei Pseudo-Kanälen pro DDR5-Modul. Insgesamt werden durch diese Maßnahmen 819 GB/s pro Speicherchip erreicht. Somit werden bereits bei zwei HBM3-Chips 1,6 TB/s an Speicherbandbreite erreicht, bei vieren sind es sogar schon 3,3 GB/s. Aktuell wird mit HBM2e und bei fünf Speicherchips wie auf der A100-GPU von NVIDIA eine Speicherbandbreite von 1,94 TB/s erreicht.

Um die Kapazität zu erhöhen können 4, 8, 12 oder gar 16 Speicherlayer übereinander gestapelt und per Through-Silicon Via (TSV) miteinander verbunden werden. Diese einzelnen Layer haben eine Kapazität von 8 bis 32 GBit (1 bis 4 GB). Dementsprechend können die einzelnen HBM3-Chips eine Kapazität von 4 GB (4-Hi, 4x 1 GB) bis 64 (16-Hi, 16x 4 GB) erreichen. Die erste Generation an HBM3 wird vermutlich mehrheitlich auf Speicherlayer mit 16 GBit setzen und auch "nur" acht Layer (8-Hi) aufweisen. Die 16 Layer (16-Hi) sind zudem erst für eine spätere Erweiterung gedacht.

Um die Energieeffizienz des HBM3 zu erhöhen, wird dessen Betriebsspannung von 1,2 auf 1,1 V gesenkt. In dieser Klasse von Speicher ist ein On-Die ECC aufgrund der Fertigung und Taktung nun notwendig – genau wie bei GDDR6(X) und DDR5.

Alle Hersteller die bereits HBM2 im Programm haben, arbeiten bereits an HBM3 bzw. haben bereits konkrete Ankündigungen gemacht. Auf Seiten der Endsysteme stehen diese noch aus. NVIDIA ist ein heißer Kandidat mit der nächsten Generation der GPU-Beschleuniger im Serverbereich bereits auf HBM3 zu setzen.

Quellen und weitere Links KOMMENTARE (1)