NEWS

HBM4E, GDDR7, MRDIMM

Micron zeigt Speicher-Roadmap bis 2028

Portrait des Authors


Micron zeigt Speicher-Roadmap bis 2028
2

Werbung

Die Kollegen von TomsHardware haben eine aktualisierte Roadmap von Micron veröffentlicht, die bis ins Jahr 2028 reicht und die verschiedenen Speicher-Kategorien wie HBM, GDDR und DIMMs für die verschiedenen Einsatzbereiche enthält.

Ab Ende 2024 geplant ist demnach GDDR7-Speicher für die dann neuen Karten von AMD und NVIDIA. Einen ähnlichen Zeitraum sahen auch schon andere Speicherhersteller neben Micron für die Einführung von GDDR7 vor. Über die darauffolgenden Jahre wird sich die Kapazität und Geschwindigkeit dann weiter gesteigert.

In ein ähnliches Segment passt der High End Segment, den auch Micron ab dem kommenden Jahr mit HBM3E bedienen wird. Mit vorerst 12 Lagen werden dabei Speicherkapazitäten von 36 GB pro Chip erreicht. In den Jahren 2026 und 2027 kommt dann HBM4 mit 16 Lagen hinzu, der die Kapazität auf 48 GB erhöht – eine Weiterentwicklung wird es aber auch in der Geschwindigkeit geben. Für Ende 2027 vorgesehen ist die Einführung von HBM4E mit bis zu 64 GB pro Chip und abermals gesteigerter Bandbreite.

Etwas zurückhaltender zeigt man sich hinsichtlich der Weiterentwicklung von NAND-Flash für Arbeitsspeicher. Ende diesen Jahres bzw. im Verlaufe von 2024 werden die Server-Prozessoren zunächst DDR5-5600 und dann DDR5-6400 unterstützen. Für den Jahreswechsel 2024/25 sieht Micron dann schon RDIMMs mit bis zu 8.000 MT/s vor. 

In etwa zeitgleich plant man den von Intel angestoßenen MCRDIMM mit Kapazitäten von 128 bis 256 GB und mit 8.800 MT/s. 2025/26 vorgesehen ist der Wechsel auf MRDIMM mit mehr als 256 GB pro Modul und bis 12.800 MT/s.

Etwas gebremst sieht Micron auch die Weiterentwicklung von LPDDR. Die von Samsung initiierten LPCAMM sollen ab Ende 2024 in einer zweiten Generation zur Verfügung stehen. Bei den Kapazitäten spricht Micron von 16 bis 128 GB pro Modul. Der Datendurchsatz ist mit 8.533 MT/s unverändert. Erst 2026 sollen die Module dann 9.600 MT/s erreichen und 192 GB oder größer werden.

Vor allem im Datacenter kommt dem immer größeren und schnelleren Speicher aufgrund des KI-Booms eine zunehmend wichtigere Rolle zu. Alleine durch den Einsatz eines schnelleren Speichers kann ein Inferencing um zweitstellige Prozentbereiche beschleunigt werden. Entsprechend sehen die Speicherhersteller hier auch einen großen Wachstumsmarkt – wie Micron nun auch offenlegt.