Werbung
Auf der GPU Technologies Conference 2022 Mitte März präsentierte NVIDIA die ersten Details zur Hopper-Architektur und dem dazugehörigen GPU-Beschleuniger H100. Patrick Kennedy von ServeTheHome hatte bereits die Gelegenheit, sich das dazugehörige SMX4-Modul genauer anzuschauen. Die GH100-GPU kommt in 4 nm gefertigt auf Abmessungen von 814 mm².
Von den sechs sichtbaren HBM3-Chips sind nur fünf aktiv und ermöglichen einen Speicherausbau von 80 GB mit einer Speicherbandbreite von 3 TB/s. Auf dem SMX4-Modul ist die GH100-GPU mit 66 TCPs, organisiert in acht GPCs aktiv. Dies resultiert in 132 SMs und dementsprechend 16.896 FP32-Recheneinheiten. Hinzu kommen 8.448 INT32- und ebenso viele FP64-Recheneinheiten sowie die Tensor Cores der vierten Generation.
NVIDIA lässt die GH100-GPU bei TSMC (N4) fertigen. Auch das Packaging der HBM3-Chips erfolgt mittels Chip-on-Wafer-on-Substrate (CoWoS) bei TSMC. Das PCB des SMX4-Moduls ist auf beiden Seiten voll gepackt. Die Rückseite zeigt einen anderen Anschluss als den, den wir für A100 und das SMX3-Modul kennen.
Ab dem dritten Quartal will NVIDIA die ersten H100-GPUs ausliefern.