Werbung
Im Zuge der heutigen Präsentation der A100-GPU bzw. der Ampere-Architektur durch NVIDIA stellt auch Supermicro also einer der engsten Partner von NVIDIA seine neuen bzw. aktualisierten Produkte vor. Mit der Ampere-Architektur passt NVIDIA seine GPGPU derart an, dass sie einen breiteren Anwendungsbereich im Datacenter abdecken kann. Sowohl das Training, also auch das Inferencing von AI-Modellen, aber auch HPC-Anwendungen.
NVIDIA selbst sprach davon, dass man die A100-Module nicht wird einzeln kaufen können. Eine PCI-Express-Variante ist bisher nicht geplant. NVIDIA fertigt die A100-Module mit mehr als 1 Millionen Durchkontaktierungen und mehr als 100.000 Komponenten selbst bzw. lässt dies anfertigen. Gleiches gilt auch für die Basisboards, auf denen die A100-Platz ihren Platz finden. Bisher ist uns nur bekannt, dass NVIDIA eine Variante mit acht SMX2-Modulen anbieten wird. Supermicro spricht nun davon, dass es auch Modelle mit vier A100-Modulen geben wird.
Supermicro spricht hier von einem 2U-Server, in den die vier A100-Module zusammen mit zwei EPYC-Prozessoren gepackt werden. Für ein HGX A100 mit acht Modulen ist ein 4U-Server vorgesehen. Supermicro verwendet hier das von NVIDIA angedachte HGX-Referenzdesign. Das Baseboard mit vier Modulen wurde unter dem Codenamen Redstone entwickelt. Für das Board mit acht Modulen wurde der Codename Delta verwendet.
Die Anbindung der GPUs erfolgt untereinander mittels NVLink. Die Netzwerkanbindung über das InfiniBand von Mellanox kann dank der EPYC-Prozessoren über PCI-Express 4.0 stattfinden. Jede der Mellanox ConnectX-6 Lx SmartNICs bietet eine Bandbreite von 200 GBit/s. Für jedes A100-Modul empfehlen NVIDIA und Supermicro eine solche Mellanox-Karte.
An weiteren Schnittstellen zur Verfügung gestellt werden AIOM-Slot (Advanced I/O Module) für die eigenen AIOM-Karten oder OCP 3.0 Mezzanine-Karten.
Charles Liang, CEO von Supermicro zu den neuen Systemen: "As GPU accelerated computing evolves and continues to transform data centers, Supermicro will provide customers the very latest system advancements to help them achieve maximum acceleration at every scale while optimizing GPU utilization. These new systems will significantly boost performance on all accelerated workloads for HPC, data analytics, deep learning training and deep learning inference."
Die Server von Supermicro sind dahingehend interessant, weil sie mit dem Baseboard mit vier Modulen eine Alternative zu den DGX-A100-Servern von NVIDIA darstellen. Diese sind mit entsprechender Hardware ausgetattet und kosten 199.999 US-Dollar. Die Server von Supermicro dürften etwas flexibler in der Ausstattung und vor allem der preislichen Gestaltung sein.