Werbung
ASUS hat auf der GTC 2025 eine Reihe neuer KI- und HPC-Serverlösungen vorgestellt, die auf den neuesten Technologien von NVIDIA basieren. Darunter der ASUS AI POD, welcher auf die NVIDIA GB300 NVL72-Plattform setzt und 72 Blackwell-Ultra-GPUs mit 36 Grace-CPUs kombiniert, um KI-Workloads mit hoher Leistung verarbeiten zu können. Das Rack-Design ermöglicht dabei bis zu 40 TB Hochgeschwindigkeitsspeicher pro Rack und nutzt NVIDIA Quantum-X800 InfiniBand und Spectrum-X Ethernet für optimierte Netzwerkanbindungen. SXM7- und SOCAMM-Module sollen die Wartungsfreundlichkeit verbessern, während das vollständig flüssigkeitsgekühlte Design für effizientes Thermomanagement sorgen will. Die Architektur selbst ist auf LLM-Inferenz und -Training mit Billionen von Parametern ausgelegt.
Neben dem AI POD wurde auch der ASUS RS501A-E12-RS12U präsentiert, ein SDS-Server, der die Latenzzeiten beim Datentraining und der Inferenz reduzieren und als Ergänzung zum NVIDIA GB200 NVL72 dienen soll. Die Kombination aus Rechenleistung und Speicherarchitektur will eine effiziente Verwaltung großer Datenmengen ermöglichen und kann auch anspruchsvolle KI-Anwendungen unterstützen.
Der ASUS ESC NB8-E11 ist mit der NVIDIA Blackwell HGX B200 8-GPU ausgestattet und für Hochleistungs-KI-Workloads konzipiert. Der ASUS XA NB3I-E12 setzt auf die HGX B300 NVL16-Plattform mit 2,3 TB HBM3e-Speicher und integriert NVIDIA Quantum-X800 InfiniBand und Spectrum-X Ethernet für schnelle Netzwerkanbindung. Der ASUS ESC N8-E11V mit acht NVIDIA H200-GPUs will eine flexible Kühloption mit luft- und flüssigkeitsgekühlten Varianten bieten, um thermische Effizienz und Skalierbarkeit gewährleisten zu können.
Im Segment der KI-Inferenz wurde die ASUS ESC8000-Serie mit der NVIDIA RTX PRO 6000 Blackwell Server Edition vorgestellt. Der ASUS ESC8000-E12P unterstützt acht Dual-Slot-NVIDIA-H200-GPUs und ist vollständig mit der NVIDIA MGX-Architektur kompatibel. Der ASUS ESC8000A-E13P bietet ebenfalls acht NVIDIA-H200-GPUs in einem 4U-Gehäuse mit optimierter Integration und Skalierbarkeit für moderne Rechenzentren.
Im Bereich Edge-AI präsentierte ASUS IoT den PE2100N, einen Edge-Computer mit NVIDIA Jetson AGX Orin-Modulen und JetPack SDK, der bis zu 275 TOPS erreicht und für Anwendungen in Smart Cities, Robotik und autonomen Systemen gedacht ist. Der ASUS IoT PE8000G unterstützt zwei 450-W-NVIDIA-RTX-PCIe-Grafikkarten und eignet sich laut ASUS für Echtzeit-KI-Inferenz, Objekterkennung und Videoanalyse in anspruchsvollen Umgebungen.
Mit dem Ascent GX10 stellte ASUS zudem einen kompakten AI-Supercomputer vor, der mit dem NVIDIA GB10 Grace Blackwell Superchip ausgestattet ist. Die Plattform bietet 1.000 AI-TOPS-Leistung und unterstützt KI-Modelle mit bis zu 200 Milliarden Parametern. Das System kombiniert eine Blackwell-GPU mit einer 20-Kern-Arm-CPU und 128 GB RAM, um hochleistungsfähige KI-Workloads bewältigen zu können.