Werbung
Kaum hat IBM neue Server für Deep Learning und Datenanalyse mit NVIDIAs Tesla-P100-GPUs angekündigt, zieht Super Micro Computing nach. Mehrere neue Server sind auf maschinelles Lernen ausgerichtet.
Am leistungsfähigsten ist Super Micros neuer 4U SuperServer 4028GR-TR(T)2, der maximal zehn PCIe-Tesla-P100-GPUs unterstützt. Laut der Firma sollen bis zu 210 TFLOPS FP16 Rechenleistung mit GPU-Direct-RDMA-Unterstützung möglich sein. Super Micro behauptet zudem, dass man das Single-Root PCI-E-Design für den Datentransfer zwischen den einzelnen GPUs über QPI- und PCI-E-Links optimiert habe. So soll der QPI-Durchsatz um 21 % verbessert und die Latenz zugleich um 60 % verringert worden sein. Bei der Latenzmessung wurde der NCCL P2PBandwidthTest angewandt. Ansonsten können zwei Intel-Xeon-E5-2600-v4/v3-CPUs verwendet werden, die mit 3 TB DDR4-2400MHz-Speicher verbunden werden können. Optional sind zwei Onboard-10-GBase-T-Ports sowie redundante, digitale Titanium-Level-(96 %)-Netzteile.
Darunter angesiedelt ist der 2U Ultra SuperServer, der vier Pascal-GPUs unterstützen kann. Auch hier können wieder Intel-Xeon-E5-2600-v4/v3-CPUs verwendet werden, gepaart mit bis zu 1,5 TB Speicherkapazität in 24 DIMMs. Kunden können neben SATA III noch optional SAS3 und NVMe-Unterstützung bestellen. Weitere Konfigurationsoptionen sind 10 GBase-T, 10 G SFP+, 40 G und InfiniBand und ebenfalls wieder redundante Titanium-Level-Netzteile.
Super Micros Ultra SuperServer gibt es natürlich auch im 1U-Format, mit denselben Spezifikationen wie der 2U Ultra SuperServer. Verschwiegen wurde hier allerdings wieviel Pascal-GPUs unterstützt werden. Kleinere Lösungen sind der 1U 4 Pascal GPU Optimized SuperServer und der 2U 6 Pascal GPU Optimized SuperServer.