Werbung
Microsoft, AMD und NVIDIA – alle drei Unternehmen haben eine enge Zusammenarbeit im Cloud-Computing-Bereich angekündigt. Dabei verfolgen die einzelnen Unternehmen unterschiedliche Ansätze, um ihre Ziele zu verfolgen. Während Microsoft seine Position in diesem Bereich als Plattformanbieter festigen möchte, setzt NVIDIA voll auf das Wachstum mittels starker HPC-Hardware. AMD hingegen verfolgt einen offenen Ansatz für die eigene Hardware-Plattform und will mit Naples die entsprechenden Prozessoren anbieten können.
NVIDIA stellt zusammen mit Microsoft den HGX-1 Hyperscale GPU-Beschleuniger vor. Die Ähnlichkeit zum DGX-1 von NVIDIA selbst ist dabei nicht ganz zufällig, denn auch beim HGX-1 kommen acht Tesla P100 mit GP100-GPU und jeweils 16 GB HBM2 zum Einsatz. Verbunden sind diese untereinander über den NVLink-Interconnect. Mehrere solcher HGX-1-Systeme lassen sich zusammenfassen und damit ist die Leistung des Gesamtsystem skalierbar.
Mit der HGX-1-Plattform wollen NVIDIA und Microsoft das schaffen, was ATX seit Jahren im Consumer-Bereich ist: Ein Standard für das sogenannte AI-Computing. Hinter diesem Begriff verbirgt sich aber nichts anderes als die Tatsache, dass möglichst viel Leistung auf möglichst kleinem Raum verpackt werden soll. Dabei müssen aber weiterhin die Gegebenheiten beim Einsatz eines solchen Servers im Hinblick auf die Kühlung und die weitere Infrastruktur beachtet werden.
Jen-Hsun Huang, CEO und Gründer von NVIDIA dazu: "AI is a new computing model that requires a new architecture. The HGX-1 hyperscale GPU accelerator will do for AI cloud computing what the ATX standard did to make PCs pervasive today. It will enable cloud-service providers to easily adopt NVIDIA GPUs to meet surging demand for AI computing."
Kushagra Vaid, Chef des Bereichs Azure Hardware Infrastructure bei Microsoft dazu: "The HGX-1 AI accelerator provides extreme performance scalability to meet the demanding requirements of fast-growing machine learning workloads, and its unique design allows it to be easily adopted into existing data centers around the world"
AMD plant Open Source Cloud Hardware mit Naples
In der Zusammenarbeit zwischen AMD und Microsoft sehen die Ziele natürlich etwas anders aus, zumal AMD zunächst einmal die Naples-Serverprozessoren im Fokus sieht. Erst vor wenigen Tagen wurden weitere Details samt Benchmarks zu den Naples-Prozessoren veröffentlicht.
AMD unterstützt dabei die Open-Source-Hardware-Plattform Project Olympus. Die Naples-Prozessoren sollen dabei die Basis der Plattform bieten, zumal sich AMD in einer Vorreiterrolle sieht, da man von Anfang an mit Microsoft zusammengearbeitet hat. Konkrete Ankündigungen gibt es derzeit aber noch nicht. Die Naples-Prozessoren sollen auch erst ab dem zweiten Quartal verfügbar sein.
Scott Aylor, Corporate Vice President of Enterprise Systems bei AMD: "Next quarter AMD will bring hardware innovation back into the datacenter and server markets with our high-performance "Naples" x86 CPU, that was designed with the needs of cloud providers, enterprise OEMs and customers in mind. Today we are proud to continue our support for the Open Compute Project by announcing our collaboration on Microsoft's Project Olympus."
Update:
Microsoft hat für das Project Olympus auch noch einige weitere Allianzen angekündigt. Unter anderem will Qualcomm mit den ARM-Server-SoC Centriq 2400 zusammen mit Microsoft in der Cloud verbauen. Beim Centriq 2400 handelt es sich um eine SoC mit 48 Kernen, der in 10 nm gefertigt wird. Zudem bietet er sechs DDR4-2667-Speicherkanäle und einen 50GbE-Ethernet-Adapter sowie die Möglichkeit über 32 PCI-Express-3.0-Lanes weitere Beschleuniger anzubinden.
Cavium ist auch mit an Board und bietet mit dem ThunderX2 einen SoC mit 54 ARMv8-A-Kernen. Damit kann Microsoft für das Project Olympus vier CPU-Plattformen anbieten: Cavium ThunderX2, Qualcomm Centriq 2400, AMD Naples und Intel Xeon E5-2600v5 Skylake-EP.