NVIDIA startet Serverinitiative für ARM-CPUs - Magnum IO für mehr Bandbreite

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.949
nvidia.jpg
NVIDIA kündigt zur Supercomputing 19 ein Referenzdesign für Server mit ARM-Prozessoren an – natürlich kombiniert mit den eigenen GPU-Beschleunigern. Zusammen mit ARM, Ampere, Cray, Fujitsu, HPE und Marvell wurde die Referenzplattform entwickelt, die dabei helfen soll, dass schnellstmöglich auch fertige Systeme auf den Markt kommen.Derzeit verwendet NVIDIA in den eigenen Servern für die Anbindung der GPU-Beschleuniger meist Prozessoren aus dem Hause Intel. In den kommenden Jahren zeichnen sich aber auch viele Systeme an, die EPYC-Prozessoren mit NVIDIA-GPU kombinieren. NVLink kommt als Interconnect nur bei Servern mit IBMs Power9-Prozessoren zum Einsatz. Neuigkeiten im Bereich...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Alle wollen ARM für Server bringen und nicht erst seit heute, auch AMD hat es mit den Opteron A1100 schon probiert, aber alle bisherigen Versuche waren nicht sehr erfolgreich. Das Problem ist einfach die Softwarebasis, die ist für X86 breiter als für ARM.
 
Alle wollen ARM für Server bringen und nicht erst seit heute, auch AMD hat es mit den Opteron A1100 schon probiert, aber alle bisherigen Versuche waren nicht sehr erfolgreich. Das Problem ist einfach die Softwarebasis, die ist für X86 breiter als für ARM.

Das spielt in dem Umfeld keine Rolle. Wer GPU Beschleuniger einsetzt hat seinen Code schon anpassen müssen. Da ist einmal öfter den Compiler anwerfen nicht das große Problem.
 
Das gute alte Ubuntu, wie niedlich. Vor allem die Storage Ssache finde ich sehr Interessant, mal sehen was draus wird.
 
Ein tolles verkaufbares Top Produkt für die breite Masse, dank Nvidia CUDA-X for ARM eine willkommene Alternative zu x86 von AMD / INTEL und nun als 3.te Eingenständige / HPC 64bit ARMv8-A "Plattform" Standbein neben den äusserst leistungsstarken IBM POWER 9/10 CPU's mit voll integriertem 'cross-connected' NV-Link Support.

Das sind eben Sachen, von denen die kleine unbedeutenden Konkurrenz, wie AMD & INTEL (2021 Xe), bisher nur Träumen können .... und die Zeit vergeht doch so schnell. Nvidia lässt bald den 7nm EUV 'Hopper' raus .... :hust:

>>> Nvidia Arms Up Server OEMs And ODMs For Hybrid Compute | Nextplatform.com

SC19 CUDA-X on ARM.jpg

Marvell ThunderX2 64bit ARMv8 Platform .... mit Nvidia CUDA-X / und 8x / 16x NVLink TESLA V100 GPUs

NVIDIA CUDA-X AI and HPC Software Stack Now Available on Marvell ThunderX Platforms

ARM = HPC 64bit ARMv8-A = Marvell's ThunderX2 Plattform

This includes GROMACS, LAMMPS, MILC, NAMD, Quantum Espresso, and Relion, just to name a few, and the testing of the Arm ports was done in conjunction with not only key hardware partners that have Arm processors – Marvell, Fujitsu, and Ampere are the ones that matter, with maybe HiSilicon in China but not mentioned – or make Arm servers – such as Cray, Hewlett Packard Enterprise, and Fujitsu – or who make Linux on Arm distributions – with Red Hat, SUSE Linux, and Canonical being the important ones.

Although Nvidia did not say this, at some point, this CUDA-X stack on Arm will probably be made available on those Cray Storm CS500 systems that some of the same HPC centers mentioned above are getting equipped with the Fujitsu A64FX Arm processor that Fujitsu has designed for RIKEN’s “Fugaku” exascale system. Cray, of course, announced that partnership with Fujitsu and RIKEN, Oak Ridge, and Bristol ahead of SC19, and said that it was not planning to make the integrated Tofu D interconnect available in the CS500 clusters with the A64FX iron. And that means that the single PCI-Express 4.0 slot in the A64FX processor is going to be in contention on the A64FX processor, or someone is going to have to create a Tofu D to InfiniBand or Ethernet bridge to accelerate this server chip. A Tofu D to NVLink bridge would be even better. . . . But perhaps this is just a perfect use case for PCI-Express switching with disaggregation of accelerators and network interfaces and dynamic composition with a fabric layer, such as what GigaIO is doing.

That’s not Nvidia’s concern today, though. What Nvidia does want to do is make it easier for any Arm processor plugged into any server design to plug into a complex of GPU accelerators, and this is being accomplished with a new reference design dubbed EBAC – short for Everything But A CPU.

Also ob sich Nvidia jemals freiwillig Ausruhen würde >>> NVIDIA Next Gen-GPU Hopper could be offered in chiplet design | Guru3d.com

Multicore AMD/INTEL CPU's mit 48 oder 64 Cores sind eben doch nicht die Zufunkt .... CES 2019: Moore's Law is dead - das weiss mittlerweile jeder ... denn "Multi-TPU/GPU Cluster" sind die AI Accelerator Zukunft .... fragt Raja K!

NVIDIA 36-Chip MCM Prototype.jpg

>>> CES 2019: Moore's Law is dead, says Nvidia's CEO - CNET
 
Zuletzt bearbeitet:
Das spielt in dem Umfeld keine Rolle. Wer GPU Beschleuniger einsetzt hat seinen Code schon anpassen müssen. Da ist einmal öfter den Compiler anwerfen nicht das große Problem.
Dies hofft Intel mit OneAPI zu ändern, mal schauen wie die Sache sich entwickelt.

Das gute alte Ubuntu, wie niedlich. Vor allem die Storage Ssache finde ich sehr Interessant, mal sehen was draus wird.
Für Storage ist dies oversized, da bricht man weder HBM noch GPU-Beschleuniger. Dies hier zielt auf HPC.

MassGridParagon, wie schon geschrieben gab und gibt es genug Versuche ARM CPUs in Servern zu etablieren, die Erfolge blieben bisher aber aus.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh