Werbung
Amazon und NVIDIA geben gemeinsam bekannt, dass die von Amazon angebotenen Cloud-Instanzen AWS-EC2-P3 nun auch mit NGC (NVIDIA GPU Cloud) bestückt werden können. Eine einzelne dieser Instanzen besteht aus bis zu acht Tesla V100 mit GV100-GPU.
Mit diesem Angebot richtet sich Amazon explizit an diejenigen Nutzer, die ihre Machine-Learning-Berechnungen zu Amazon in die Cloud auslagern wollen. Hier kann abhängig vom Bedarf an Rechenleistung und Zeit eine Instanz gebucht werden. Neben der Hardware stellt NVIDIA auch die dazugehörigen Frameworks. Dazu gehören NVCaffe, Caffe2, Microsoft Cognitive Toolkit (CNTK), DIGITS, MXNet, PyTorch, TensorFlow, Theano und Torch, die allesamt durch die CUDA-Schnittstelle beschleunigt werden.
Der eigentliche Account für die NVIDIA GPU Cloud ist kostenlos und es lassen sich die entsprechenden Container auch schon im Vorfeld definieren. Danach können diese auf verschiedenen Cloud-Plattformen ausgeführt werden, darunter eben Amazons AWS.
Datenschutzhinweis für Youtube
An dieser Stelle möchten wir Ihnen ein Youtube-Video zeigen. Ihre Daten zu schützen, liegt uns aber am Herzen: Youtube setzt durch das Einbinden und Abspielen Cookies auf ihrem Rechner, mit welchen Sie eventuell getracked werden können. Wenn Sie dies zulassen möchten, klicken Sie einfach auf den Play-Button. Das Video wird anschließend geladen und danach abgespielt.
Ihr Hardwareluxx-Team
Youtube Videos ab jetzt direkt anzeigen
Für NVIDIA ist der Einsatz der Tesla V100 bei Amazon natürlich zunächst einmal ein lukratives Geschäft. Auf der anderen Seite baut man sich eine weitere Plattform für das High Performance Computing auf. Für Amazon ist der Einsatz der dazugehörigen Hardware ein Ausbau der eigenen Ansprüche in diesem Bereich.
„When we launched our P2 instances last year, we couldn’t believe how quickly people adopted them," sagt Matt Garman, Vizepräsident bei Amazon EC2. „Most of the machine learning in the cloud today is done on P2 instances, yet customers continue to be hungry for more powerful instances. By offering up to 14 times better performance than P2 instances, P3 instances will significantly reduce the time involved in training machine learning models, providing agility for developers to experiment, and optimizing machine learning without requiring large investments in on-premises GPU clusters. In addition, high performance computing applications will benefit from up to 2.7 times improvement in double-precision floating point performance."