NEWS

Prozessoren

Intel Xeon Scalable schlägt NVIDIAs V100-GPUs

Portrait des Authors


Intel Xeon Scalable schlägt NVIDIAs V100-GPUs
0

Werbung

Einmal mehr will Intel die Leistung seiner eigenen Prozessoren im Bereich des Machine Learnings unterstreichen und liefert dazu eine interessante Livedemo in Form eines Videos und eines dazugehörigen Blogposts. Google, NVIDIA und auch Intel haben bereits Optimierungen angekündigt, die TensorFlow auf der eigenen Hardware beschleunigen – lassen teilweise sogar eigene Hardware fertigen, welche entsprechende Anwendungen beschleunigen. Im Falle von Intel betrifft dies die Xeon- und Xeon-Phi-Prozessoren, welche Intels Math Kernel Libraries (MKL) nutzen.

Am Ende kommt vieles auf die Optimierung der Software auf die jeweilige Hardware an. Nur so sind Leistungssprünge um den Faktor 10 oder 100 zu erklären, wie sie von Intel kürzlich postuliert wurden. Doch es reicht nicht aus sich auf eine bestimmte Machine-Learning-API zu konzentrieren, auch das jeweilig verwendete Netzwerk spielt eine wichtige Rolle. Grundsätzlich basieren die Netzwerke auf Konzepten wie Multi-Layer Perceptron (MLP), Convolutional Neural Networks (CNNs) und verschiedene Arten von Recurrent Neural Networks (RNN). Auf letztgenannte Netzwerke hat sich Intel mit weiteren Optimierungen konzentriert.

Die Demo zeigt nun die Leistung auf Basis von AWS Sockeye Neural Machine Translation (NMT) mit Intel Xeon Scalable Prozessoren im Vergleich zu NVIDIAs Tesla V100. Während das System mit NVDIAs Tesla V100 bis zu 22 Sätze pro Sekunde verarbeiten kann, soll das System mit Intel Xeon Scalable Prozessor 93 Sätze pro Sekunde erreichen.

Um eine Vergleichbarkeit der Systeme gewährleisten zu können, verwendet Intel den Preis für die Miete der Rechenleistung als Basis. Es handelte sich um eine p3.2xlarg-Instanz von Amazon Web Services (AWS) mit acht virtuellen CPUs und einer Tesla V100. Die Kosten dafür liegen bei 3,06 US-Dollar pro Stunde. Für das Intel-System wurde eine c5.18xlarge-Instanz gewählt, die zum gleichen Preis 72 virtuelle CPU-Kerne bietet, aber keinerlei GPU-Unterstützung. Mit den besagten Optimierungen war das Intel-System um den Faktor vier schneller – was bei gleichem Preis für die AWS-Instanz natürlich unterstreichen soll, wie leistungsfähig auch Prozessoren in diesem Bereich sein können.

Dank Intels Math Kernel Libraries (MKL) sollen diese Optimierungen verstärkt zum Einsatz kommen und dem Mythos, nur GPUs oder spezielle ASICs könnten Machine-Learning-Berechnungen noch effizient verarbeiten, entgegenwirken.