Beim Einsatz von zwölf Tesla V100 kommen wir auf eine Rechenleistung von 124,8 TFLOPS bei doppelter Genauigkeit (FP64), 249,6 TFLOPS bei einfacher Genauigkeit (FP32), 499,2 TFLOPS bei halber Genauigkeit (FP16) sowie 2 POPS für INT8-Berechnungen. Der HBM2 aller zwölf Karten ist 512 GB groß und kann unter den GPU-Beschleunigern geteilt werden.