Werbung
Schlagwort hin oder her – Deep Learning und erste Ansätze zur AI spielen bereits eine wichtige Rolle bei der Benutzung vieler Services im Internet und die Abhängigkeiten von diesen Technologien werden in Zukunft immer größer werden. NVIDIA hat die eigenen GPUs, zumindest im professionellen Bereich, genau auf solche Anwendungen in ausgerichtet und präsentierte im Frühjahr den DGX-1, einen Supercomputer mit Tesla-P100-GPU-Beschleuniger. Wie der DGX-1 entstanden ist und welche Entwicklungsschritte dabei gemacht wurden, haben wir bereits zusammengefasst.
Nun hat IBM einen neuen Server vorgestellt, der von der bisherigen Konfiguration mit acht Tesla P100 etwas abweicht und dabei gleichzeitig etwas flexibler sein soll. Der Power System S822LC ist ein klassischer Rack-Server, der zwei IBM POWER8-CPUs mit vier NVIDIA Tesla P100 kombiniert. Der Datenaustausch zwischen den CPUs und GPUs erfolgt dabei über NVLink, einem von NVIDIA und IBM entwickelten Interconnect für Server.
Der Power System S822LC kann in verschiedenen Konfigurationen von Kunden bestellt werden. Vorrangig aber wichtigster Kunde dürfte das U.S. Department of Energy’s Oak Ridge National Laboratory (ORNL) und Lawrence Livermore National Laboratory (LLNL) sein. An beiden Laboratorien entstehen derzeit die vermeintlich schnellsten Supercomputer, die 2017 bzw. 2018 fertiggestellt werden sollen. Während Sierra bereits mit erwähnter aktueller Hardware bestückt wird (IBM POWER8 CPUs und Tesla P100), soll Summit jeweils auf die nächste Generation dieser Hardware setzen. POWER9-CPUs von IBM und NVIDIAs GPU-Beschleuniger auf Basis der Volta-Architektur sollen in 3.400 Rechenknoten arbeiten. Pro Knoten sollen zudem mehr als 512 GB an Speicher zum Einsatz kommen, die sich in DDR4 und HBM aufteilen. Ebenfalls pro Knoten noch vorhanden sein werden 800 GB an NVRAM. Der Datenspeicher von Summit soll 120 PB vorhalten können, die mit einer Bandbreite von 1 TB/s an die Knoten ausgeliefert und geschrieben werden können.
IBMs Power System S822LC ist dabei die Basis dieser beiden Supercomputer, wenngleich die Konfiguration sich noch etwas unterscheiden könnte. Aktuelle Systeme aber sind ein gutes Testfeld, sowohl für die einzelne Hardware wie auch für NVLink, den schnellen Interconnect mit einer maximalen Bandbreite von 160 GB/s für eine einzelne GPU.