Tesla V100
  • 4.536 EPYC-CPUs und 112 Tesla V100: US Navy bekommt neuen Supercomputer

    Das Department of Defense (DoD) hat im Rahmen des High Performance Computing Modernization Program (HPCMP) den Ersatz eines bestehenden Supercomputer-Systems in die Wege geleitet. Das Navy Department of Defense Supercomputing Resource Center (DSRC) bekommt in Mississippi ein von Cray gebautes System. Das neue System soll eine Rechenleistung von 12,8 PFLOPS erreichen und 2021 fertiggestellt werden. In der aktuellen Liste der... [mehr]


  • NVIDIA Tesla V100S bietet schnelleren HBM2 und mehr Takt bei gleicher TDP

    NVIDIAs aktuelles Datacenter-Flaggschiff ist noch immer die Tesla V100, die als SXM2-Modul und PCI-Express-Karte in zwei Varianten verfügbar ist. Die Variante als SXM2-Modul hat NVIDIA bereits von einer Thermal Design Power von 300 W auf bis zu 450 W angehoben. In einigen DGX-Systemen ist dies der Fall, allerdings gibt NVIDIA keine Auskunft über die Rechenleistung und ob einfach nur der Takt gesteigert wurde. Auf der... [mehr]


  • NVIDIA pusht Tesla V100 auf eine TDP von 450 W

    Wenngleich sich in den vergangenen Monaten vieles um die Turing-Architektur und die dazugehörigen GeForce-RTX-Grafikkarten gedreht hat, so kann NVIDIA weiterhin sein Datacenter-Business stärker ausbauen. Zentrales Produkt in diesem Bereich ist und bleibt die Tesla V100, die als SMX2-Modul bei einer Leistungsaufnahme von 300 W 7,8 TFLOPS an FP64-Rechenleistung bietet. Je nach Kühlung können die GPUs auch auf eine TDP von 350 W konfiguriert... [mehr]


  • AMD sieht sich im Datacenter gleichauf mit NVIDIA

    Der gestrige "New Horizon"-Event stand vollständig im Fokus der Datacenter-Hardware. Vorgestellt wurden die Radeon Instinct MI60 und Radeon Instinct MI50 mit der Vega-20-GPU aus der 7-nm-Fertigung und neben den technischen Daten hat AMD auch über erste Leistungsdaten der GPU-Beschleuniger gesprochen. Zunächst einmal noch ein paar Worte zur Hardware. Die Radeon Instinct MI60 basiert auf der Vega-20-GPU. Diese bietet 64 Compute Units... [mehr]


  • Schnellster Supercomputer: Summit erreicht 200 PFLOPS

    Das Rennen um den schnellsten Supercomputer scheint in eine neue Runde zu gehen und vorerst werden die USA wieder die Spitze übernehmen. Das Oak Ridge National Laboratory des US Department of Energy legt die Messlatte in gleich zwei Rechengrößen höher: 200 PFLOPS bei doppelter Genauigkeit (FP64) und 3,3 EFLOPS bei Mixed Precision (einschließlich INT8) erreicht der Summit getaufte Supercomputer. Mit den 200 PFLOPS ist er... [mehr]


  • NVIDIAs HGX-2 bietet 2 PFLOPS an Rechenleistung

    Zur GPU Technologies Conference im vergangenen Jahr stellte NVIDIA mit dem HGX-1 ein Serversystem vor, welches im Grunde genommen eine wassergekühlte Variante des DGX-1 und für den Einsatz in der HPC-Cloud vorgesehen ist. In diesem Jahr hat NVIDIA die Varianten der Tesla V100 mit 32 GB, also verdoppelten HBM2, vorgestellt. Auch die Quadro V100 ist seit dem Frühjahr in dieser Ausbaustufe verfügbar. Heute nun stellt NVIDIA das HGX-2 vor... [mehr].


  • Demos zur Quadro GV100 und Tesla V100 mit 32 GB HBM2

    Im Rahmen der Keynote auf der GPU Technology Conference gab es auch einige Demonstrationen zu sehen. Auf eine, die Nutzung der Kubernetes im Datacenter, sind wir bereits eingegangen. Auf der Game Developer Conference präsentierte NVIDIA in Zusammenarbeit mit ILMxLAB (Industrial Light and Magic) eine Echtzeit Ray-Tracing-Demo im Star-Wars-Universum. Berechnet wurde diese auf einer NVIDIAs DGX-1 mit vier GPUs. Laut NVIDIA kann diese... [mehr]


  • NVIDIA beschleunigt den GPU-Interconnect und verdoppelt den HBM2-Speicher

    In diesem Jahr scheint sich NVIDIA auf der GPU Technology Conference auf einen Ausbau der bestehenden Produkte und Technologien zu konzentrieren. So präsentiert man eine Quadro GV100 mit 32 GB HBM2 und auch die Tesla V100 kann ab sofort mit der doppelten Speicherkapazität bestückt werden. Um diese schnelle GPU-Beschleuniger besser einsetzen zu können, muss aber nicht nur die einzelne Hardware schneller werden, sondern auch die... [mehr]


  • NVIDIAs SaturnV wird der schnellste und effizienteste AI-Supercomputer

    Zur GPU Technologie Conference 2017 kündigte NVIDIA das Update auf die Volta-Architektur für die entsprechenden Tesla-Beschleuniger an, die als DGX-1-Serverknoten auch als kompakter Supercomputer bereits ausgeliefert werden. NVIDIA bestückt damit aber auch schon neue Supercomputer, die ab 2018 in den Top 10 mitspielen sollen. Bereits seit einiger Zeit betreibt NVIDIA auch einen eigenen Supercomputer, den Saturn. Diesen hat man nun zur... [mehr]


  • Japan will mit Intels Xeon Gold und NVIDIAs Volta auf Platz 3 der Supercomputer

    Die Supercomputer 2017 im November rückt näher und offenbar haben gleich mehrere Länder und Betreiber von Supercomputern vor dort Pläne zum Ausbau oder Neubau vorzustellen. Bereits bekannt ist, dass der Tianhe 2 in China von 33 PFLOPS (Rmax) auf 94,7 PFLOPS ausgebaut werden soll. Wohl weiter angeführt werden wird die Liste vom Sunway TaihuLight mit 93 PFLOPS, dessen Spitzenleistung allerdings bei 125 PFLOPS liegt. Das japanische Unternehmen... [mehr]


  • NVIDIA gibt die ersten Tesla V100 an Forscher aus

    Mitte Mai, auf der GPU Technology Conference, präsentierte NVIDIA die Volta-Architektur und die dazugehörigen GPU-Beschleuniger Tesla V100. Alle Details zur Volta-Architektur sind in einem ausführlichen Artikel zu finden. Auf der Computer Vision and Pattern Recognition Conference auf Hawaii hat NVIDIA nun die ersten Modelle der PCI-Express-Variante an Forscher ausgegeben. Allerdings konnten nicht alle Teilnehmer der sehr speziellen Konferenz... [mehr]


  • NVIDIA veröffentlicht Whitepaper zur Tesla V100 und Volta-Architektur

    Zur GPU Technology Conference präsentierte NVIDIA die neue Volta-Architektur und stellte zudem auch die ersten drei Tesla-Grafikkarten vor, welche die neue GV100-GPU einsetzen. Auf alle Details der Volta-Architektur sind wir in einem gesonderten Artikel bereits eingegangen. Nun hat NVIDIA ein sogenannten Whitepaper (PDF) veröffentlicht, welches sich noch einmal mit der Tesla V100 und Volta-Architektur beschäftigt und dabei auch einige Details... [mehr]


  • NVIDIA stellt die PCI-Express-Variante der Tesla V100 vor

    Die auf der GPU Technology Conference 2017 vorgestellte Tesla V100 mit GV100-GPU auf Basis der Volta-Architektur wurde bereits in Form dreier Varianten und davon zwei mit PCI-Express-Interface angekündigt. Nun hat NVIDIA die größere PCI-Express-Variante offiziell vorgestellt und nennt auch einige technische Daten, die bisher unbekannt waren. Zunächst einmal die Ausgangssituation der drei Modelle: Da wäre das bekannte und typische SXM2-Modul... [mehr]


  • GTC17: NVIDIA Tesla V100 mit Volta-Architektur in Aktion

    Auf der Keynote der GPU Technology Conference 2017 präsentierte NVIDIA nicht nur die Tesla V100 mit Volta-Architektur, sondern zeigte diese auch in Aktion. Alle Details zur Präsentation der Tesla V100 sowie der dazugehörigen Volta-Architektur haben wir in einer gesonderten Meldung zusammengefasst. Doch einen kleinen Zusatz hatte NVIDIA dann doch noch zu bieten, denn neben der Anwendung für wissenschaftliche Berechnungen betonte NVIDIA auch,... [mehr]


  • GTC17: Von Inferencing mit 150 W bis zum Supercomputer – die Hardware mit Volta-Architektur

    Die Keynote der GPU Technology Conference wurde von NVIDIA dazu genutzt, die neuste GPU-Architektur namens Volta vorzustellen. Mit der Tesla V100 präsentierte man auch gleich das neue Flaggschiff der GPU-Compute-Hardware, nannte aber auch zahlreiche weitere Produkte, in denen Hardware mit Volta-Architektur zum Einsatz kommen und eben auf diese wollen wir nun genauer eingehen. Nach der Keynote gab es einige sogenannte Deep-Dive-Sessions, in... [mehr]