Graphcore
  • MLPerf Training 2.0: NVIDIA die beständige Konstante, Graphcore, Google und Habana mit neuer Hardware

    Die MLCommons hat die neuesten Ergebnisse für das Training von AI-Netzwerken veröffentlicht. Im Rahmen des MLPerf Training v2.0 geht es einmal mehr darum, eine Vergleichsbasis für solche Systeme zu bilden. Unternehmen wie Dell, HPE, Google, Inspur, Intel, Lenovo, NVIDIA, Gigabyte, Supermicro, Graphcore und viele weitere können an den Benchmarks teilnehmen, müssen sich natürlich an die aufgestellten Regeln halten und dürften auch die... [mehr]


  • Graphcore IPU wird durch 3D Wafer on Wafer schneller und effizienter

    Vor zwei Jahren stellte das in London ansässige Start-up Graphcore die Mk2 GC200 Intelligence Processing Unit (IPU) vor. Mit 59,4 Milliarden Transistoren auf einer Fläche von 823 mm², gefertigt in 7 nm bei TSMC, war die zweiten Generation der Angriff auf die etablierten Hersteller und hier vor allem NVIDIA. Im vergangenen Jahr präsentierte Graphcore weitere Details, wie das Vorhandensein von 1.472 IPU-Cores, die 8.832... [mehr]


  • MLPerf Training v1.1: Unabhängiger Benchmark wird zur NVIDIA-One-Man-Show

    Bereits häufiger haben wir über die Benchmarks und Ranglisten der MLCommons berichtet, da man hier einen unabhängigen Benchmark in unterschiedlichen Kategorien aufbauen wollte, der praxisrelevante Daten zu den AI/ML-Beschleunigern der verschiedenen Hersteller liefert. Heute nun wurden die Daten zum Training in der Version 1.1 veröffentlicht. Daneben gibt es noch die Kategorien HPC, wo erst vor wenigen Wochen aktualisierte Daten... [mehr]


  • Hot Chips 33: Wie die GC200 Colossus Mk2 IPU zusammengesetzt ist

    Im Sommer des vergangenen Jahres stellte Graphcore die Colossus Mk2 GC200 IPU vor. Der Name ist hier Programm, denn mit 59,4 Milliarden Transistoren auf 823 mm² kann man wirklich von einem Chip-Koloss sprechen. Die letzen Leistungsdaten von MLPerf sahen Graphcore auch auf gutem Wege, wenngleich man hier sagen muss, dass bei weitem nicht alle Versprechungen eingehalten werden konnten. Uns interessierte der Vortrag auf der Hot-Chips-Konferenz... [mehr]


  • MLPerf Training 1.0: Graphcore und Google greifen NVIDIAs Vormachtstellung an

    Die MLCommons haben pünktlich zur ISC 21 die Ergebnisse des MLPerf Training in der Version 1.0 veröffentlicht. Für diese neueste Version der Benchmark-Ergebnisse wurden einige Prozesse in der Teilnahme geändert, sodass es für Unternehmen einfacher werden soll, daran teilzunehmen. So wurden die bisher verwendeten Übersetzungs-Benchmarks GNMT und Transformer aus der Wertung genommen. Auf der anderen Seite wurde mit RNNT eine... [mehr]


  • Colossus Mk2 GC200 IPU: Auslieferung beginnt und erste Benchmarks

    Mitte des Jahres stellte Graphcore die zweite Generation seiner Intelligence Processing Unit (IPU) vor. Die Colossus-Mk2-GC200-IPU zeichnet sich durch 1.472 sogenannten IPU-Cores aus, die wiederum 8.832 separate Compute-Threads verarbeiten können. Gefertigt wird der Prozessor in 7 nm bei TSMC. Zum Einsatz kommen 59,4 Milliarden Transistoren auf einer Fläche von 823 mm². Nun kündigt man die Verfügbarkeit... [mehr]


  • 59,4 Milliarden Transistoren auf 823 mm²: Die Colossus Mk2 GC200 IPU

    Graphcore hat die zweite Generation seiner Intelligence Processing Unit (IPU) vorgestellt. Die Colossus Mk2 GC200 IPU ist ein hochspezialisierter Chip, der auf das Training und Inferencing von Deep-Learning-Netzwerken ausgelegt ist. Bei einem Blick auf die technischen Daten wird schnell klar, dass es das britische Unternehmen Graphcore ernst meint. Der Prozessor, also die Colossus Mk2 GC200 IPU, wird in 7 nm bei TSMC gefertigt. Hier zum... [mehr]