Werbung
Mit der Radeon Open Compute Platform (ROCm) baut AMD seit 2016 eine Compute-Schnittstelle für das Ausführen von Code auf den GPU-Beschleunigern (und auch Prozessoren) auf. ROCm tritt dabei gegen NVIDIAs CUDA-Plattform an und hat es bisher schwer bei Entwicklern Fuß zu fassen, denn CUDA beherrscht den Markt.
Allerdings gibt AMD seine Ambitionen in diesem Bereich nicht auf – ganz im Gegenteil. Das Angebot immer neuer Radeon-Instinct-Karten zieht das Fortführen der ROCm-Schnittstelle nach sich, die nun die Versionsnummer 2.4 erreicht hat. Diese unterstützt unter anderem TensorFlow-2.0-CUDA-Code, der auf TensorFlow 2.0 entwickelt ist, wird zu C++ konvertiert, der dann auch auf AMD-GPUs ausgeführt werden kann. Laut AMD soll es dabei keinerlei Leistungsverlust geben, wenn der Code auf der Hardware ausgeführt wird. Die Konvertierung nimmt natürlich etwas Zeit in Anspruch.
ROCm 2.4 unterstützt zudem den AMD Infinity Fabric Link, der bei den Radeon Instinct MI60 und MI50 zum Einsatz kommt und bis zu vier Karten zusammenschaltet.
Eine große Rolle im ROCm-Gesamtkonzept kommt den Compilern zu, denn sie sollen beliebigen Code auf der eigenen AMD-Hardware schnellstmöglich ausführen können. Dazu hatte AMD bereits vor Jahren einen neuen LLVM-Compiler veröffentlicht, der für die CPU-Berechnungen den Code entsprechend aufarbeiten soll. Da die GPUs aber den wesentlich höheren und damit wichtigeren Anteil bei entsprechenden Berechnungen haben, sorgt ein GCN-Compiler für die Anpassungen am GPU-Code. Dieser ist speziell auf die Graphics-Core-Next-Architektur hin optimiert und wendet diese Optimierungen im Zielcode an. Für jeden Zielcode wie OpenCL, CUDA, ISO C++ oder Python hat AMD eine entsprechende Schnittstelle entwickelt.
ROCm 2.4 kann im entsprechenden Git-Repository bezogen werden. Erst kürzlich kündigte AMD die Zusammenarbeit mit dem US-Energieministerium an, für das ein Frontier getaufter Supercomputer mit AMD-CPUs und AMD-GPUs aufgebaut werden soll, der 2021 eine Rechenleistung von 1,5 ExaFLOPS erreichen soll.
Damit soll nahezu jeglicher Code, der ansonsten über andere Schnittstellen auf Nicht-AMD-GPUs ausgeführt wird, auch auf AMD-Hardware laufen. Intel baut ebenfalls mit der One-API eine Schnittstelle auf, die über Prozessoren und GPUs hinweg ein und denselben Code ausführen können soll. Noch in diesem Jahr soll eine erste Version veröffentlicht werden.