NEWS

CUDA zu oneAPI und ROCm

NVIDIA schränkt Übersetzungsschicht ein

Portrait des Authors


NVIDIA schränkt Übersetzungsschicht ein
21

Werbung

NVIDIAs Compute Unified Device Architecture (CUDA) ist noch immer der Defacto-Standard einer Programmierschnittstelle, um Software zu entwickeln, die dann auf der GPU ausgeführt werden kann. Über Jahre hat NVIDIA hier ein entsprechendes Ökosystem auf Hard- und Software aufgebaut, was letztendlich auch dazu geführt hat, dass man im GPU-Computing und nun auch im KI-Segment der führende Hersteller ist.

Aber natürlich versuchen auch AMD und Intel ihre APIs den Entwicklern schmackhaft zu machen. Sowohl ROCm bei AMD als auch oneAPI bei Intel sollen dabei als offene Plattform eben auch mit diesem offenen Zugang überzeugen. CUDA-Code auf GPUs von AMD und Intel auszuführen wäre für viele Entwickler, deren Codebasis eben CUDA war und ist, der einfachste Weg. Entsprechende Übersetzungsschichten gibt es. Intel hatte bereits mehrfach vermeldet, dass Hardware mit NVIDIA-GPU auf der eigenen oneAPI teilweise schneller läuft, als nativ unter CUDA.

Aber diesen Übersetzungsschichten hat NVIDIA mit CUDA 11.5 offenbar einen Riegel vorgeschoben. Offenbar nicht über eine technische Lösung, sondern über eine Änderung der Nutzungsbedingungen – so zumindest Entwicklern Longhorn auf X.

Davon betroffen wäre dann unter anderem ZLUDA, eine Open-Source-API die CUDA-Code zu ROCm überführt. Zuvor arbeitete der Entwickler an einer oneAPI-Implementationen. Auch Intels CUDA to SYCL wäre davon betroffen.

Unklar ist nun, welche Auswirkungen dies hat. Die entscheidende Frage wird sein, wie viel Code noch über eine Übersetzungsschicht laufen muss oder ob dieser nicht ohnehin schon in der Form vorliegt, dass er von den jeweiligen Schnittstellen direkt ausgeführt werden kann. NVIDIA hat sich mit CUDA ein Alleinstellungsmerkmal geschaffen, doch diese Vormachtstellung bröckelt, da inzwischen viele Programmbibliotheken hardwareagnostisch arbeiten.

Quellen und weitere Links KOMMENTARE (21)