Werbung
Im Vergleich zu den bisher maximalen 28 Kernen sind die 56 Kerne des Xeon w9-3495X natürlich ein deutlicher Schritt nach vorne. Je nach Anwendung reicht es aber auch dann nicht gegen die Ryzen-Threadripper-PRO-Modelle. Im Falle der Unreal Engine 5 sogar noch nicht einmal gegen das Modell mit 32 Kernen beim Aufbau der Beleuchtungs-Situation.
Aktuell sind Stable Diffusion und ChatGPT in aller Munde. Theoretisch lassen sich beide AI-Systeme auch lokal ausführen. Bei ChatGPT ist dies per Alpaca/LLaMA möglich. Wie dies funktioniert haben die Kollegen von der c't erst kürzlich gezeigt.
Für Stable Diffusion gibt es bestimmte Voraussetzungen die geschaffen werden müssen, damit das Inferencing auf heimischer Hardware läuft. Für NVIDIA wird CUDA als Schnittstelle verwendet, AMD-GPUs konnten wir gar nicht dazu bewegen zu arbeiten und Intel CPUs und GPUs arbeiten mit Stable Diffusion von OpenVINO. Den Sapphire-Rapids-Prozessoren sollten an dieser Stelle die AMX-Einheiten zur Hilfe kommen, die BF16-Berechnungen beschleunigt ausführen können.
Das Inferencing auf AI-Modellen ist ein Aspekt, bei dem Intel mit seinen Prozessoren zukünftig eine größere Rolle spielen will. Entsprechend hat man die AMX-Einheiten in den CPU-Architekturen untergebracht. Auch wenn eine GeForce RTX 4090 wie in diesem Beispiel wesentlich schneller aus dem Prompt ein Bild erzeugt, so können wir doch ganz gut sehen, welche Vorteile die Nutzung von BF16 und die Beschleunigung seitens der Hardware bietet.