TEST

Intel Xeon w9-3495X im Test

56 P-Cores am Limit - Workstation-Benchmarks: Unreal Engine 5, DaVinci und Stable Diffusion

Portrait des Authors


DaVinci Resolve

4K Export mit Filtern

Sekunden
Weniger ist besser

Werbung

Unreal Engine 5

Shader Compile

Sekunden
Weniger ist besser

Unreal Engine 5

Lightning Build

Sekunden
Weniger ist besser

Im Vergleich zu den bisher maximalen 28 Kernen sind die 56 Kerne des Xeon w9-3495X natürlich ein deutlicher Schritt nach vorne. Je nach Anwendung reicht es aber auch dann nicht gegen die Ryzen-Threadripper-PRO-Modelle. Im Falle der Unreal Engine 5 sogar noch nicht einmal gegen das Modell mit 32 Kernen beim Aufbau der Beleuchtungs-Situation.

Aktuell sind Stable Diffusion und ChatGPT in aller Munde. Theoretisch lassen sich beide AI-Systeme auch lokal ausführen. Bei ChatGPT ist dies per Alpaca/LLaMA möglich. Wie dies funktioniert haben die Kollegen von der c't erst kürzlich gezeigt.

Für Stable Diffusion gibt es bestimmte Voraussetzungen die geschaffen werden müssen, damit das Inferencing auf heimischer Hardware läuft. Für NVIDIA wird CUDA als Schnittstelle verwendet, AMD-GPUs konnten wir gar nicht dazu bewegen zu arbeiten und Intel CPUs und GPUs arbeiten mit Stable Diffusion von OpenVINO. Den Sapphire-Rapids-Prozessoren sollten an dieser Stelle die AMX-Einheiten zur Hilfe kommen, die BF16-Berechnungen beschleunigt ausführen können.

Stable Diffusion

Inference-Latenz

Sekunden
Weniger ist besser

Das Inferencing auf AI-Modellen ist ein Aspekt, bei dem Intel mit seinen Prozessoren zukünftig eine größere Rolle spielen will. Entsprechend hat man die AMX-Einheiten in den CPU-Architekturen untergebracht. Auch wenn eine GeForce RTX 4090 wie in diesem Beispiel wesentlich schneller aus dem Prompt ein Bild erzeugt, so können wir doch ganz gut sehen, welche Vorteile die Nutzung von BF16 und die Beschleunigung seitens der Hardware bietet.