Werbung
AMD, Intel und auch Qualcomm trommeln aktuell kräftig für den AI-PC. Dabei überschlagen sie sich mit Angaben zur Rechenleistung – vor allem der NPU. Mit Lunar Lake, der nächsten mobilen Core-Generation von Intel, soll der gesamte Prozessor über die CPU-Kerne, GPU und auch NPU 100 TOPS an KI-Rechenleistung erreichen. Aktuell bewegen sich die Prozessoren von AMD, Intel und Qualcomm im Bereich von 30 bis 40 TOPS, wobei auf die NPU meist nur rund ein Drittel der Leistung fallen.
Was aber ist mit den leistungsstarken GPUs, die in vielen Rechnern verbaut sind? Notebooks mit integrierter Grafikeinheit sind natürlich rein auf die Leistung des Prozessors beschränkt, ein Gaming-Notebook oder ein Desktop-System mit dedizierter Grafikkarte sollten deutlich mehr zu bieten haben. Ein AI-PC wird dennoch rein darüber definiert, dass der Prozessor eine NPU besitzt, Windows 11 24H2 mit Copilot einsetzt sowie über die Copilot-Taste verfügt. Ein Rechner mit einer dedizierten Radeon- oder GeForce-Grafikkarten ist per se kein AI-PC.
Dabei wäre ein solches System durchaus in der Lage, eine ausreichende Rechenleistung zur Verfügung zu stellen. Eine GeForce-Grafikkarte kann laut NVIDIA (via BenchLife) zwischen 100 und 1.300 TOPS, bzw. FLOPS an Rechenleistung mit einfacher Genauigkeit (INT8 oder FP8) zur Verfügung stellen. Damit liegt man deutlich über den kolportierten 20 TOPS, die aktuell gefordert werden. Selbst die nächste Generation des AI-PC mit einer Mindestanforderung von 100 TOPS würde man damit einhalten.
Daher unterscheidet NVIDIA hier zwischen einem "Basic AI PC" und nach eigener Definition einem "Premium AI PC".
Die "überlegene" Leistung des "Premium AI PC" nutzt NVIDIA zudem aktuell bereits. Da wären DLSS, Ray Reconstruction, aber auch einzelne Funktionen der Avatar Cloud Engine (ACE) verwenden KI-Techniken. Zuletzt veröffentlichte NVIDIA eine neue Version von ChatRTX mit integrierten LLMs, bzw. Verknüpfungen zwischen LLMs und beispielsweise Bilddatenbanken – hier wird ebenfalls die Grafikkarte genutzt.
Am Ende definiert Microsoft, welche Komponenten für den AI-PC genutzt werden. Die NPU hat durchaus den Vorteil, dass sie besonders energieeffizient ist. Das Inferencing von ChatRTX auf GeForce-RTX-Karten wird ebenfalls auf den Tensor-Kernen und damit effizient ausgeführt. NVIDIA sieht sich hier in den eigenen Augen aus dem Scheinwerferlicht der AI-PCs entfernt. Ob Microsoft die dedizierten Karten zukünftig unter die Definition "AI-PC" mit aufnimmt, bleibt abzuwarten.