Intel: GPUs sind schneller als CPUs

@mr.dude: der erste, der davon profitieren würde, wäre apple. zugegeben ich bin kein großer intel-fan und hab in meinem bekanntenkreis früher doch recht erfolgreich amd-rechner empfohlen, so dass letzten endes keiner meiner bekannten sich einen netburst angetan hat. eigentlich bin ich generell gengen monopolisten, was wohl sicher meine ansicht bezüglich x86 negativ beeinflusst.
auf der anderen seite wird dir sicher nicht entgangan sein, dass intel auch amd immer wieder mit der x86-lizens unter druck setzt (siehe diverse rechtsstreite gegen amd, zuletzt androhung von lizensentzug, weil amd nicht mehr selbst fertigt sondern durch die veräußerung von gf jetzt offiziell fremdfertigen lässt). glaubst du wirklich, dass amd dankbar für diese abhängigkeit ist?
dennoch ist es zumindest so, dass die nackte rechenleistung je watt bei heutigen gpus deutlich höher im schnitt ausfällt als bei x86-cpus und dass eine x86-cpu nicht sparsam genug sein kann, um in einem smartphone untergebracht und mit einem arm konkurrieren zu können, sonst hätte intel (die ja in dem bereich auch entwickeln und forschen) schon sicherlich längst einen "atom-light" für ultramobile geräte rausgebracht. an den zahlen von apple, die vorwiegend auf ipod und ipad sowie dem iphone beruhen, sieht man gut, wie wichtig dieser markt inzwischen geworden ist.

wie gesagt, die anwendungen auf arm-systemen kommen immer näher an die (einfacheren) anwendungen auf x86-systemen heran (win ce, ms office, diverse browser, portierungen von pc-spielen...), auf der anderen seite werden besonders rechenintensive anwendungen immer häufiger auf die gpu ausgelagert.

das ergibt für mich, dass für die einfachen aufgaben ein sparsamer arm vollkommen reicht, für besonders rechenintensive aufgaben häufig die gpu die schnellere und effizientere alternative ist.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
So einfach ist es leider nicht. Es gibt Unmengen von Tasks, die eine schnelle serielle Befehlsabarbeitung benötigen - dafür ist weder ein einfacher ARM noch eine auch noch so schnelle GPU geeignet.
 
der erste, der davon profitieren würde, wäre apple.
Wieso sollte Apple davon profitieren? Das musst du mir erklären.

auf der anderen seite wird dir sicher nicht entgangan sein, dass intel auch amd immer wieder mit der x86-lizens unter druck setzt
Ehrlich gesagt habe ich davon noch nie etwas mitbekommen. Intel versucht zwar schon mal ein bisschen Stress deswegen zu machen. Aber das hat letztendlich keine Basis. Deswegen braucht sich AMD keine Gedanken machen. Nicht zuletzt, da sie x86-64 in der Hinterhand haben. Und spätestens nach dem letzten Abkommen sollte auch das Thema ad acta gelegt sein. AMD kann nun seine CPUs bei GloFo fertigen, wie sie lustig sind. Unabhängig davon, dass die Werke nun ausgegliedert sind.

dennoch ist es zumindest so, dass die nackte rechenleistung je watt bei heutigen gpus deutlich höher im schnitt ausfällt als bei x86-cpus und dass eine x86-cpu nicht sparsam genug sein kann, um in einem smartphone untergebracht und mit einem arm konkurrieren zu können, sonst hätte intel (die ja in dem bereich auch entwickeln und forschen) schon sicherlich längst einen "atom-light" für ultramobile geräte rausgebracht.
Erstmal sind GPUs hauptsächlich für parallelisierbare Workloads auf ILP Ebene gut. Es gibt und wird immer Workloads geben, die auf dieser Ebene jedoch nicht parallelisierbar sind. Viele alltäglich genutzte Algorithmen wie Suchen/Sortieren oder Datenstrukturen wie Binärbäume lassen sich so oft schwierig oder teilweise gar nicht parallelisieren. Da nützt dir eine GPU dann nichts, mag sie für ihre Aufgabengebiete auch noch so effizient sein.
Und zeige mir erstmal eine ARM CPU, die die gleiche Performance wie eine x86 CPU liefert. Dann können wir uns nochmal über Performance pro Watt unterhalten. Die Steigerung der Performance ist bei gleichem Grad an Parallelisierung immer mit exponentieller Leistungsaufnahme verbunden. Das sind keine Neuigkeiten. Zudem übersiehst du das wichtigste. Niemand nutzt nur die CPU, es gehört immer eine Plattform dazu. Und wenn die CPU zwar nur 1 Watt braucht, der Rest der Plattform aber 20 Watt, dann ist das kein Fortschritt gegenüber einem System, wo die CPU 5 Watt braucht und der Rest nur 15 W. Ganz im Gegenteil, wenn das letztere System dazu auch noch das deutlich schnellere und reaktionsfreudigere ist, dann nimmt man die paar Watt mehr für die CPU gerne in Kauf.
 
[...]

das ergibt für mich, dass für die einfachen aufgaben ein sparsamer arm vollkommen reicht, für besonders rechenintensive aufgaben häufig die gpu die schnellere und effizientere alternative ist.

Genau da liegt aber das Problem. Die meisten Aufgaben kann die GPU eben nicht besser lösen, selbst wenn sie viel Parallelität benötigen. Man siehe z.B. ein Spiel, dass verschiedene Steuer- und Arbeitsthreads hat. Diese Struktur ist so komplex und voneinander abhängig, dass eine GPU nicht damit umgehen kann. Die GPU kann nur eines: Viele nicht voneinander unabhängige Aufgaben rechnen. Eine GPU kann z.B. die Rechenlast wie in Programmen wie Cinema4D übrnehmen, aber sie können keine KI-Strukturen berechnen. Dinge, die sich mit SIMD (Single Instruction Multiple Data), maximal aber MIMD lösen lassen, kann die GPU übernehmen, sonst nix. Grob gesagt kann eine GPU genau das verarbeiten, was die CPU zur FPU schickt, aber nicht mehr.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh