Intel: GPUs sind schneller als CPUs

SileX86

Enthusiast
Thread Starter
Mitglied seit
02.03.2006
Beiträge
784
Ort
Zelt
<p><img style="margin: 10px; float: left;" alt="intel3" src="images/stories/logos/intel3.jpg" width="100" height="100" />Was die Rechenleistung aktueller Prozessoren angeht, haben die Grafikprozessoren - oder GPUs - im Vergleich zu den CPUs deutlich aufgeholt und können diese bei bestimmten Aufgaben sogar weit überflügeln. Der Prozessor-Hersteller <a target="_blank" href="http://www.intel.com">Intel</a> wollte mit dem Mythos aufräumen, dass GPUs 100-mal schneller seien als CPUs und hatte diesbezüglich einen Vergleichstest angefertigt. Dabei wurde die Leistung eines Intel Core i7-960 der <a target="_blank" href="http://www.nvidia.com">NVIDIA</a>-Grafikkarte GeForce GTX 280 gegenübergestellt. Als <a target="_blank"...<p><a href="/index.php?option=com_content&view=article&id=15788&catid=34&Itemid=99" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Aber GPUs können keine CPUs ersetzen, wie soll man x86 auf GPUs eines tages nutzen können?
warum macht sich Intel überhaupt gedanken?
 
Aber GPUs können keine CPUs ersetzen, wie soll man x86 auf GPUs eines tages nutzen können?
Larrabee und/oder Fusion ...
warum macht sich Intel überhaupt gedanken?
Na les mal die Überschrift, es ging darum, dass GPUs nicht 100x schneller sind. War eventuell mal ne vollmundige nVidia Marketingaussage. Ergebnis ist jetzt, dass ne betagte GT260 "nur" 16x schneller ist. Tolles Ergebnis, das Intel sich traut das zu sagen ... glauben sie wirklich, dass das jetzt viel besser ist ? :lol:
Vor allem ist die Glaubwürdigkeit jetzt viel höher, da es ja von Intel selbst kommt.
 
Zuletzt bearbeitet:
Vielleicht kann man ja bald mal am Prozessor sparen und dafür ne dicke Pixelschleuder einbauen^^
 
Warum bald? Ich verweise mal auf den thread im Graka Forum. Da hat jemand ein CFx mit 4x 5870 gemacht und erst bei einer solchen Grafikpower eine Limitierung der CPU Leistung eines I7 920 festgestellt. Ich weiss nicht jeder ist ein Gamer. Aber wer Rechenpower im Prof. Bereich braucht hat meistens auch entsprechende Workstationhardware...

Ich würde sagen, das CUDA ect. ein Schritt in die richtige Richtung sind aber halt eben nicht opensource. Man stelle sich vor, wie die Marktanteile von Intel purzeln würden wenn man Musik, Videos ect. zu 100% auf der GPU berechnen lassen könnte und die CPU nur noch die Infos \"verteilen\" muss was ja heute die Aufgabe der NB ist (oder? :-S)
Ist schon irgendwie komisch, wie Hersteller, nicht nur Intel natürlich, versucht ihre Produkte einen besseren Ruf zu verpassen und damit total ins Aus zielen. Sogar mit einer GTX280 müssen sie sich geschlagen geben. Die 280 war in etwa der gleiche schnellschuss wie die 480 (finde ich). Wie siehts den z.b mit einer 480 oder einer 295 aus? o_O
 
Zuletzt bearbeitet:
Warum bald? Ich verweise mal auf den thread im Graka Forum. Da hat jemand ein CFx mit 4x 5870 gemacht und erst bei einer solchen Grafikpower eine Limitierung der CPU Leistung eines I7 920 festgestellt. Ich weiss nicht jeder ist ein Gamer. Aber wer Rechenpower im Prof. Bereich braucht hat meistens auch entsprechende Workstationhardware...

Ich würde sagen, das CUDA ect. ein Schritt in die richtige Richtung sind aber halt eben nicht opensource. Man stelle sich vor, wie die Marktanteile von Intel purzeln würden wenn man Musik, Videos ect. zu 100% auf der GPU berechnen lassen könnte und die CPU nur noch die Infos \"verteilen\" muss was ja heute die Aufgabe der NB ist (oder? :-S)
Ist schon irgendwie komisch, wie Hersteller, nicht nur Intel natürlich, versucht ihre Produkte einen besseren Ruf zu verpassen und damit total ins Aus zielen. Sogar mit einer GTX280 müssen sie sich geschlagen geben. Die 280 war in etwa der gleiche schnellschuss wie die 480 (finde ich). Wie siehts den z.b mit einer 480 oder einer 295 aus? o_O


Das ist nicht ganz richtig, ein i7 975 auf 5Ghz ist zu langsam

für 3 5870er Karten.

Ich habe dies selbst getestet.
 
@Duplex X86 gehört eigentlich schon lange in die Tonne nur leider ist die Umstellung zu schwer, da der alte Misst nimmer laufen würde.
 
@bol: Hast du diesen Thread damals gemacht?
Laut den Tests darin skalieren die 3 Karten noch recht gut. Erst die vierte kann keinen wirklichen Leistungsschub mehr erzeugen. Kommt wohl etwas auf die Anwendung an.
 
Ein Hummer ist abseits der Straße um ein vielfaches schneller wie ein Formel 1 Wagen.

Solche Themen sind ja ganz nett aber es bringt nichts die hälfte zu verschweigen.
 
Ein Hummer ist abseits der Straße um ein vielfaches schneller wie ein Formel 1 Wagen.

Solche Themen sind ja ganz nett aber es bringt nichts die hälfte zu verschweigen.

:bigok:


Und wenn man mal bedenkt, wie viel schneller eine CPU sein könnte, wenn man nicht die Altlasten mitschleppen müsste. Und generell: Ein Vergleich hinkt, da die komplette Architektur eine andere ist. Ist doch logisch, dass beide Vorteile haben.
 
Sind die ATI Karten nicht so um 4 mal schneller als Nvidias, was GFlops von Grakas angeht?
 
Fairerweise sollte man aber auch mal die Leistungsaufnahme miteinbeziehen. Würde eine Nvidia GPU mit der Energie der Intel CPU auskommen müssen, dann wäre die Lücke nochmals kleiner.
 
Ich verstehe nicht ganz, warum man diesen Vergleich zwischen CPU und GPU immer wieder sucht.
Grafikkarten sind flott wenn man passende Aufganben dafür hat, das ist kein Geheimnis mehr.

Um parallel Daten zu verarbeiten gibt es ja auch schon SSE-Einheiten, mit AVX wird die CPU nochmal ca. um Faktor 2 flotter und kann trozdem nciht mithalten. Klar könnte man die Einheiten jetzt Aufbohren oder mehr davon verbauen, dann könnten die CPUs bei paralleler Datenverarbeitung besser mithalten, aber was bringts wenn bei vielen 0815 Programmen von diesen Einheiten jetzt schon kein Gebrauch gemacht wird?
 
Dito... das Thema ist doch schon total ausgelutscht... wofür kommen nächstes Jahr die ersten APUs (AMD LIano) raus die beide Welten miteinander verbinden - wird schon seinen Grund haben hm... :hmm:

Aber das nVidia da wiedermal Oberwasser kriegt war ja klar - die sollten mal an ihrer Kundenpräsentation und sinnvollen Grafikkarten arbeiten um wieder bissle Ruf wiederzugewinnen, als sich über solche total offensichtlichen Kleinigkeiten zu freuen. :rolleyes: :shot:
 
Zuletzt bearbeitet:
@Duplex X86 gehört eigentlich schon lange in die Tonne nur leider ist die Umstellung zu schwer, da der alte Misst nimmer laufen würde.

Das ist so nicht korrekt. x86 als Solches ist kein Hindernis, wie man ja auch im Markt sieht. Die beiden grössten Prozessorhersteller bauen x86er ;). Und es gab eine riesige Menge anderer Befehlssätze, aber keiner setzte sich durch. Ich bin der festen überzeugung, dass der Befehlssatz als Solches heute so wenig Einfluss hat, dass er nicht behindernd wirkt, auch wenn er Nachteile hat und total veraltet ist. Man darf ja auch nicht vergessen, dass x64 die grössten Schwachpunkte (z.B. die zu niedrige Anzahl der direkt ansprechbaren Register) behoben hat. Man sieht ja, was das in der Realität bringt: Bisher nix. So gering ist der Einfluss des Befehlssatzes ;).



Der Vergleich mit GPUs ist und bleibt kompletter Unsinn. Eine GPU ist keine CPU, sondern eine Art Coprozessor für einen bestimmten Zweck. Eine CPU adressiert den gesamten Speicher und alle Geräte des Systems, die CPU ist der Computer.
 
Zuletzt bearbeitet:
@Duplex:
Aber GPUs können keine CPUs ersetzen, wie soll man x86 auf GPUs eines tages nutzen können?

x86 ist überholt. die architektur ist zwar immer wieder etwas modifiziert worden über all die jahre, aber die anforderungen haben sich seit beginn der pc doch massiv verändert und x86 ist einfach ineffizient. bei gpus hat man die architektur mehrfach grundlegend verändert und immer wieder zeitgemäße architekturen eingebracht. (z. b. unified shader architektur)
im bereich der effizienten prozessoren setzt sich aktuell arm durch und kann imho auf mittelfristige sicht systeme wie netbooks für sich gewinnen. da stehen dann hersteller wie apple und ggf sogar google dahinter. und nvidia ist ja da mit tegra auch vertreten. vorteil: intels quasi-monopol würde wackeln und wir hätten viel mehr wettbewerb :)
 
Zuletzt bearbeitet:
Nachmal: x86 mag zwar überholt sein aber a.) es bremst nix und b.) sind die derzeitigen x86-CPUs alles andere als echte x86-CPUs, sondern Hybriden. Intern nutzen diese Prozessoren ihre eigenen Befehlssätze. x86 ist kein Hindernis, deswegen gibts auch keinen Grund den Befehlssatz zu ändern. Da würde auch nix wackeln am Wettbewerb. Ob ARM oder x86 - die Befehle müsste sowieso dekodiert und umgewandelt werden. Der Vorteil von ARM ist nur der, dass man damit kleine native Chips bauen kann. Das ist aber irrelevant für den PC-Markt. ARM müsste genauso dekodiert werden wie x86, damit gibts einfach keinen Vorteil. Ich sags nochmal: Der Befehlssatz ist das Letzte, was den PC-Prozessor bremst oder dessen Recheneffizienz beeinflusst.

GPUs haben ihre eigene Architektur und werden vom Treiber nativ angesprochen. Das ist nicht vergleichbar, da GPUs keine CPUs sind. Hier übernimmt vielmehr die CPU das dekodieren durch den Treiber. Grafik bremst das aber nicht, weil die dadurch entstehende Latenz zu vernachlässigen ist. Also bitte nicht alles durcheinanderwerfen.
 
Zuletzt bearbeitet:
Naja, ich nehme an, dass es garnicht schwer ist, eine leistungsstarke GPU mit einem x86-CPU-Part zu ergänzen. Demnach hat Intel einfach GPU-Chips auf dem Markt, die ihren CPU-Chips nicht das Wasser reichen können, während die Konkurrenz bereits jetzt GPUs hat, die die Rechenleistung der CPUs von Intel in einigen Bereichen mit Leichtigkeit übertrumpfen können. Einer davon stellt parallel dazu CPUs her und könnte die \"Lösung aus einer Hand\" oder auch den \"Rechenkern der Zukunft\" sehr viel schneller bereitstellen, als Intel.
Genau das ist der Grund, warum man im CPU-Bereich mit den Muskeln spielt und auf der anderen Seite trotz offensichtlicher Arbeiten im Bereich GPU versucht, das Thema unwichtig erscheinen zu lassen oder es zumindest so wirken zu lassen, als sei diese Technologie erst in ferner Zukunft ein ernstes Thema - in einer Zukunft, in dem man selbst dann auch die nötigen Schritte gegangen ist und mit einer ausgereiften Technologie aufwarten kann.
 
Der Vergleich CPU und GPU gewinnt halt immer mehr an Bedeutung weil die GPUs dank CUDA, Direct Compute etc. immer mehr können.

Stichworte sind hier wohl RISC und CISC. CPUs waren früher CISC und sind mittlerweile Hybride mit Schwerpunkt CISC. Und GPUs sind eigentlich reine RISC bzw. Abwandlungen davon wobei hier die Bezeichnung nicht verwendet wird weil sie ja keine "Computer" in dem Sinn sind.

Kurz erklärt: CISC sind sehr viel komplexer und können viel mehr als RISC - die jedoch in Ihren Anwendungsbereichen deutlich schneller sind als CISC.

Nachdem nun aber Grafikkarten immer mehr Arbeiten als blos "grafik Anzeigen" können und schon einige komplexere Berechnungen durchführen können ist der Vergleich mit CPUs schon okay. Wer weiß? Vielleicht gibt es irgendwann in der Zukunft gar keine Trennung zwischen CPU und GPU mehr? Wenn beide Seiten sich immer mehr aneinander annähern (CPUs durch starke Hardwareanpassungen und GPUs durch starke Softwareanpassungen) wäre dies in Zukunft denkbar.

Aktuell die zwei (i7 und GTX280) zu vergleichen ist noch etwas dumm. Dazu sind die beiden noch nicht nahe genug aneinander. Man hat ja schon früher als die ersten 3D Beschleuniger Karten rauskamen gesehen was eine GPU (Direct3D HAL Rendering [Hardware]) gegen eine CPU die in Software (Direct3D Software Rendering) rechnet erreichen kann. Dabei hiessen die Chips auf den Grafikkarten damals nicht mal "GPU" da sie eben zu wenige Funktionen beherrschten und zu starr waren um als GPU zu gelten. Offizell ging die Bezeichnung erst mit der GeForce 3 los die eben programmierbare Shader Einheiten hatte.
Allerdings kann eine GPU noch lange keine CPU ersetzen. Aber warten wir ab was die Zukunft bringt ...
 
Zuletzt bearbeitet:
@[HOT]: das ist auch nicht mehr ganz korrekt. fermi beispielsweise dekodiert sprachen wie c++ direkt auf der gpu (via cuda).
was eine denkbare option wäre: eine arm-cpu in den chipsatz integrieren und sämtliche rechenlast auf eine unsiverselle gpgpu auszulagern. vom watt/leistungsverhältnis wäre das dem heutigen system deutlich überlegen und durch den universellen aufbau deutlich vielseitiger. allerdings ist die frage, was mit den etablierten befehlssatzerweiterungen passieren wird.
die software muss sich jedenfalls deutlich verändern, wenn man vom antiquierte, aber halt etablierten system auf ein modernes wechseln will.

was ich mir mal wünschen würde, um das ganze mal in der praxis zu sehn, wäre ein netbook auf tegra2-basis mit gf9400-grafik und win ce. und dadrauf würd ich dann gerne mal spiele sehen. was ist da wohl möglich? denke mal, alles was man unter linux zum laufen bekommt, sollte sich auch auf win ce (wenn von ms so gewollt) realisieren lassen. mit einer anpassung von direct x für win ce sollte dann das gros technisch schon umsetzbar sein. der rest würde sich dann mit der zeit ergeben.

aber intel ist viel zu mächtig und zu reich, als dass sich effizientere systeme durchsetzen können. intel wird das zepter nicht freiwillig aus der hand geben.
 
@[HOT]: das ist auch nicht mehr ganz korrekt. fermi beispielsweise dekodiert sprachen wie c++ direkt auf der gpu (via cuda).
Nein. Ich habe es glaube ich schon etliche Male erläutert, C++ ist eine plattformunabhängige Sprachdefinition. Hardware macht hier erstmal überhaupt nichts. Fermi kann lediglich für ihn bereitgestellten Maschinencode verarbeiten, genauso wie andere Prozessoren auch. Dieser Maschinencode kann als Quelle eine CUDA Anwendung haben, die bezüglich Semantik auf C++ basiert. Das kann aber genauso gut auch eine andere Programmiersprache sein. Und ein entsprechend bereitgestellter Maschinencode kann genauso gut auch von anderer Hardware verarbeitet werden. Also immer schön trennen und nicht so viel PR Folien lesen, Programmiersprache und Maschinencode sind zwei gänzlich verschieden Sachen.
 
es geht nicht darum, obs hard- oder softwareseitig dekodiert wird, sondern auf welchem chip ;)
wie [HOT] schon richtig sagte, war das bislang aufgabe der cpu. mit cuda hat nvidia allerdings meines wissens auch eine technologie zur direkten umwandlung von programmiersprache in maschinencode eingeführt. wobei das eben nur sprachen betrifft, die in cuda integriert sind.
aber damit ist ein weiterer schritt auf dem weg zur autonomen gpgpu gemacht.

wie gesagt, ich halte es durchaus für möglich, die notwendigen aufgaben einer cpu auf einer extrem sparsamen arm-cpu rechnen zu lassen und bsp noch das os und diesen arm-kern im chipsatz unterzubringen wie aktuell die igp.

dann hätte man als einen "basisrechner" auf arm-basis mit igp (also ein extrem sparsames soc) und alle leistungsmerkrelavanten komponenten wie ram, gpu, hdd... wären optional zu ergänzen.

aber wie gesagt, so ein szenario wird intel zu verhindern wissen. denn damit würden sie nicht nur die kontrolle über amd durch x86-lizensen verlieren, sondern es wäre auch nvidia wieder im spiel, weil sie nicht mehr durch chipsatzlizensentzug vom markt ferngehalten werden könnten. nvidia könnte ja eigene soc-chips herstellen, wenn arm statt x86 die basis wäre. und dann kämen auch konkurrenten wie apple und ibm wieder mit eigenen soc-chips ins spiel.

das ist eigentlich das, was mir daran am besten gefällt, es hat nicht mehr ein weltkonzern den daumen auf der lizens und lässt grad noch so viel konkurrenz zu, dass die wettbewerbshüter nicht einschreiten, sondern wir hätten einen freien markt, in dem jeder mitmischen kann, der ne arm-cpu und nen sparsamen grafikchip zustandebekommt. ;)
zwar ist arm auch kein freier standart, aber die lizensen sind schon sehr stark gestreut.
hach ja, schöne neue welt *träum* ^^
 
Zuletzt bearbeitet:
Wer dekodiert denn den C++-Code? Richtig! Der CUDA-Layer. Und wer rechnet diesen? Richtig! Die CPU! Und was passiert, nachdem der Code von CUDA bearbeitet wurd? Er wandert zum Treiber, wird doch in native Steuerbefehle und Daten für die GPU übersetzt. Wer macht das? Ach ja, die CPU natürlich. Was bekommt die GPU also? Nur Code und Daten, mit der sie auch was anfangen kann, so als hilfloser Coprozessor. Es ist äußerst missverständlich, ich weiss. Aber es hat sich im PC eben doch grundlegend nichts geändert, außer, dass die GPU zu einem spezialisierten Vektorprozessor geworden ist, aber auf absehbare Zeit eben nicht mehr. Sie soll gar keine CPU ersetzen. Es ist sogar vielmehr so, dass die GPU als Solche irgendwann als FPU des Prozessores arbeiten wird (in AMDs Fall jedenfalls). Die GPU ist im Prinzip nichts anderes als die FPU, welche nur schon seit ewigen Zeiten als Coprozessor integriert wurde. Man erinnere sich an 286/386er Zeiten, da gab es auf Teuren Platinen 2 Chips, einen x86-Prozessor und einen x87-Coprozessor. Eine GPU ist nichts anderes als dieser Coprozessor. Alleine völlig hilflos.
Wird jetzt endlich deutlich, warum ich den GPU/CPU-Vergleich so absolut absurd finde? Man vergleicht einen Computer mit einer Rechenmaschine. Beide haben stärken, aber sie sind einfach nicht vergleichbar.
 
Zuletzt bearbeitet:
Der CUDA-Layer. Und wer rechnet diesen? Richtig! Die CPU!

und genau das meine ich anders gelesen zu haben. wenn ich das richtig verstanden habe, dann soll cuda unmittelbar auf der gpu dekodiert werden können. kann natürlich sein, dass ich das missverstanden habe.

ab den treibern ist dann wieder die cpu dran, das stimmt. aber das bewältigt eine arm-cpu mit links ;)

mir gehts vor allem darum, die rechenlast, die von anwendungen und spielen verursacht wird, auf die gpu auszulagern. das system als solches kann von jeder cpu beweltigt werden und wenns sogar ein moderner arm wie der tegra2 ist, dann kann windows noch komplett mit auf der cpu laufen. die eigentliche rechenarbeit sollten dann aber die shader der gpgpu erledigen. so ist meine stark vereinfachte vorstellung davon.

nicht umsonst setzten immer mehr supercomputer auf gpu-lösungen. vom kleinen fastra (II) der uni antwerpen bis hin zum “Nebulae”, der die aktuelle Nr. 2 der top 500 supercomputer ist.
 
"Auslagern" ist dabei das entscheidende Wort. Du programmierst in C++ Code, den du an die GPU quasi adressierst. Das Ganze ist also für den Nutzer transparent gestaltet und erzeugt die Illusion, als ob man direkt die GPU programmieren würde. Das ist aber nicht der Fall. Man programmiert die CPU, damit sie bestimmte Daten an die GPU weitergibt und rechnen lässt.
Für echten Vektorcode ist die CPU denkbar schlecht geeignet. Sie hat eigentlich nur skalare Ausführungseinheiten, denen man mit Tricks etwas Vektorfähigkeit entlockt, in dem man die Breite der FPU aufteilt oder mehrere Passes rechnen lässt (SIMD-Befehlssätze wie 3DNow!, SSE, AVX) - Die GPU ist hervorragend geeignet für Vektorcode, weil sie darauf eben spezialisiert ist. Das ist der einzige Grund, warum es CUDA, OpenCL usw. überhaupt gibt. Mit einer etwaigen Integration von GPU-Ausführungseinheiten in den Prozessor wird dieses ganze Modell wieder hinfällig.
 
Zuletzt bearbeitet:
Mit einer etwaigen Integration von GPU-Ausführungseinheiten in den Prozessor wird dieses ganze Modell wieder hinfällig.

Das natürlich nicht, Stichwort TDP. ;) Bei einer CPU kannst du insgesamt 125W, vielleicht 150W maximal abführen. Eine GPU kann locker die 200W knacken, selbst die 300W haben wir schon erreicht. Selbst wenn du jetzt 75W der CPU-TDP für zusätzliche integrierte Streamprozessoren opfern möchtest, hast du vielleicht 1/4 der realisierbaren Leistungsfähigkeit einer dezidierten GPU. Das ist maximal unteres Mainstreamniveau und wird GPUs als solche keinesfalls überflüssig machen - allenfalls den Einstiegsbereich. ;)
 
aproppos tdp, das erinnert mich an was:
The graphics processors are also relatively power efficient. The Nebulae system which uses 4,640 Tesla chips, consumes about 2.55 megawatts compared to about 7 MW for Jaguar.
Supercomputing: CPU oder GPU? | HWMAG

gpu sind auch sparsamer als cpu bei ähnlicher rechenleistung^^

@[HOT]: mal ganz gezielt zu meinem fiktiven model (sparsamer arm als teil des chipsatz, hauptrechenlast auf die grafikkarten ausgelagert), wie würdes du das ganze beurteilen vergleichen mit dem heutigen system? software würde selbstredend an das system angepasst werden, is ja logisch...
 
Wer dekodiert denn den C++-Code? Richtig! Der CUDA-Layer. Und wer rechnet diesen? Richtig! Die CPU! Und was passiert, nachdem der Code von CUDA bearbeitet wurd? Er wandert zum Treiber, wird doch in native Steuerbefehle und Daten für die GPU übersetzt. Wer macht das? Ach ja, die CPU natürlich. Was bekommt die GPU also? Nur Code und Daten, mit der sie auch was anfangen kann, so als hilfloser Coprozessor. Es ist äußerst missverständlich, ich weiss. Aber es hat sich im PC eben doch grundlegend nichts geändert, außer, dass die GPU zu einem spezialisierten Vektorprozessor geworden ist, aber auf absehbare Zeit eben nicht mehr.
Hätte es wohl nicht besser formulieren können.

mir gehts vor allem darum, die rechenlast, die von anwendungen und spielen verursacht wird, auf die gpu auszulagern. das system als solches kann von jeder cpu beweltigt werden und wenns sogar ein moderner arm wie der tegra2 ist, dann kann windows noch komplett mit auf der cpu laufen. die eigentliche rechenarbeit sollten dann aber die shader der gpgpu erledigen. so ist meine stark vereinfachte vorstellung davon.
Dann hast du aber eine ziemlich verquere Vorstellung. Die "eigentliche Rechenarbeit" werden die Shader nicht übernehmen. Heute nicht und morgen auch nicht. Das wird die Aufgabe der CPU bleiben. Wie [HOT] schon sagte, die GPU fungiert vielmehr als Coprozessor, der bestimmte hoch parallele Aufgaben schneller und effizienter erledigen kann. Nicht mehr und nicht weniger. Für serielle Taks ist eine GPU hingegen nicht zu gebrauchen.

Übrigens, wer glaubt, ARM wäre als CPU für alles locker ausreichend, den muss ich enttäuschen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh