Intel: GPUs sind schneller als CPUs

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Im Prinzip kann man auch einen PC-Prozessor mit ARM-Befehlssatz bauen, also einen hinreichend komplexen, nicht mehr nativen Prozessor mit ARM-Frontend. Bisher wagte das aber keiner ;) oder gibts da Bemühungen?
 
also kurz zum thema arm und leistung: bisher hat noch keiner arm auf leistung optimiert sondern primär immer auf verbrauch. wenn einem arm eine tdp von sagen wir mal 10 watt zugestanden würde, könnte man deutliche leistungssteigerungen vornehmen.
multicore wäre bei meiner idee für den arm eher uninteressant, wenn die eigentliche rechenlast ohnehin ausgelagert würde.

Für serielle Taks ist eine GPU hingegen nicht zu gebrauchen.
grundsätzlich bliebe bei der integrierten cpu ja ein wesentlicher teil dieser aufgaben, und die machen wohl eher eine geringe rechenlast aus. der aufbau der software würde ja auf die massive parallele rechenleistung der systeme angepasst werden. dem arm kämen wohl eher die aufgaben zu wie damals einer 286er cpu: os-unterbau (kernel) und bindeglied hardware<->treiber. schon die os-benutzeroberfläche würde auf den gpu laufen. vermutlich wäre ein tegra2 schon vollkommen überdimensioniert für solch primitive aufgaben ;)

heute ist alles auf x86 + befehlssatzerweiterungen ausgelegt und darum hat die x86-cpu eine entsprechen hohe bedeutung. imho könnte man das auf dauer aber durchaus ändern wenn jeder mitspielt (was wohl von intel nicht zu erwarten ist ;) )
 
Und da Intel das wahrscheinlich nicht will, wird es wohl auch nix mit dem Abstoßen von x86...
 
Und da Intel das wahrscheinlich nicht will, wird es wohl auch nix mit dem Abstoßen von x86...

Das will sicher nicht nur Intel nicht, sondern das will so richtig keiner...
Denn der heutige PC Markt lebt doch von den ganzen Anwendungen die es derzeit gibt, von kleinen Tools, die teils auch Freeware sind und dem ganzen drum und dran.

Ich würde mal behaupten, wenn man dieses Gebilde jetzt einreißen würde, würde der PC Markt ansich extremst zusammenbrechen.


Und auch ich wäre ehrlich gesagt nicht wirklich bereit tausende von Euro in neue Lizenzen zu stecken, nur weil man vllt mit anderen Techniken ein paar Prozente rausholen kann, was die Leistung betrifft.

Wenn man so überschlägt, was die letzten Jahre passiert ist, dann hat man wohl einen Wechsel weg von x86 mehr oder weniger verschlafen... Der Zug ist in meinen Augen abgefahren...
Wenn man wirklich weg von x86 will, müsste man über Jahre hinweg erstmal quasi kostenfrei für die ganzen Leute zwitter Lösungen bereitstellen, was erheblichen Mehraufwand bedeuten würde.
Dazu kommt eben noch die Tatsache, das nicht nur privat Personen sondern auch Firmen teils noch auf Technik setzen, die schon mehrere Jahre auf dem Buckel haben. Man würde so den kompletten Markt zu einem Neukauf zwingen. Das ist heutzutage einfach nicht mehr drin, wo quasi ohne PC gar nix mehr geht...
 
Das will sicher nicht nur Intel nicht, sondern das will so richtig keiner...
Denn der heutige PC Markt lebt doch von den ganzen Anwendungen die es derzeit gibt, von kleinen Tools, die teils auch Freeware sind und dem ganzen drum und dran.

Ich würde mal behaupten, wenn man dieses Gebilde jetzt einreißen würde, würde der PC Markt ansich extremst zusammenbrechen.


Und auch ich wäre ehrlich gesagt nicht wirklich bereit tausende von Euro in neue Lizenzen zu stecken, nur weil man vllt mit anderen Techniken ein paar Prozente rausholen kann, was die Leistung betrifft.

Wenn man so überschlägt, was die letzten Jahre passiert ist, dann hat man wohl einen Wechsel weg von x86 mehr oder weniger verschlafen... Der Zug ist in meinen Augen abgefahren...
Wenn man wirklich weg von x86 will, müsste man über Jahre hinweg erstmal quasi kostenfrei für die ganzen Leute zwitter Lösungen bereitstellen, was erheblichen Mehraufwand bedeuten würde.
Dazu kommt eben noch die Tatsache, das nicht nur privat Personen sondern auch Firmen teils noch auf Technik setzen, die schon mehrere Jahre auf dem Buckel haben. Man würde so den kompletten Markt zu einem Neukauf zwingen. Das ist heutzutage einfach nicht mehr drin, wo quasi ohne PC gar nix mehr geht...

Gut, das stimmt sicher auch, die Frage bleibt eben dabei, wie lange man mit x86 noch gut fahren kann...
 
Gut, das stimmt sicher auch, die Frage bleibt eben dabei, wie lange man mit x86 noch gut fahren kann...

Wenn man so will ist x86 ansich eigentlich nicht wirklich das Problem, wie oben schon mehrfach erleutert wurde.

So ehrlich versteh ich die Aufregung auch nicht. Es gibt im Moment nicht wirklich einen Grund von x86 weg zu gehen.



Ebenso werfe ich mal die Thematik in den Raum, das ja hier im Vergleich von ca. 2,5 mal so schnell wie eine CPU gesprochen wird.
Wenn man mal aktuelle PCs von Großmärken ansieht, Quadcore CPUs sind dort idR überall drin. Sprich der User bekommt annähernd gleich schnelle CPUs wie hier getestet für wenig Geld.
Andersrum gesehen bei den GPUs ist das aber idR gänzlich anders, die meisten GPUs werden wohl deutlich mehr als den Faktor 2,5 langsamer sein im Durchschnitts PC als eine hier getestete.

Es würde also unterm Strich auch wenig bringen, noch mehr Aufgaben permanent an die GPU zu binden. Wo doch das Leistungspotential aktueller CPUs durch idR schlechte Multithreaded Umsetzung vieler Anwendungen lange nicht ausgeschöpft ist. Und gerade auch weil der Test ja auf Anwendungen abziehlt, die paralleles Abarbeiten der Aufgaben vorraussetzt, damit die GPU wirklich punkten kann.
 
Ich hab keine Probleme mit x86, ganz im Gegenteil. Im Moment gibt's ja auch keine richtige Alternative...
 
Im Prinzip kann man auch einen PC-Prozessor mit ARM-Befehlssatz bauen, also einen hinreichend komplexen, nicht mehr nativen Prozessor mit ARM-Frontend. Bisher wagte das aber keiner ;) oder gibts da Bemühungen?
Gibt Prototypenbrettchen, die dem schon recht nahe kommen, z.B:
BeagleBoard.org - hardware-xM

Alles drauf was man so braucht, aber der A8 Prozessor ist sicher noch etwas lahm ... kosten tuts 179 Dollar. In Massenherstellung wärs sicherlich günstiger.


Was genau ist dein Problem mit x86 und was wäre für dich ein Alternative dazu?
Gab mal in der ct den netten Hinweis, dass ein kompletter ARM Cortex A9 Kern so viel Fläche braucht wie der x86 Decoder des Intel Atoms :xmas:
Also da frag ich mich schon, was da alles verbraten wird.

Aber Ersatz gibts so schnell natürlich nicht, eventuell erarbeitet sich ARM mit den Mehrkern CPUs einen kleinen Marktanteil im Nettop Bereich. Solange es dann ein Flash Plugin gibt, und Internet läuft, wird vielen egal sein, was im Gehäuse drin steckt.

ciao

Alex
 
Zuletzt bearbeitet:
grundsätzlich bliebe bei der integrierten cpu ja ein wesentlicher teil dieser aufgaben
Welche integrierte CPU? Eine CPU wird nicht integriert, niemals.

der aufbau der software würde ja auf die massive parallele rechenleistung der systeme angepasst werden.
Aber nicht so, wie du dir das vielleicht vorstellst. Eine CPU ist und bleibt das Herzstück jedes Systems und übernimmt grundlegend sämtliche Aufgaben. Daran werden auch GPUs nichts ändern. Auf diesen wird weder die Benutzeroberfläche noch sonst irgendwas laufen. Erst wenn die Software der Meinung ist, es braucht grafische Darstellung oder eine Aufgabe kann effizient in parallele "Micro Tasks" zerlegt werden, kommt die GPU ins Spiel, als Rechensklave. Verabschiedet euch mal bitte von dem Gedanken, dass eine GPU die CPU ersetzt. Das wird nicht passieren.
 
ohh man Nvidia muss mal wieder rumprotzen, dabei hat die 5770 1360 GFlops und die GTX285 nur 1060 obwohl doppelt so teuer. NV macht sich wirklich keine Freunde, ich weiss wirklich nicht was das soll, wenn jemand wirklich gut ist dann braucht der doch nicht über andere herzuziehen.

Kann aber Intel eigentlich voll egal sein, weil die haushoher Marktführer sind, da ist NV nur ein kleiner Fisch dagegen
 
@fdsonne:
Das will sicher nicht nur Intel nicht, sondern das will so richtig keiner...
Denn der heutige PC Markt lebt doch von den ganzen Anwendungen die es derzeit gibt, von kleinen Tools, die teils auch Freeware sind und dem ganzen drum und dran.

warum sollte das keiner wollen? linux und co laufen auch auf alternativen systemen und hersteller kommerzieller software wollen mit sicherheit neue software verkaufen, statt dass die alten produkte weiterverwendet werden und sie nix mehr verdienen ;)
vieles müsste zwar portiert werden auf neue engines, aber da verdienen ja auch viele dran. und so ein wechsel vollzieht sich ja so nach und nach...

imho wäre intel der einzige richtige verlierer dabei.

Und auch ich wäre ehrlich gesagt nicht wirklich bereit tausende von Euro in neue Lizenzen zu stecken, nur weil man vllt mit anderen Techniken ein paar Prozente rausholen kann, was die Leistung betrifft.

wenn du dir die neue version deiner software holst, was spricht dagegen, die gpu/arm-version statt der (mutmaßlich gleichteuren) x86-version zu kaufen? bis dahin kannste ja mit deiner alten kiste weiterarbeiten...

einziger nachteil: wenn du dir ein neues system kaufst (gpu/arm) und die alte software weiter nutzen willst, geht das nur per emulator. aber das wäre wohl eher die ausnahme und auch nur in der übergangsphase der fall.

@AMD-Rules:
Was genau ist dein Problem mit x86 und was wäre für dich ein Alternative dazu?
das problem ist die geringe effiziens. hättest du vor 50 jahren gefragt, wer ein problem mit einem 30ps auto mit 10 litter verbrauch hat, hätte auch keiner eins damit gehabt. willst du heute sowas noch fahren?
und die alternative habe ich ja schon genannt: gpgpu in verbindung mit sehr effizienten arm-kernen.

@mr.dude:
Welche integrierte CPU? Eine CPU wird nicht integriert, niemals.
in meinem vorschlag sprach ich ja davon, die arm-cpu im chipsatz zu integrieren (ähnlich heutigen igp) bei der geringen fläche und dem geringen verbrauch sollte das kein thema sein.

Verabschiedet euch mal bitte von dem Gedanken, dass eine GPU die CPU ersetzt. Das wird nicht passieren.
darum geht es ja auch gar nicht. ein arm ist eine cpu! ich spreche nur von einer verschiebung der gewichtung und dem wegfall der antiquierten und nicht mehr zeitgemäßen x86-architektur. was glaubst du denn, warum x86-prozessoren mit immer mehr kernen (derzeit 12 kerne mal 2 threads = 24 threads) entwickelt werden? um den vorteil der gpus zu nutzen: parallelisierbarkeit. damit nähert man sich ja schon der gpu an. und die gpu nähern sich der cpu an (siehe featureset fermi, cache etc.).
die optimale lösung liegt in der mitte und kommt imho ohne x86 befehlassatz aus. obs jetzt ein arm mit gpgpu fürs "grobe" ist oder eine ganz andere lösung, kann ich nicht sagen. ich bin halt nur von bestehender technologie ausgegangen...
 
Zuletzt bearbeitet:
@AMD-Rules:
das problem ist die geringe effiziens. hättest du vor 50 jahren gefragt, wer ein problem mit einem 30ps auto mit 10 litter verbrauch hat, hätte auch keiner eins damit gehabt. willst du heute sowas noch fahren?
und die alternative habe ich ja schon genannt: gpgpu in verbindung mit sehr effizienten arm-kernen.
Laut c't ist selbst ein Intel Atom schneller als der im iPad verbaute A4 Cortex Prozessor. Ich meine mich zu erinnern das der Atom alles mögliche ist nur keine effiziente CPU. :d
 
[..]

darum geht es ja auch gar nicht. ein arm ist eine cpu! ich spreche nur von einer verschiebung der gewichtung und dem wegfall der antiquierten und nicht mehr zeitgemäßen x86-architektur. was glaubst du denn, warum x86-prozessoren mit immer mehr kernen (derzeit 12 kerne mal 2 threads = 24 threads) entwickelt werden? um den vorteil der gpus zu nutzen: parallelisierbarkeit. damit nähert man sich ja schon der gpu an. und die gpu nähern sich der cpu an (siehe featureset fermi, cache etc.).
die optimale lösung liegt in der mitte und kommt imho ohne x86 befehlassatz aus. obs jetzt ein arm mit gpgpu fürs "grobe" ist oder eine ganz andere lösung, kann ich nicht sagen. ich bin halt nur von bestehender technologie ausgegangen...

Vergiss die Verschiebung der Gewichtung mal schnell wieder. Das ist zwar was für SuperComputer, weil die eh massiv parallel arbeiten, aber nichts für den Rechner zuhause. Es ist umgekehrt, die GPU wird in die CPU integriert. Die GPU wird Teil der CPU sein. Du versuchst die CPU zu minimalisieren, weil du dem Irrtum erliegst, die CPU macht nurnoch ein paar wenige Aufgaben und rechnen tut dann die GPU. Die Gewichtung ist falsch. Die CPU macht heute fast alles, bis auf ganz wenige Rechentasks, die die GPU besser kann. Ein Spiel läuft vollständig auf die CPU, bis auf die Grafik ab dem Punkt, ab dem Geometrie erzeugt wird für die Optik. Und selbst das wird noch durch die CPU in Form des Treibers gesteuert.
Es ist oft schwer zu kapieren, weil die Grafik genau das ist, was man an einem Spiel sieht. Den gesamten anderen Rechenaufwand, der anfällt, der fällt eigentlich kaum auf, wenn man nicht weiss, was da passiert. Aber da läuft ja ein ganzes Spiel, ein irre komplexes Programm mit etlichen tausend Codezeilen. Die GPU als Parallelrechensklaven zu "missbrauchen" bringt neue Optionen für die Softwarehersteller, ändert aber nix am Grundsatz.

Laut c't ist selbst ein Intel Atom schneller als der im iPad verbaute A4 Cortex Prozessor. Ich meine mich zu erinnern das der Atom alles mögliche ist nur keine effiziente CPU. :d

Atom ist im Grunde nur ein Test (ein Atomtest :d), dafür war er sehr erfolgreich. Das kann mit fortscheitenden Fertigungsprozessen und mehr Erfahrung mit x86 im Embedded-Bereich noch erheblich besser werden. Mal sehen, was Ontario hier zu bieten hat, der ist wenigstens nicht iO.

[...]
das problem ist die geringe effiziens. hättest du vor 50 jahren gefragt, wer ein problem mit einem 30ps auto mit 10 litter verbrauch hat, hätte auch keiner eins damit gehabt. willst du heute sowas noch fahren?
und die alternative habe ich ja schon genannt: gpgpu in verbindung mit sehr effizienten arm-kernen.
[...]
Die Arm-CPUs sind energieeffizient in ihrem geringen Leistungssprektrum. Atom ist kein wirklicher Massstab, weil er weit weg von der Perfektion ist. Würdest du einen PC-Prozessor, der ja nunmal recht viel Leistung braucht, mit einem A9-Befehlssatz bauen, wäre der kaum sparsamer als ein x86er.
AFAIK hat AMD sogar Arm-Lizenzen. Trotzdem ist Ontario ein x86er, weil sich der Wechsel a.) nicht lohnt und b.) Windows nicht damit läuft.
 
Zuletzt bearbeitet:
@AMD-Rules: und eine 2900xt ist schneller als eine hd5450. welche von beiden ist denn wohl effizienter? ;)
die nackte geschwindigkeit hat damit wenig zu tun. eine gtx480 verbraucht deutlich mehr als ein intel quadcore-prozessor.
wie kanns dann, dass die gpu deutlich weniger strom bei gleicher leistung braucht?

@[HOT]: ja die igp wandert vom chipsatz in die cpu, aber dass intel das macht, heist ja nicht, dass intels lösung die technisch beste ist, sondern nur dass es die für intel wirtschaftlich beste ist ;)
aber brauchen wir auch gar nicht weiter zu vertiefen, weil dann müssten wir leistungsvergleiche von core i7 und fermi anstrengen und die variieren extrem je nach anwendung. das würde ne endlosdiskussion werden^^

ich persönlich glaube, dass die unified-shader architektur die deutlich effizientere für heutige anforderungen wäre und dass wir x86 auf dauer nicht zuletzt deshalb mit durchschleppen werden, weil es intel ihr quasimonopol erhält und sie nichts anderes zulassen würden.
wie es anders laufen könnte, wird wohl auf absehbare zeit reine spekulation bleiben (an der ich mich aber gerne beteilige ;) )
 
Laut c't ist selbst ein Intel Atom schneller als der im iPad verbaute A4 Cortex Prozessor. Ich meine mich zu erinnern das der Atom alles mögliche ist nur keine effiziente CPU. :d

So schlimm ist es gar nicht ;) Nicht vergessen, dass ein Atom pro Kern nur ~2W verbraucht, hochgerechnet auf eine übliche Desktop-CPU mit vielleicht ~80W für alle Kerne eine gar nicht mal schlechte Energieeffizienz.
 
in meinem vorschlag sprach ich ja davon, die arm-cpu im chipsatz zu integrieren (ähnlich heutigen igp) bei der geringen fläche und dem geringen verbrauch sollte das kein thema sein.
Wie ich schon sagte, eine CPU wird niemals integriert. Wenn, dann werden maximal Bestandteile des Chipsatzes in die CPU integriert, so wie es zB AMD schon seit 2003 macht.

ein arm ist eine cpu! ich spreche nur von einer verschiebung der gewichtung und dem wegfall der antiquierten und nicht mehr zeitgemäßen x86-architektur.
Schon lustig, wie Leute ständig meinen, x86 sei antiquiert und nicht mehr zeitgemäss, ohne das geringste dieser ISA zu kennen. :rolleyes: Nichts von dem zitierten Text wird geschehen. Es wird auf absehbare Zeit weder eine Verschiebung der Gewichtung geben, noch wird x86 wegfallen.

was glaubst du denn, warum x86-prozessoren mit immer mehr kernen (derzeit 12 kerne mal 2 threads = 24 threads) entwickelt werden? um den vorteil der gpus zu nutzen: parallelisierbarkeit.
Ja, Parallelisierung von Threads (TLP). GPUs sind hingegen für ILP interessant, also wie zB MMX, 3DNow oder SSE. Parallelisierung ist nicht gleich Parallelisierung. Auch hier gibt es verschiedene Ebenen.

die optimale lösung liegt in der mitte und kommt imho ohne x86 befehlassatz aus.
Deine Meinung schön und gut, sie hat aber wenig mit der Wirklichkeit zu tun. Mach dir aber nichts daraus, die meisten verstehen das nicht. Entscheidend ist der Markt, speziell was Softwareverbreitung und -entwicklung betrifft. x86 hat einen riesigen Vorteil, es gibt Unmengen an Build Tools, Frameworks, Bibliotheken, etc. Und das wird nicht so schnell verschwinden. Schon gar nicht, wenn AMD und Intel den Grossteil des Prozessormarktes behaupten. Was glaubst du wohl, warum Itanium gescheitert ist? Ganz einfach, weil er keine konkurrenzfähige Softwarebasis hatte.
Nochmal, du scheinst dem Irrglauben zu unterliegen, dass eine Shader Architektur, wie wir sie in aktuellen GPus finden, für GP Workloads geeignet wäre. Das ist sie aber definitiv nicht.
 
Zuletzt bearbeitet:
@fdsonne:

warum sollte das keiner wollen? linux und co laufen auch auf alternativen systemen und hersteller kommerzieller software wollen mit sicherheit neue software verkaufen, statt dass die alten produkte weiterverwendet werden und sie nix mehr verdienen ;)
vieles müsste zwar portiert werden auf neue engines, aber da verdienen ja auch viele dran. und so ein wechsel vollzieht sich ja so nach und nach...

imho wäre intel der einzige richtige verlierer dabei.
Der Markt würde vllt davon provitieren, durch den Verkauf von Lizenzen, aber wer soll das bitte bezahlen? Wenn die Endkunden nicht bereit sind, um alles auf den Kopf zu stellen alles neu zu kaufen, dann kann der Markt noch so viel potentiel dran verdienen... Wenn es niemand kauft, dann gibts kein Umsatz.

Und wie oben schon erwähnt, es ist nicht so, das der Durchschnitts PC User tagtäglich seine Software/seinen Rechner wechselt, sondern das geschieht vllt im 3-5 Jahres Abstand.
Dazu kommt, das bei nem neuen Rechner idR nicht auch gleich alles an Software neu gekauft wird.

Bei nem harten Umstieg, wie es hier der Fall wäre, würden wohl nur die wenigsten mitziehen. Sprich die Hersteller müssten ewig und drei Tage zweigleisig fahren.

Linux ist da auch so ein Thema, Linux lässt sich vllt schnell portieren, aber die ganzen Zusatztools usw. müssten alle samt umgeschrieben werden. Was erheblichen finanziellen Aufwand bedeutet.
Ebenso ist der Marktanteil von Linux lächerlich gering im Vergleich zu MS Betriebssystemen...



wenn du dir die neue version deiner software holst, was spricht dagegen, die gpu/arm-version statt der (mutmaßlich gleichteuren) x86-version zu kaufen? bis dahin kannste ja mit deiner alten kiste weiterarbeiten...

einziger nachteil: wenn du dir ein neues system kaufst (gpu/arm) und die alte software weiter nutzen willst, geht das nur per emulator. aber das wäre wohl eher die ausnahme und auch nur in der übergangsphase der fall.

Nich jeder ist bereit mehrere PCs Zuhause zu betreiben...
Wie gesagt, der Zug ist mehr oder weniger Abgefahren um einen derartigen Umstieg durchzudrücken.

Man schaue nur mal auf den Umstieg von AGP auf PCIe... Man ist Herstellerseitig gut zwei Jahre voll zweigleisig gefahren um alle Kunden bedienen zu können. Und es gibt jetzt noch quasi neue AGP Boards für aktuelle Sockel und neue AGP GPUs. Und da ging es nur um schnöde Grafikkarten. Wo die Masse aller PC User nie selbst am PC rumschrauben wird... Dennoch lief alle Software idR ohne Probleme weiter.
Aber hier wäre alle vorhandene Software umzustricken... Das ist heutzutage einfach nicht mehr realisierbar, wo ohne PCs quasi nix mehr geht.
 
dass sich der wechsel nicht schlagartig vollziehen würde, dürfte klar sein. aber im grunde hat er ja schon angefangen. laufend kommen meldungen über neue gpu-beschleunigte software wie browser oder grafikprogramme. die anwendungen für mobilgeräte auf arm-basis werden auch immer aufwendiger. ein windows ce kann sich neben älteren windowsversionen durchaus sehen lassen.
es ist nicht so, dass plötzlich ein schnitt erfolgt und von jetzt auf gleich alles anders wird. wenn ist es ein schleichender prozess. bald kommt wer auf die idee, mal ein kleines netbook auf tegra2-basis rauszubringen, dann kommt von apple wieder ein neues lifestyle-produkt mit immer ausgereifteren apps auf arm-basis, bei den grafikprogrammen hält open-cl immer mehr einzug, immer mehr programme bauen auf gpu-beschleunigung... und irgendwann ist der x86-befehlssatz obsolent und wird nur noch für uraltsysteme mit dx9 grafik und älter im code mitgeschleift.
bis dahin hätte sich die arm-leistung massiv gesteigert und ähnlich von core i7 hexcore bis atom gäbs auch beim arm klassen für ultra mobile geräte wie handys bis hin zum hochleistungs arm für desktop-pc mit "windows 8 ce"

so würde sich das vollziehen, wenns denn so kommt. und wie gesagt, es ist ja nicht so, dass es nicht schon angefangen hätte ;)
allerdings würde die entwicklung jahre dauern und ist eben von vielen einflüssen abhängig.

und ich bezweifle dass amd etwas gegen diese entwicklung hätte. sie würden doch als einer der ersten davon profitieren. erfahrungen mit soc sammelt amd ja bereits jetzt und der grafikteil ist bei amd einer der höchstentwickelten und intel um welten überlegen. wenn die abhängigkeit von intels x86 dann nicht mehr gegeben wäre, wo sollte da ein nachteil für amd sein? ich sehe aus sicht von amd eigentlich nur vorteile...
 
dass sich der wechsel nicht schlagartig vollziehen würde, dürfte klar sein. aber im grunde hat er ja schon angefangen. laufend kommen meldungen über neue gpu-beschleunigte software wie browser oder grafikprogramme. die anwendungen für mobilgeräte auf arm-basis werden auch immer aufwendiger. ein windows ce kann sich neben älteren windowsversionen durchaus sehen lassen.
es ist nicht so, dass plötzlich ein schnitt erfolgt und von jetzt auf gleich alles anders wird. wenn ist es ein schleichender prozess.

Nochmal, du hast nicht verstanden was unter der Decke alles passiert, wenn eine Berechnung auf die GPU ausgelagert wird... Lies dir dazu nochmal die Beiträge von mr.dude und [HOT] hier im Thread genauer durch.

Und nein, da hat rein gar nix von dem weiter oben von dir geschriebenen schon angefangen. Das einzige was angefangen hat ist die Auslagerung von bestimmten Berechnungen auf die GPU, weil diese eben der GPU gut liegen und man so starke Performancezuwächse verzeichnen kann... Nicht mehr und nicht weniger.
Aber selbst wenn man hier und da ein paar Anwendungen noch in Richtung GPU weiter entwickelt, bleiben die Aufgaben der CPU exakt identisch. Willst du also x86 ablösen, dann muss jegliche Software neu geschrieben werden, alle vorhandenen Bibliotheken und frei verwendbarer Programmcode kann in die Tonne wandern und man fängt absolut von Null an und baut alles neu... Das einzige was bestehen bleiben könnte, wäre der verschwindend kleine Teil, den aktuell die GPU bei ein paar wenigen Anwendungen übernimmt. Aber selbst da ist nicht ganz klar, ob man sachen wie Cuda, Stream oder OpenCL beim wechsel von x86 auf was anderes 1:1 weiterverwenden kann...

Das ist quasi der Punkt, den du derzeit nicht zu verstehen scheinst...


bald kommt wer auf die idee, mal ein kleines netbook auf tegra2-basis rauszubringen, dann kommt von apple wieder ein neues lifestyle-produkt mit immer ausgereifteren apps auf arm-basis, bei den grafikprogrammen hält open-cl immer mehr einzug, immer mehr programme bauen auf gpu-beschleunigung... und irgendwann ist der x86-befehlssatz obsolent und wird nur noch für uraltsysteme mit dx9 grafik und älter im code mitgeschleift.
bis dahin hätte sich die arm-leistung massiv gesteigert und ähnlich von core i7 hexcore bis atom gäbs auch beim arm klassen für ultra mobile geräte wie handys bis hin zum hochleistungs arm für desktop-pc mit "windows 8 ce"

Um das nochmal zu verdeutlichen, beim Wechsel weg von x86 fällt jegliche alte Software hinten runter, sprich alles was es aktuell gibt. Da ist nicht viel mit einfach mal so mitschleifen... Eine emulierte Architektur kann nie und nimmer die Leistung bringen, wie das ganze bringen würde, wenn man es richtig in Hardware umsetzen würde.

Ebenso sprichst du an, das sich die ARM Leistung vervielfältigen würde... Bleiben x86 basierte Produkte nun in der Entwicklung stehen? Das ist doch quatsch...
Das was andere Techniken über die Jahre an Leistung zulegen können, schaffen auch x86 CPUs.


Auch gilt es noch zu erwähnen, das derzeitige Standard Office PCs idR für alle allgemeinen Aufgaben vollkommen ausreichend sind. Die Anforderungen im Officebereich steigen sogut wie gar nicht.
Spezielle Fälle wie Games, 3D Rendering, Video/Audio Bearbeitung, CAD usw. sind sonderfälle, wo man durchaus mit GPUs massive Leistungszuwächse verspüren kann, aber das sind Randerscheinungen, die von der Masse wohl überhaupt nicht gebraucht werden.
 
so würde sich das vollziehen, wenns denn so kommt.
Du vergisst nur ein entscheidendes Detail dabei. Es wird nicht so kommen. ;) Weder kann ARM sämtliche Marktsegmente abdecken, Performance und Plattform wird auch in Zukunft Grenzen haben, noch hat Tegra irgendeine Bedeutung. Die "fusionierten" Lösungen kommen in erster Linie von AMD und Intel. Und die werden auch weiterhin x86 Technik verbauen.

und ich bezweifle dass amd etwas gegen diese entwicklung hätte. sie würden doch als einer der ersten davon profitieren. erfahrungen mit soc sammelt amd ja bereits jetzt und der grafikteil ist bei amd einer der höchstentwickelten und intel um welten überlegen. wenn die abhängigkeit von intels x86 dann nicht mehr gegeben wäre, wo sollte da ein nachteil für amd sein? ich sehe aus sicht von amd eigentlich nur vorteile...
Kein Nachteil? Ich glaube, du verkennst die Thematik gewaltig. AMD müsste erstmal ein konkurrenzfähiges Non-x86 CPU Design entwickeln. Und das ist eine Angelegenheit von vielen Jahren. Das kann man, wenn man ausreichend Ressourcen hat, nebenbei machen. Aber deswegen werden die aktuellen Designs nicht obsolet. Und dass Bobcat weiterhin auf x86 setzt, zeigt schon, wohin es geht.
 
Willst du also x86 ablösen, dann muss jegliche Software neu geschrieben werden, alle vorhandenen Bibliotheken und frei verwendbarer Programmcode kann in die Tonne wandern und man fängt absolut von Null an und baut alles neu...

du hast es immer noch nicht verstanden. da kommt nicht einfach einer und sagt "stop, wir stampfen jetzt alle x86 rechner ein und schreiben alle programme um", es gibt bereits massig anwendungen wie apps für apple. und die werden ebensowenig eingestampft. beides entwickelt sich ganz normal weiter, nur arm ungleich schneller als x86 und die marktanteile werden sich verschieben. und irgendwann werden mehr leute die gpu-beschleunigten grafikprogramme auf dem i-book mit sparsamer apple arm-cpu dem langsamen klobigen x86-rechner vorziehn. nicht nächste woche und auch nicht in einem jahr sondern über jahre hinweg.
da wird gar nichts umgeschrieben. wenn die mobilen geräte die leistung hergeben, werden die softwarehersteller ganz von alleine den markt für sich entdecken. dann gibt es plötzlich ein windows für arm-rechner, office für arm-rechner, browser für arm-rechner, klone von pc-spielen für arm-rechner... und wenn der anteil von arm-systemen größer als der für x86-pc ist (und das wird er wohl durch handy, smartphone, etc. zwangsläufig) werden die programme primär für arm entwickelt und auf x86 portiert, wie schon heute pc-spiele primär für konsole entwickelt werden. auch konsolen kommen ohne x86-prozessoren aus und verdrängen den pc immer stärker.

@mr.dude: auch du scheinst zu glauben, dass sowas auf komando und von einem tag auf den anderen gemacht wird. nochmal: es ist ein schleichender prozess, der jahre dauern wird und den die endkunden gar nicht mitbekommen werden. sie kaufen immer das, was für sie besser ist. und wenn ein netbook mit arm mit 14 stunden akkulaufzeit weniger kostet als ein netbook mit intel atom und 10 stunden akkulaufzeit, dann werden sich sicher viele für ersteres entscheiden. und schon haben sie den wechsel vollzogen. oder ein htpc mit kompletter linux-oberfläche (gibts wirklich sehr ausgefeilte, mit denen jeder dau umgehen kann). auch da wäre ein sparsamer und ggf lüfterloser rechner auf arm-basis die bessere alternative für die meisten leute. ein fileserver mit arm-cpu wäre deutlich sparsamer, etc.

wie du so definitv ausschließen kannst, dass andere systeme die stromhungrigen x86er ablösen könnten...
und wie gesagt, arm mit gpgpu-unterstützung für rechenintensive anwendungen ist ja nur eine mögliche option, die aber imho anhand der starken verbreitung von arm und deren enormes wachstum durch ipad und co relativ naheliegend ist.
 
Zuletzt bearbeitet:
Da kann man genausogut mit ner Mauer diskutieren. Du solltest dich mal damit beschäftigen, wie eine CPU intern arbeitet, sonst wirst du immer aus diesem Halbwissen falsche Schlüsse ziehen. Du verwechselst immernoch den Befehlssatz mit dem CPU-Design. Das sind zwei grundverschiedene Dinge.
Es gibt keine klobigen x86er und supereffiziente Arms. Es gibt CPUs mit verschiedenen Befehlssätzen, die für verschiedene Zwecke designt sind. Würdest du einen Arm bauen, der den Markt eines sagen wir mal Llano übernehmen soll, wäre er genauso "klobig" wie ein Llano. Er würde lediglich eine andere Sprache verstehen. Und einer GPU ist es furzpiepegal, welchen Befehlssatz der Prozessor hat.
Je kleiner die Fertigungsprozesse werden, desto eher kann man OoO-Hybrid-CPUs für jeden Zweck bauen und desto weniger spielt der Befehlssatz eine Rolle. Man könnte eher sagen, es hängt von der Marktmacht Intels ab und von den in Zukunft designten x86-CPUs, ob x86 Arm in vielen Märkten verdrängen kann oder nicht. Der Befehlssatz ist nur dafür da, die Kompatibilität zu wahren und hat schon heute in Wirklichkeit keine technische Relevanz mehr.
 
Zuletzt bearbeitet:
Willst du also x86 ablösen, dann muss jegliche Software neu geschrieben werden, alle vorhandenen Bibliotheken und frei verwendbarer Programmcode kann in die Tonne wandern und man fängt absolut von Null an und baut alles neu...
Also ganz so schlimm ist es nicht. Hochsprachencode ist ja meistens unabhängig von der darunterliegenden Hardware. Es gibt auch eine Reihe von Projekten, die für unterschiedlichste Plattformen gepflegt werden. Aber wie so oft, der Fehlerteufel steckt im Detail. Auf die Entwickler käme trotzdem enorm viel Arbeit zu, von Build Tools, über SDKs und Bibliotheken bis hin zur eigentlichen Anwendung. Eine Transition, die viele Jahre dauern würde. Die Zeit hast du in diesem Business eigentlich nicht.

@mr.dude: auch du scheinst zu glauben, dass sowas auf komando und von einem tag auf den anderen gemacht wird.
Nein, tue ich nicht. Mir ist schon klar, dass du einen ausgedehnten Zeitrahmen meinst. Es wird trotzdem nicht passieren. x86 wird nicht verschwinden. Nicht auf absehbare Zeit. Und die Märchen, die du hier ständig verbreitest, x86 wäre stromhungrig, veraltet, bla bla bla, entsprechen genauso wenig den Tatsachen. Ich kann dir nur empfehlen, dich wirklich mal mit diversen ISAs und Mikroarchitekturen auseinander zu setzen. Dann wirst du schnell merken, dass alles seine Vor- und Nachteile hat. Das gilt für x86 genauso wie für ARM. ;)
Irgendwie habe ich das Gefühl, du suchst einen Vorwand, damit nVidia keine eigene x86 CPU braucht. Das werden sie aber definitiv, wenn sie gegen AMDs Fusion oder Intels GPU Integration konkurrieren wollen. Tegra alleine wird gar nichts ausrichten. Und dass immer mehr potenzielle Kunden Tegra aufgeben, zuletzt Nintendo, macht es nicht besser.

sie kaufen immer das, was für sie besser ist. und wenn ein netbook mit arm mit 14 stunden akkulaufzeit weniger kostet als ein netbook mit intel atom und 10 stunden akkulaufzeit, dann werden sich sicher viele für ersteres entscheiden.
Da bist du aber äusserst naiv. Bis auf versierte Kunden, die einen sehr geringen Prozentsatz ausmachen, kaufen Kunden das, was von der Werbung angepriesen oder vom Verkäufer angeboten wird.
 
Aus der Perspektive hab ich das garnicht betrachtet. Ja, es wird sehr sehr eng für NV im PC-Markt, sollte NV keinen x86er entwickeln können. Wenn NV behauptet, man kann mit einem kleinen Arm und einer GPU einen PC ersetzen ist das pures Marketing ohne wirkliches Konzept. Denn den Markt für PCs wird NV damit definitiv nicht erreichen. Man erinnere sich daran, dass sogar Intel versucht hat, einen neuen Befehlssatz durchzusetzen und daran trotz 80%igem Marktanteil scheiterte, weil die Nachfrage nach Kompatibilität gewaltig ist und x86 eben in Wirklichkeit (vor allem in der x64 Version) keine technischen Nachteile mit sich bringt.
 
Zuletzt bearbeitet:
Irgendwie habe ich das Gefühl, du suchst einen Vorwand, damit nVidia keine eigene x86 CPU braucht.
wie kommst du jetzt dadrauf? Oô warum du jetzt versuchst mich in eine fanboyschublade zu stecken, musste mir mal erklären. dass ich mich gegen intels monopol ausspreche, macht mich nicht automatisch zu einem nvidia-fanboy. wenn dann zu einem amd-fanboy (was bis zum core2duo sogar gestimmt hätte).

Da bist du aber äusserst naiv. Bis auf versierte Kunden, die einen sehr geringen Prozentsatz ausmachen, kaufen Kunden das, was von der Werbung angepriesen oder vom Verkäufer angeboten wird.
mit der werbung hast du recht. wobei ich auch apple eine gute werbecampgne zutraue.
 
wie kommst du jetzt dadrauf? Oô warum du jetzt versuchst mich in eine fanboyschublade zu stecken, musste mir mal erklären. dass ich mich gegen intels monopol ausspreche, macht mich nicht automatisch zu einem nvidia-fanboy. wenn dann zu einem amd-fanboy (was bis zum core2duo sogar gestimmt hätte).
Davon habe ich kein Wort geschrieben. Aber es ist schon seltsam, wie du hier gegen x86 schiesst. Und nVidia ist der einzige der grossen GPU Hersteller, der diesbezüglich nichts zu bieten hat. Deshalb liegt der Gedanke nahe. Aber vielleicht kannst du ja mal ganz konkret erklären, warum x86 verschwinden wird. Und bitte mehr als oberflächliche Floskeln wie x86 Rechner wären klobig oder x86 wäre stromhungrig. Das sind Meinungen bzw Vorurteile, keine Fakten.
 
Apple wagte den Schritt zu einer neuen ISA vor ein paar Jahren. Allerdings betrachte ich Apple als geschlossenes System, von daher war eine Portierung möglich. Übrigens ist das auch ein schönes Beispiel, dass x86 eben doch effektiv ist. Denn Apple wechselte, weil die PPCs nicht mehr konkurrenzfähig waren. Die x86er waren einfach besser. Warum sollte sich jetzt also Arm besser eignen als x86? Du siehst, wie wenig Einfluss der Befehlssatz eigentlich hat. PPC galt jahrelang als effektiver und besser als x86, die Apple-Jünger wurden nicht müde, sich darüber auszulassen, wie man auf so einem uneffektiven PC arbeiten kann. Und dann kam der Wechsel... Es lag eben nicht an der ISA, sondern am Prozessordesign. Intel war einfach ein besserer Prozessorhersteller als IBM für diese Art an Desktop/Mobilrechnern.
Es gibt bisher keine Arm-Konkurrenz im PC-Markt. Es gibt nicht mal ansatzweise einen Versuch, einen 3GHz-OoO-Prozessor mit Arm-Befehlssatz zu bauen. Warum sollte Apple umsteigen? Weder Nutzer noch Hersteller werden auf die Performance freiwillig verzichten, die heutige PC-Prozessoren bieten. Sicher, das Wachstum der Nachfrage nach mehr Leistung verlangsamt sich, aber die Fertigung entwickelt sich auch weiter, somit kann man mit x86er weiter nach Unten in den Markt, siehe Atom, Nano, Neo und Ontario. x86 wildert also eher im Arm-Gefielden, nicht umgekehrt.
Aber Apple erwägt offenbar wieder den Hersteller zu welchseln, weil AMD effektivere GPUs baut und Apple ein Auge auf Fusion geworfen hat ;). Da die GPU in die CPU integriert wird, wird auch die Leistung für viele Anwendungen interessanter werden. Im Grunde könnten GPUs eher die FPUs ersetzen, als die CPUs.
 
Zuletzt bearbeitet:
Es lag eben nicht an der ISA, sondern am Prozessordesign.
Jup, Prozessordesign und Fertigungstechnik sind im Endeffekt entscheidender als die ISA. Die beste ISA nützt dir nichts, wenn du diese nicht in effizientes Silizium umsetzen kannst, und zwar langfristig.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh