Hmm ... ein Quad Core A9, sollte aber ziemlich weit reichen, falls man moderne multithread Software hat.Übrigens, wer glaubt, ARM wäre als CPU für alles locker ausreichend, den muss ich enttäuschen.
Problem ist halt das "falls" ... ^^
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Hmm ... ein Quad Core A9, sollte aber ziemlich weit reichen, falls man moderne multithread Software hat.Übrigens, wer glaubt, ARM wäre als CPU für alles locker ausreichend, den muss ich enttäuschen.
grundsätzlich bliebe bei der integrierten cpu ja ein wesentlicher teil dieser aufgaben, und die machen wohl eher eine geringe rechenlast aus. der aufbau der software würde ja auf die massive parallele rechenleistung der systeme angepasst werden. dem arm kämen wohl eher die aufgaben zu wie damals einer 286er cpu: os-unterbau (kernel) und bindeglied hardware<->treiber. schon die os-benutzeroberfläche würde auf den gpu laufen. vermutlich wäre ein tegra2 schon vollkommen überdimensioniert für solch primitive aufgabenFür serielle Taks ist eine GPU hingegen nicht zu gebrauchen.
Und da Intel das wahrscheinlich nicht will, wird es wohl auch nix mit dem Abstoßen von x86...
Das will sicher nicht nur Intel nicht, sondern das will so richtig keiner...
Denn der heutige PC Markt lebt doch von den ganzen Anwendungen die es derzeit gibt, von kleinen Tools, die teils auch Freeware sind und dem ganzen drum und dran.
Ich würde mal behaupten, wenn man dieses Gebilde jetzt einreißen würde, würde der PC Markt ansich extremst zusammenbrechen.
Und auch ich wäre ehrlich gesagt nicht wirklich bereit tausende von Euro in neue Lizenzen zu stecken, nur weil man vllt mit anderen Techniken ein paar Prozente rausholen kann, was die Leistung betrifft.
Wenn man so überschlägt, was die letzten Jahre passiert ist, dann hat man wohl einen Wechsel weg von x86 mehr oder weniger verschlafen... Der Zug ist in meinen Augen abgefahren...
Wenn man wirklich weg von x86 will, müsste man über Jahre hinweg erstmal quasi kostenfrei für die ganzen Leute zwitter Lösungen bereitstellen, was erheblichen Mehraufwand bedeuten würde.
Dazu kommt eben noch die Tatsache, das nicht nur privat Personen sondern auch Firmen teils noch auf Technik setzen, die schon mehrere Jahre auf dem Buckel haben. Man würde so den kompletten Markt zu einem Neukauf zwingen. Das ist heutzutage einfach nicht mehr drin, wo quasi ohne PC gar nix mehr geht...
Gut, das stimmt sicher auch, die Frage bleibt eben dabei, wie lange man mit x86 noch gut fahren kann...
Was genau ist dein Problem mit x86 und was wäre für dich ein Alternative dazu?Gut, das stimmt sicher auch, die Frage bleibt eben dabei, wie lange man mit x86 noch gut fahren kann...
Gibt Prototypenbrettchen, die dem schon recht nahe kommen, z.B:Im Prinzip kann man auch einen PC-Prozessor mit ARM-Befehlssatz bauen, also einen hinreichend komplexen, nicht mehr nativen Prozessor mit ARM-Frontend. Bisher wagte das aber keiner oder gibts da Bemühungen?
Gab mal in der ct den netten Hinweis, dass ein kompletter ARM Cortex A9 Kern so viel Fläche braucht wie der x86 Decoder des Intel AtomsWas genau ist dein Problem mit x86 und was wäre für dich ein Alternative dazu?
Welche integrierte CPU? Eine CPU wird nicht integriert, niemals.grundsätzlich bliebe bei der integrierten cpu ja ein wesentlicher teil dieser aufgaben
Aber nicht so, wie du dir das vielleicht vorstellst. Eine CPU ist und bleibt das Herzstück jedes Systems und übernimmt grundlegend sämtliche Aufgaben. Daran werden auch GPUs nichts ändern. Auf diesen wird weder die Benutzeroberfläche noch sonst irgendwas laufen. Erst wenn die Software der Meinung ist, es braucht grafische Darstellung oder eine Aufgabe kann effizient in parallele "Micro Tasks" zerlegt werden, kommt die GPU ins Spiel, als Rechensklave. Verabschiedet euch mal bitte von dem Gedanken, dass eine GPU die CPU ersetzt. Das wird nicht passieren.der aufbau der software würde ja auf die massive parallele rechenleistung der systeme angepasst werden.
Das will sicher nicht nur Intel nicht, sondern das will so richtig keiner...
Denn der heutige PC Markt lebt doch von den ganzen Anwendungen die es derzeit gibt, von kleinen Tools, die teils auch Freeware sind und dem ganzen drum und dran.
Und auch ich wäre ehrlich gesagt nicht wirklich bereit tausende von Euro in neue Lizenzen zu stecken, nur weil man vllt mit anderen Techniken ein paar Prozente rausholen kann, was die Leistung betrifft.
das problem ist die geringe effiziens. hättest du vor 50 jahren gefragt, wer ein problem mit einem 30ps auto mit 10 litter verbrauch hat, hätte auch keiner eins damit gehabt. willst du heute sowas noch fahren?Was genau ist dein Problem mit x86 und was wäre für dich ein Alternative dazu?
in meinem vorschlag sprach ich ja davon, die arm-cpu im chipsatz zu integrieren (ähnlich heutigen igp) bei der geringen fläche und dem geringen verbrauch sollte das kein thema sein.Welche integrierte CPU? Eine CPU wird nicht integriert, niemals.
darum geht es ja auch gar nicht. ein arm ist eine cpu! ich spreche nur von einer verschiebung der gewichtung und dem wegfall der antiquierten und nicht mehr zeitgemäßen x86-architektur. was glaubst du denn, warum x86-prozessoren mit immer mehr kernen (derzeit 12 kerne mal 2 threads = 24 threads) entwickelt werden? um den vorteil der gpus zu nutzen: parallelisierbarkeit. damit nähert man sich ja schon der gpu an. und die gpu nähern sich der cpu an (siehe featureset fermi, cache etc.).Verabschiedet euch mal bitte von dem Gedanken, dass eine GPU die CPU ersetzt. Das wird nicht passieren.
Laut c't ist selbst ein Intel Atom schneller als der im iPad verbaute A4 Cortex Prozessor. Ich meine mich zu erinnern das der Atom alles mögliche ist nur keine effiziente CPU.@AMD-Rules:
das problem ist die geringe effiziens. hättest du vor 50 jahren gefragt, wer ein problem mit einem 30ps auto mit 10 litter verbrauch hat, hätte auch keiner eins damit gehabt. willst du heute sowas noch fahren?
und die alternative habe ich ja schon genannt: gpgpu in verbindung mit sehr effizienten arm-kernen.
[..]
darum geht es ja auch gar nicht. ein arm ist eine cpu! ich spreche nur von einer verschiebung der gewichtung und dem wegfall der antiquierten und nicht mehr zeitgemäßen x86-architektur. was glaubst du denn, warum x86-prozessoren mit immer mehr kernen (derzeit 12 kerne mal 2 threads = 24 threads) entwickelt werden? um den vorteil der gpus zu nutzen: parallelisierbarkeit. damit nähert man sich ja schon der gpu an. und die gpu nähern sich der cpu an (siehe featureset fermi, cache etc.).
die optimale lösung liegt in der mitte und kommt imho ohne x86 befehlassatz aus. obs jetzt ein arm mit gpgpu fürs "grobe" ist oder eine ganz andere lösung, kann ich nicht sagen. ich bin halt nur von bestehender technologie ausgegangen...
Laut c't ist selbst ein Intel Atom schneller als der im iPad verbaute A4 Cortex Prozessor. Ich meine mich zu erinnern das der Atom alles mögliche ist nur keine effiziente CPU.
Die Arm-CPUs sind energieeffizient in ihrem geringen Leistungssprektrum. Atom ist kein wirklicher Massstab, weil er weit weg von der Perfektion ist. Würdest du einen PC-Prozessor, der ja nunmal recht viel Leistung braucht, mit einem A9-Befehlssatz bauen, wäre der kaum sparsamer als ein x86er.[...]
das problem ist die geringe effiziens. hättest du vor 50 jahren gefragt, wer ein problem mit einem 30ps auto mit 10 litter verbrauch hat, hätte auch keiner eins damit gehabt. willst du heute sowas noch fahren?
und die alternative habe ich ja schon genannt: gpgpu in verbindung mit sehr effizienten arm-kernen.
[...]
Laut c't ist selbst ein Intel Atom schneller als der im iPad verbaute A4 Cortex Prozessor. Ich meine mich zu erinnern das der Atom alles mögliche ist nur keine effiziente CPU.
Wie ich schon sagte, eine CPU wird niemals integriert. Wenn, dann werden maximal Bestandteile des Chipsatzes in die CPU integriert, so wie es zB AMD schon seit 2003 macht.in meinem vorschlag sprach ich ja davon, die arm-cpu im chipsatz zu integrieren (ähnlich heutigen igp) bei der geringen fläche und dem geringen verbrauch sollte das kein thema sein.
Schon lustig, wie Leute ständig meinen, x86 sei antiquiert und nicht mehr zeitgemäss, ohne das geringste dieser ISA zu kennen. Nichts von dem zitierten Text wird geschehen. Es wird auf absehbare Zeit weder eine Verschiebung der Gewichtung geben, noch wird x86 wegfallen.ein arm ist eine cpu! ich spreche nur von einer verschiebung der gewichtung und dem wegfall der antiquierten und nicht mehr zeitgemäßen x86-architektur.
Ja, Parallelisierung von Threads (TLP). GPUs sind hingegen für ILP interessant, also wie zB MMX, 3DNow oder SSE. Parallelisierung ist nicht gleich Parallelisierung. Auch hier gibt es verschiedene Ebenen.was glaubst du denn, warum x86-prozessoren mit immer mehr kernen (derzeit 12 kerne mal 2 threads = 24 threads) entwickelt werden? um den vorteil der gpus zu nutzen: parallelisierbarkeit.
Deine Meinung schön und gut, sie hat aber wenig mit der Wirklichkeit zu tun. Mach dir aber nichts daraus, die meisten verstehen das nicht. Entscheidend ist der Markt, speziell was Softwareverbreitung und -entwicklung betrifft. x86 hat einen riesigen Vorteil, es gibt Unmengen an Build Tools, Frameworks, Bibliotheken, etc. Und das wird nicht so schnell verschwinden. Schon gar nicht, wenn AMD und Intel den Grossteil des Prozessormarktes behaupten. Was glaubst du wohl, warum Itanium gescheitert ist? Ganz einfach, weil er keine konkurrenzfähige Softwarebasis hatte.die optimale lösung liegt in der mitte und kommt imho ohne x86 befehlassatz aus.
Der Markt würde vllt davon provitieren, durch den Verkauf von Lizenzen, aber wer soll das bitte bezahlen? Wenn die Endkunden nicht bereit sind, um alles auf den Kopf zu stellen alles neu zu kaufen, dann kann der Markt noch so viel potentiel dran verdienen... Wenn es niemand kauft, dann gibts kein Umsatz.@fdsonne:
warum sollte das keiner wollen? linux und co laufen auch auf alternativen systemen und hersteller kommerzieller software wollen mit sicherheit neue software verkaufen, statt dass die alten produkte weiterverwendet werden und sie nix mehr verdienen
vieles müsste zwar portiert werden auf neue engines, aber da verdienen ja auch viele dran. und so ein wechsel vollzieht sich ja so nach und nach...
imho wäre intel der einzige richtige verlierer dabei.
wenn du dir die neue version deiner software holst, was spricht dagegen, die gpu/arm-version statt der (mutmaßlich gleichteuren) x86-version zu kaufen? bis dahin kannste ja mit deiner alten kiste weiterarbeiten...
einziger nachteil: wenn du dir ein neues system kaufst (gpu/arm) und die alte software weiter nutzen willst, geht das nur per emulator. aber das wäre wohl eher die ausnahme und auch nur in der übergangsphase der fall.
dass sich der wechsel nicht schlagartig vollziehen würde, dürfte klar sein. aber im grunde hat er ja schon angefangen. laufend kommen meldungen über neue gpu-beschleunigte software wie browser oder grafikprogramme. die anwendungen für mobilgeräte auf arm-basis werden auch immer aufwendiger. ein windows ce kann sich neben älteren windowsversionen durchaus sehen lassen.
es ist nicht so, dass plötzlich ein schnitt erfolgt und von jetzt auf gleich alles anders wird. wenn ist es ein schleichender prozess.
bald kommt wer auf die idee, mal ein kleines netbook auf tegra2-basis rauszubringen, dann kommt von apple wieder ein neues lifestyle-produkt mit immer ausgereifteren apps auf arm-basis, bei den grafikprogrammen hält open-cl immer mehr einzug, immer mehr programme bauen auf gpu-beschleunigung... und irgendwann ist der x86-befehlssatz obsolent und wird nur noch für uraltsysteme mit dx9 grafik und älter im code mitgeschleift.
bis dahin hätte sich die arm-leistung massiv gesteigert und ähnlich von core i7 hexcore bis atom gäbs auch beim arm klassen für ultra mobile geräte wie handys bis hin zum hochleistungs arm für desktop-pc mit "windows 8 ce"
Du vergisst nur ein entscheidendes Detail dabei. Es wird nicht so kommen. Weder kann ARM sämtliche Marktsegmente abdecken, Performance und Plattform wird auch in Zukunft Grenzen haben, noch hat Tegra irgendeine Bedeutung. Die "fusionierten" Lösungen kommen in erster Linie von AMD und Intel. Und die werden auch weiterhin x86 Technik verbauen.so würde sich das vollziehen, wenns denn so kommt.
Kein Nachteil? Ich glaube, du verkennst die Thematik gewaltig. AMD müsste erstmal ein konkurrenzfähiges Non-x86 CPU Design entwickeln. Und das ist eine Angelegenheit von vielen Jahren. Das kann man, wenn man ausreichend Ressourcen hat, nebenbei machen. Aber deswegen werden die aktuellen Designs nicht obsolet. Und dass Bobcat weiterhin auf x86 setzt, zeigt schon, wohin es geht.und ich bezweifle dass amd etwas gegen diese entwicklung hätte. sie würden doch als einer der ersten davon profitieren. erfahrungen mit soc sammelt amd ja bereits jetzt und der grafikteil ist bei amd einer der höchstentwickelten und intel um welten überlegen. wenn die abhängigkeit von intels x86 dann nicht mehr gegeben wäre, wo sollte da ein nachteil für amd sein? ich sehe aus sicht von amd eigentlich nur vorteile...
Willst du also x86 ablösen, dann muss jegliche Software neu geschrieben werden, alle vorhandenen Bibliotheken und frei verwendbarer Programmcode kann in die Tonne wandern und man fängt absolut von Null an und baut alles neu...
Also ganz so schlimm ist es nicht. Hochsprachencode ist ja meistens unabhängig von der darunterliegenden Hardware. Es gibt auch eine Reihe von Projekten, die für unterschiedlichste Plattformen gepflegt werden. Aber wie so oft, der Fehlerteufel steckt im Detail. Auf die Entwickler käme trotzdem enorm viel Arbeit zu, von Build Tools, über SDKs und Bibliotheken bis hin zur eigentlichen Anwendung. Eine Transition, die viele Jahre dauern würde. Die Zeit hast du in diesem Business eigentlich nicht.Willst du also x86 ablösen, dann muss jegliche Software neu geschrieben werden, alle vorhandenen Bibliotheken und frei verwendbarer Programmcode kann in die Tonne wandern und man fängt absolut von Null an und baut alles neu...
Nein, tue ich nicht. Mir ist schon klar, dass du einen ausgedehnten Zeitrahmen meinst. Es wird trotzdem nicht passieren. x86 wird nicht verschwinden. Nicht auf absehbare Zeit. Und die Märchen, die du hier ständig verbreitest, x86 wäre stromhungrig, veraltet, bla bla bla, entsprechen genauso wenig den Tatsachen. Ich kann dir nur empfehlen, dich wirklich mal mit diversen ISAs und Mikroarchitekturen auseinander zu setzen. Dann wirst du schnell merken, dass alles seine Vor- und Nachteile hat. Das gilt für x86 genauso wie für ARM.@mr.dude: auch du scheinst zu glauben, dass sowas auf komando und von einem tag auf den anderen gemacht wird.
Da bist du aber äusserst naiv. Bis auf versierte Kunden, die einen sehr geringen Prozentsatz ausmachen, kaufen Kunden das, was von der Werbung angepriesen oder vom Verkäufer angeboten wird.sie kaufen immer das, was für sie besser ist. und wenn ein netbook mit arm mit 14 stunden akkulaufzeit weniger kostet als ein netbook mit intel atom und 10 stunden akkulaufzeit, dann werden sich sicher viele für ersteres entscheiden.
wie kommst du jetzt dadrauf? Oô warum du jetzt versuchst mich in eine fanboyschublade zu stecken, musste mir mal erklären. dass ich mich gegen intels monopol ausspreche, macht mich nicht automatisch zu einem nvidia-fanboy. wenn dann zu einem amd-fanboy (was bis zum core2duo sogar gestimmt hätte).Irgendwie habe ich das Gefühl, du suchst einen Vorwand, damit nVidia keine eigene x86 CPU braucht.
mit der werbung hast du recht. wobei ich auch apple eine gute werbecampgne zutraue.Da bist du aber äusserst naiv. Bis auf versierte Kunden, die einen sehr geringen Prozentsatz ausmachen, kaufen Kunden das, was von der Werbung angepriesen oder vom Verkäufer angeboten wird.
Davon habe ich kein Wort geschrieben. Aber es ist schon seltsam, wie du hier gegen x86 schiesst. Und nVidia ist der einzige der grossen GPU Hersteller, der diesbezüglich nichts zu bieten hat. Deshalb liegt der Gedanke nahe. Aber vielleicht kannst du ja mal ganz konkret erklären, warum x86 verschwinden wird. Und bitte mehr als oberflächliche Floskeln wie x86 Rechner wären klobig oder x86 wäre stromhungrig. Das sind Meinungen bzw Vorurteile, keine Fakten.wie kommst du jetzt dadrauf? Oô warum du jetzt versuchst mich in eine fanboyschublade zu stecken, musste mir mal erklären. dass ich mich gegen intels monopol ausspreche, macht mich nicht automatisch zu einem nvidia-fanboy. wenn dann zu einem amd-fanboy (was bis zum core2duo sogar gestimmt hätte).
Jup, Prozessordesign und Fertigungstechnik sind im Endeffekt entscheidender als die ISA. Die beste ISA nützt dir nichts, wenn du diese nicht in effizientes Silizium umsetzen kannst, und zwar langfristig.Es lag eben nicht an der ISA, sondern am Prozessordesign.