Endgültige technische Details von AMDs "Trinity" geleakt?

mhab

[online]-Redakteur
Thread Starter
Mitglied seit
03.08.2007
Beiträge
3.900
<p><img src="images/stories/logos/AMD.jpg" width="100" height="100" alt="AMD" style="float: left; margin: 10px;" />In Asien sind einige neue Folien zu <a href="http://www.amd.de/" target="_blank">AMDs</a> kommender APU-Plattform "Trinity" aufgetaucht. So war bereits im Vorfeld bekannt, dass der Llano-Nachfolger auf die verbesserte Bulldozer-Architektur setzen wird und somit "Piledriver"-Rechenkerne integriert sein werden. Ebenfalls soll die Grafikeinheit verbessert werden und so in Zukunft bis zu 30 Prozent mehr Leistung bieten als dies bei den aktuellen APUs der Fall ist. Die höhere Leistung gegenüber Llano soll wohl zum großen Teil über die Taktfrequenz der Rechenkerne erreicht werden. Denn sind bisher nur Llano-Prozessoren mit bis zu 2,9 GHz auf den Markt zu finden, so soll sich...<p><a href="/index.php?option=com_content&view=article&id=20453&catid=34&Itemid=99" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Unglaublich toll für alle, die mal nen FM1-System aufrüsten wollen :wall: Und das mit der Anhebung der TDP ist m.M.n. der falsche Weg. Gesteigerte Performance bei höchstens gleichen Verlusten sollte eher das Ziel sein.
 
Seh ich auch so.
Das System hat seine Existenzberechtigung weil es sparsam genug CPU-Leistung mit ausreichender GPU-Leistung verbindet.
Wenn jetzt aber die Verlustleitung hoch gesetzt wird, dann verspielt man damit , zumidnest in meinen Augen, einen der Vorteile dieser Plattform.
 
Vorsicht- von der TPD kann man nicht auf den Energieverbrauch schließen.
Ich hoffe aber, dass Piledriver für Notebook wesentlich Energieeffizienter als Bulldozer ist.
 
Optimal wäre es, wenn die Modelle zu dem Punkt takten, wo die Geschwindigkeit/Watt am höchsten ist, ohne, dass dieses das Gesamtsystem ausbremst.
Was bringt eine TPD von 65, wenn der Prozess dafür doppelt mal so lange braucht, wie bei 125?
Naja, mein Notebook, auf dem ich gerade Tippe, braucht aktuell 8 Watt, 13 auf voller Helligkeit.
Die CPU Belastung schwankt so zwischen 20 und 50.
Aber nur manchmal brauche ich mehr Leistung.
Wenn Moderne Prozessoren im Idle immer nur 4 Watt verbrauchen würden, dann wäre doch alles prima.
Vielleicht wäre es sinnvoll, wenn AMD einen Notebook Prozessor konstruieren würde, der 6 Kerne hat. Also ein 2 Modul Piledriver und - auf dem selben DIE, ein C-50. Der C-50 hat, wenn man Schnittstellen weglässt ungefähr 4 Watt Leistungaufnahme.
Wenn also im Normalmodus alle Prozesse auf den C-50 und seiner Grafik angezeigt werde, werden die Leistunsspitzen durch einschalten von Modulen kompensiert. Aufwändige Berechnungen würden so schnell durchgeführt werden können, während die meiste Zeit ein Energieverbrauch unter 7 Watt herrscht.
Mit dem Cache muss man sich was einfallen lassen, es sei denn, ein Cache braucht so wenig Energie, dass beide unkompliziert darauf zugreifen können. Wenn die integirerte Grafik im Idle Modus sehr wenig Energie verbraucht, könnte man sich die C-50 integrierte auch sparen. Wenn nicht, die Grafikhersteller haben bewiesen, dass integrierte und dezidierte Grafik unauffällig umherschalten kann, also warum nicht zwischen Prozessoren und 2 integrierten Grafiken?
Das OS müsste auch noch Optimiert werden, aber das wäre eine gute Lösung, um extreme Energieeffizienz im Normalmodus zu geben und genug Leistung, wenn sie gebraucht wird.
Am Ende liegt die Notebook TPD dann bei 35 und der Durchschnitt liegt dann bei 7 Watt.
Die einzigen, die dann nicht ganz so viel daraus profitieren, sind dann ständige Gamer.. Aber würden die sich ein Notebook mit 2 integrierten Grafikkarten kaufen?
 
Was du da planst ist unverkaufbar und ich nehme mal auch stark an technisch blödsinn.
 
Optimal wäre es, wenn die Modelle zu dem Punkt takten, wo die Geschwindigkeit/Watt am höchsten ist

Michael 21, Trinity mit 2 Cores kann es aufgrund des Taktes mit einem älteren Vierkerner mithalten, außerdem hat er auch aktuelle Befehlssätze.
Wenn er fürs Notebook kommt kann man problemlos eine 35W TDP Cpu herstellen, einfach etwas runtertakten und Spannung senken.
PS: Turbo Boost hat er ja auch!
 
Zuletzt bearbeitet:
Ich versteh zwar nicht ganz warum mich bei der Aussage zitierst, aber naja.... Er will zwei verschiedene CPU-Architekturen auf einem DIE unterbringen und hin und her schalten, das ist blödsinn.
 
@Michael21
bei dem Ansatz wird wohl das OS das größte Problem sein... Sei je her ist im Multitasking Bereich das OS für die Verteilung zuständig. Aber das OS kann nicht in den Anwender reingucken und weis dementsprechend nicht, was der Anwender will. Will er nun Leistung? Oder will er wenig Verbrauch und kann mit weniger Leistung leben? Die Entscheidung selbst kann man dem Anwender wohl nicht abnehmen...
Bei GPUs mag das aktuell mehr oder weniger automatisch funktionieren. Aber das Prinzip geht auch nur dann auf, wenn die Anwendungen mitspielen.

Ich halte aber den Schnitt für zu groß. Ne so "mickrige" CPU wie nen C-50 gepaart mit "dicken" CPU Kernen macht für mich keinen Sinn. Vor allem sind C-50 und Konsorten in ihrer Leistungsklasse so schwach, das selbst das simple Arbeiten mit Fenstern im reinen Windows (inkl. Aero) Betrieb zur Gedultsprobe werden kann. Da hakt und stockt es teils... Das Problem ist denke ich, der Anwender gewöhnt sich schnell an Speed, und will diesen nicht mehr missen. Jemand der monate lang an nem halbwegs schnellen Dualcore Notebook gesessen hat, und jetzt nen C-50 oder Atom unter die Nase bekommt, wird wohl damit unzufrieden sein.
Und das ist der Punkt. Die Kluft ist zu groß um das zu vereinen. Wählt man aber was schnelleres als Stromsparereinheit, so bringt es in Summe wohl wiederum keinen Stromspareffekt.
Und rein von außen betrachtet, halte ich vollständige Notebook CPUs heute schon für so stromsparend, das man damit sehr weit kommt. Accus werden auch immer besser. Was will man also mehr?
Das Rad neuzuerfinden nur um noch ein zwei Watt zu sparen ist wohl der falsche Weg. Vor allem kostet Energietechnisch wohl die Entwicklung mehr wie man potentiel je an Energie mit sowas einsparen könnte... Dazu kommt der höhere Kaufpreis usw.
 
@Mickey Foley
1.Ja es ist nicht möglich da zu kompliziert 2.Korrigiert

@Michael21
was wir nicht alles (haben)wollen :d


@fdsonne
Michael braucht Turbo Core 4.0 und Windows 9
 
Zuletzt bearbeitet:
Ich versteh zwar nicht ganz warum mich bei der Aussage zitierst, aber naja.... Er will zwei verschiedene CPU-Architekturen auf einem DIE unterbringen und hin und her schalten, das ist blödsinn.

Grundsätzlich denkbar wäre es aber schon...
Ich könnte mir vorstellen, das man das OS für seine Funktionalitäten soweit runter speckt, das es dann auf der Stromsparer CPU richtig läuft. Für Leistung fressende Tasks kann die starke CPU aufgeweckt werden und los gehts... Und für weniger leistungfressende Tasks könnte die Reserve des Stromsparpools mitgenutzt werden. Dazu müsste man aber wohl ein OS mehr oder weniger neu erfinden. Denn im Moment unterscheiden die OSen nicht zwischen CPU Pool schnell/stromfressend und CPU Pool langsam/stromsparend bzw. können dies auch gar nicht. Das gleiche gilt für Anwendungen.

Ob es jemals sowas geben wird, ist fraglich. Und ob das einspar Potential überhaupt in Zukunft gegeben ist, ist ebenso fraglich. Wenn man schaut, heutige CPUs vor allem im Subnotebook und Netbook Bereich brauchen doch schon nix mehr ;)
Vllt kommt ein ähnlicher Ansatz aber schneller als man denkt ;) Mit dem Thema GPGPU könnte man sowas schon im Ansatz realisieren. In die CPU integrierte Einheiten, die native angesprochen werden können und sehr fix sind (im Vergleich zum Prozessor selbst) könnten dann für gewisse Berechnungen nen deutlichen Schub bei wohl deutlich gestiegener Energieeffizienz bringen. Das OS selbst und die weniger Leistung brauchenden Anwendungen könnten auf "lahmen" Stromsparer CPUs tuckern und fordernde Berechnungen auf die GPGPU Einheit auslagern. Für reine Grafikberechnungen gibts dann dazu noch ne dritte Einheit. Eventuell gar wieder gepaar mit ner schlafenden Dicken GPU fürs Zockerherz ;)
 
Zuletzt bearbeitet:
@fdsonne
So schlecht ist der C-50 auch nicht.

Ich bin von einen Turion X2@2x1,9GHz zu einem Athlon X2 L310 2x1,20GHz und letztendlich zu einem C50 siehe Sig. „abgestiegen“.
Sämtliche Note / Netbooks nutzte ich fast ausschließlich zum Surfen.

Mein Fazit:
Im Alltag merke in meinem Anwendungsgebiet jedoch recht selten ein Unterschied.
Außer ich schaue auf Youtube ein FullHD Video: Das kann der C-50 mit Abstand am besten.
 
Zuletzt bearbeitet:
Im Vergleich zu ner vollwertigen Notebook oder Desktop Dualcore CPU aber schon reichlich.
Aber es geht ja auch nicht darum die CPU schlecht zu reden. ;)

Dennoch sage ich, diese Leistungsklasse ist für ordentliches Arbeiten schon zu wenig. Aber das definiert jeder für sich selbst.
 
Täglich Arbeiten wollte ich mit der C-50 auch nicht. Davon abgesehen, dafür muss ich mich eh mit dem begnügen, was mir mein Arbeitgeber zur Verfügung stellt.

Letztendlich will ich auch nur euren theoretischen Erfahrungen, die tatsächliche Praxiserfahrung meinerseits, euch etwas näher bringen. ;)
 
Zuletzt bearbeitet:
Also: So war es doch auch damals, als die CPUs erstmals Energisparvorrichtungen hatten. Die sollten damals ja auch das System massig ausbremsen?
Zudem: Mein Computer taktet ja unterschiedlich. Und für normale Aufgaben reicht durchaus der E-350 (der aber im Akkumodus auf 0,8 Ghz läuft). Die Verzögerungen merkt man ja nicht immer. Ich habe Aero usw alles aktivert und es ruckelt nichts. Der RAM ist mit 3,7 von 8GB ausgelastet, Programme und Fenster öffnen, vielleicht auch Dank der SSD sofort und ohne zu ruckeln.
Ich bin von einem Hexacore mit 3,33 Ghz auf einen E-350 umgestiegen!
Das hat die Alltagsaufgaben nicht stark ausgebremst.
Nur manche Dinge, die aber zeitlich nur weinige Prozent der Nutzungsdauer ausmachen lassen einen 4 mal so schnell getakteten 6 Kerner vermissen.
Wenn ihr ständig Benchmarks macht, oder Video und Fotobearbeitung, kann ich das gut nachvollziehen!
Aber werdet ihr wirklich im nicht Videobearbeitungsbereicht von eurer CPU ausgebremst?
Ich nicht.
Mir ist es egal, ob im Idle nun ein Hexacore gelangweilt herumbrummt, oder eine kleine APU noch nicht überfordert ist.
Am PC würde es mir auch keinen Unterschied machen, ob meine GTX 460 bei 50Mhz 20 Watt verbraucht, oder eine E-350 GPU das Bild darstellt.
Also nennt mir ein Beispiel, welchen Vorteil es denn machet, mehr Leistung bereitzustellen, als überhaupt gebraucht wird.
 
Darum gehts ja nicht... Es hat niemand gesagt, das man unnötig Leistung haben sollte, welche nie genutzt wird.

Ich für meinen Teil hab als Arbeitsnotebook nen 460er i5. Und wenn ich mal so den Taskmanager im Auge habe, dann liegen da durch die Bank weg 15-25% CPU Last über alle vier Threads an...
Es kommt über den Tag dazu, das ich viele Programme gleichzeitig händel. Somit auch teilweise 120-130 Tasks gleichzeitig laufen usw. ;)

Wenn es rein nur um privat geht, wo ich auf dem Sofa mal ne Website besuche, OK, da geh ich mit. Da stört dann vllt auch nicht ein Ruckeln beim Fensterschieben (bei TouchPad nutzung sowieso nicht)
Vllt bin ich aber auch schlechte Referenz. Ich merke den Unterschied zwischen Single und Dualcore sowie zwischen Singlecore und SingleCore + SMT auch. Und andere meinen damalige AMD SingleCores ließen sich genau so fluffig bedienen wie die Intel SMT Pedanten. ;) Obwohl ich zur damaligen Zeit in Sachen absolute Leistung immer zu AMD gegriffen habe, habe ich als "arbeitstier" den Intel bevorzugt...

Dennoch habe ich auf Arbeit schon so einige Modelle mit weniger CPU Leistung durch. Eigentlich quer durch die ganze Palette. Angefangen von kleinen SingleCore Netbooks zu UltraLowVoltage Mobile CPUs in Subnotebooks bis zu Mobile Workstations mit fetten CPUs. Und um so höher man kommt, desto besser lässt sich auf dem Kasten arbeiten... Das ist einfach mal so. Schließ gehen auch die Anwendungen und das OS mit der Zeit...
 
Zuletzt bearbeitet:
Naja. Ich muss entgegenhalten, dass
1. Ruckeln meine Fenster mit Aero (voll aktiviert) überhaupt nicht beim Verschieben
2. Es sind bei mir aktuell 121 Prozesse offen.

Wo würde ich aktuell von dem besten i7 Profitieren, wenn in Normalsituationen nichts ruckelt und alles Blitzschnell geht, dass System kalt in 20 Sekunden oben ist?
Was will ich mehr.
Und die schwache CPU merke ich nur manchmal.
Oder kompensiert einfach meine M4 den Geschwingigkeitsunterschied?
Also wessen hochleistungs CPU ist hat bei mehr als der Hälfte der Laufzeit eine Auslastung über 50%?
Für den, muss ich sagen, wäre es dann höchstens eine Einsparung von 20%.
 
Dann arbeitest du vllt nicht richtig mit dem Teil :fresse:
Übrigens, der i7 Seitenhieb hinkt... Denn es gibt auch genügend Leute, die kaufen weil sie es brauchen. Und da gibts nunmal keine Kompromisse ;)
Aber mir solls egal sein, was die Kiste an Strom verballert, ich sitz nur am WE am PC Zuhause, für alles andere hab ich mein Notebook (Acculaufzeit ~6-7h bei WLAN aktiv und reduzierter Helligkeit) und für die Arbeit das Arbeitsnotebook (idR mit Strom und ZweitAccu). Und wenn das mal nicht langt, findet sich auf dem ESX Cluster immer ein Plätzchen um Leistung fordernde Prozesse zu befriedigen... Aber das ist stark OT ;)
 
Zuletzt bearbeitet:
Ich weiß, dass ich mit diesem Teil keine 3D Modellationen und Aufwendige Giapixel Bildbearbeitungen machen kann.
Aber daher eben eine Hybridlösung, die die Leistung gibt, wenn man sie braucht.
Und wenn ich Leistung brauche, hätte ich eben gerne auch noch eine gute Akkulaufzeit. Wenn du dich nicht um den Energiverbrauch kümmerst, dann ist das natürlich nicht sinnvoll.
Aber dann kauft man sich eine Workstaion.
Aber der Normalnutzer, der nicht durchgehend extreme Leistung braucht, der dürfte doch was dafon haben, wenn er sein Battlefield 3 mal flüssig spielen kann, aber gleichzeitig noch genug Akkulaufzeit um 6 Stunden im Zug ein Essay zu schreiben, Artikel zu lesen, oder Full HD Videos anzuschauen.
Dafür braucht der Nutzer die geballte Rohe Power nicht, sondern ist auch ganz zufrieden, wenn das Gerät ein Alleskönner ist.
Und das zu einem Moderaten Preis und hoher Akkulaufzeit.
Also für mich klingt das ganz reizend..
 
Hmm, es soll ja auch noch der A8-3870K kommen, da schmilzt dann der virtuelle Trinity-Vorsprung schon wieder und durch den offenen Multi kann man den dann auch noch gut übertakten (mit gedachter 125W TDP;))
 
die Details sind ein Tritt in die Eier! Ich habe Llano unter folgenden Voraussetzungen bzw. Annahmen gekauft:

1. FM1 kompatibel zu Trinity
2. AMD gelingt mit der Bulldozer Architektur ein guter Wurf, um den Abstand auf Intel zu verkürzen
3. Leistungsaufnahme wird gesenkt wegen 32nm Fertigung

rein gar nichts aber auch wirklich rein gar nichts tritt davon ein, Intel wird den Abstand mit IvyBridge weiter vergrössern. Mehr Performance bei geringerer Leistungsaufnahme (TDP max. 77W). Sollte dazu noch die iGPU ca. A6 3650er Niveau erreichen, dann gute Nacht AMD. Wer wird sich dann noch für Trinity interessieren? Wieso sollte ich Trinity einsetzen, wenn sowieso auch ein neues Mobo fällig wird? Dann kann ich gleich zu Intel wechseln, wo ich mich bzgl. des CPU Partes schön zurücklehnen kann. Gegen die wahren 4Kerner i5-2500k(3500k) werden die Trinitys so was von alt aussehen.

Mein Fazit: mental stelle ich mich bereits auf Intel ein...
 
Zuletzt bearbeitet:
Genau das hab ich gemeint.
 
Aber der Normalnutzer, der nicht durchgehend extreme Leistung braucht, der dürfte doch was dafon haben, wenn er sein Battlefield 3 mal flüssig spielen kann, aber gleichzeitig noch genug Akkulaufzeit um 6 Stunden im Zug ein Essay zu schreiben, Artikel zu lesen, oder Full HD Videos anzuschauen.

Wie gesagt, das gibts jetzt schon, da braucht man nicht Kopfstände zu machen und irgendwelche Designkrücken zu erfinden, die dazu noch ein komplett überarbeitetes OS vorraussetzen usw.
Hier kann der Hersteller nur nen Kompromiss eingehen zwischen Leistung und Verbrauch sowie dem Aufwand dies zu erreichen. Denn wie gesagt, der Aufwand sowas zu entwickeln dürfte weit höher liegen, als bei einer Optimierung für das ein oder andere Prozent Energie bei ner "normalen" CPU einzusparen.
Und das OS als Unbekanntheitsfaktor kommt noch oben drauf... Wenn man bedenkt, Intel bringt seit späten Windows 2000, Anfang XP Zeiten CPUs mit HT (SMT) und erst jetzt mit Windows 7 hat es MS geschafft anständigen Support für diese Funktion zu bringen.
Wie soll das dann bei AMD funktioneren? Wo dessen Markt weit kleiner ist?

Genau das hab ich gemeint.

Im Grunde ist es schnurz egal. Ich würde mich nie auf etwas verlassen (Kompatiblität zum alten Sockel) wenn es nicht 100% gesicherte Infos darüber gibt...
Und neben ein paar Aufrüstern im Heimbereich kümmert sich auch niemand um die Kompatibilität. Einfach weil der Großteil der PC Käufer nicht selbst schraubt...
 
Zuletzt bearbeitet:
Trinity scheint eine GPU für den CPU Sockel zu werden - mit einer integrierten kleinen CPU.
 
Trinity scheint eine GPU für den CPU Sockel zu werden - mit einer integrierten kleinen CPU.

so sieht's aus. Im CPU Part stagniert man weiter, oder man ist immer noch schlechter daran als gegen PhneomII X4. Wo ist da der Fortschritt zu erkennen? Ich hatte mir grosse Träume mit Trinity zurecht geschmiedet, die in allen Punkten nicht in Erfüllung gehen werden. Ich dachte, endlich neue Architektur gleichbedeutend mit mehr Leistung + Fortschritt usw. Die Realität sieht jedoch anders aus, schade...
 
Trinity scheint eine GPU für den CPU Sockel zu werden - mit einer integrierten kleinen CPU.
Finde ich sogar ziemlich in Ordnung, man hat dann (bzw. jetzt schon) alles in einem Paket, eine ausreichend schnelle CPU und GPU für alles, außer absolutes High-End-Gaming.
 
Naja, das Konzept ist aber möglich und das ist das Interessante.
Aber ein System bräuchte ja dafür einige neue Bestandteile. Bei der Trägheit der aktuellen Betriebssysteme nicht auszudenken, und nur, um die Akkulaufzeit zu verdoppeln, lächerlich!
Naja, aber die Systeme haben sowieso bald ein kleines Problem.
ARM. Die sind dann noch viel energieeffizienter, da braucht man schon bessere Ideen als 2 Watt pro Kern, der nie ausgelastet wird.
Mit ARM können 16 Kern CPUs mit einer TPD von 22 auf den Markt kommen.
Die reichen dann zwar in Einthread Modus nicht mal an Bulldozer heran, aber können Asynkron getaktet viel mehr ausrichten. Viel besser als Turbo Modus.
Auslastung 1Ghz 16 Kerne, Vollbelastung, hohe Rechenleistung.
Und bei bestimmten Aufgaben 1 Kern auf 2,5 und 2 andere für andere Prozesse mit 1Ghz. Ergebniß: 8 Watt, bei mäßiger Leistung.
Und Idle? 4 Kerne mit 800 Mhz.
Und da kann das System direkt drauf Optimiert werden, weil es das System ja noch nicht vor der Technologie gab.
Denkbar gewesen wäre auch ein ARM mit 86x Zusatzkern, der alte Anwendungen schnell ausführen kann, sonst aber deaktiviert bleibt.
Wenn man das System darauf Optimiert, kein Problem.
Aber auch ohne das haben Intel und AMD im Mobilen Bereich ohnehin keine Chance, auch wenn sie den System verbrauch mit meiner Idee auf 10 Watt senken können, um in Konkurrenz treten zu können und gleichzeitig hohe Leistung liefern können.
Aber sobald die Systeme darauf Optimiert sind, muss man sich eben mit der Leistungskrone zufriedengeben, und das Obere Notebook bis zum Oberen Desktop Segment abgeben. Die Server kann ARM dann wieder haben.
Was AMD in 3 Jahren da noch außer Grafiklösungen macht, ist mir aber schleierhaft.. Es sei denn Windows 9 wird auf APUs optimiert sein.
 
ARM halte ich im Moment für keine ernsthafte Konkurenz in dem Bereich...
Klar das klingt auf dem Papier alles sehr gut, wenn aber die Stino x86 Anwendungen nicht laufen werden, wirds schnell ziemlich uninteressant.

Es gab schon so Einige, die mit anderen Ansätzen den Markt bepflastert hatten und so ziemlich alles ist im großen und ganzen dran gescheitert. Im Serversegment damals zum Beispiel die Alphas ganz zu Anfang oder aber die Intel Itanium CPUs... Durchsetzen konnte sich nix davon, obwohl MS als DER OS Entwickler ebenso auf ne Zug aufgesprungen ist.
Grundsätzlich sehe ich da zwar nicht primär das Problem beim Produkt selbst, sondern viel eher bei der Software, die Softwareindustrie scheint zu langsam auf neues zu Antworten und somit wird neue Hardware schnell als unnütz gebrantmarkt, weil es nix gibt, was drauf läuft. Und gibts dann mal was, ist der herkömmliche x86 Markt lange auf den Zug mit aufgesprungen und bietet wiederum die Alternativen inkl. voller Kompatibilität zum stino Desktop/Notebook Markt.
Wenn hinter dem Produkt dann nicht gerade eine Firma wie Apple steckt, die den Kunden für teuer Geld sogar "Scheiße" als Gold andrehen kann, und die Kunden drauf fliegen, wird das wohl nix.
MS will zwar nun mit Windows 8 ARM unterstützen, aber auch da bleibt abzuwarten, was wird. Wird wohl vorerst wenn überhaupt im Tablet Markt interessant. Mit so nem Tablet ernsthaft zu arbeiten ist ja bekanntlich auch nicht. Um mal ne Seite anzusurfen oder ne Mail zu lesen OK. Aber braucht man sowas dann wirklich?
 
An diesem Punkt muss ich dir bedingungslos zustimmen.
Solche Lösungen sind kaum erreichbar.
Und wie es mit Unterstützung für ARM Cpus aussieht, ist unklar aber wenn alle Hersteller auf die Metrooberfäche umsteigen, dann wäre das denkbar.
Aber dann würden sie ja nicht mehr an 7 Nutzer und die noch große Anzahl der XP Nutzer verkaufen können, also nein.
Es sei denn Microsoft verteilt Windows 8 kostenlos als Software Update - oder nur die Metro Anwendungs Kompatibilität.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh