Die wollen sich vielleicht nur revanchieren. Schliesslich hat AMD die ganze Zeit auf Intels iGPU gewartet.
Vor einiger Zeit wurde darüber spekuliert, dass Skylake eine neue Multithreading Technologie namens
MorphCore mitbringen könnte. Ob Skylake tatsächlich damit kommt, ist mehr und mehr zu bezweifeln.
das war aber ein ganz hübscher Versuch, einen kleinen Scherz zu machen. Leider fehlt da die Pointe, zumindest in Bezug auf Intel. Warum? Deswegen:
AMDs APUs sind, soweit sie die hier infrage stehende Grafikleistung aufbieten können, Nischenprodukte.
Infrage kommend überhaupt nur in Szenarien, die man an zwei Fingern abzählen kann: low-end Grafik für anspruchslose Gelegenheitsspielchen und Computing über die GPU. Das ist eine winzige Nische. Deren Berechtigung zusätzlich infrage gestellt ist dadurch, dass es offensichtlich vernünftiger ist, eine kleine, aber relativ zum AMD-Angebot leistungsstärkere intel-cpu mit einer separaten Billiggrafikkarte zu kombinieren.
Dummerweise ist AMD gezwungen zu versuchen, solche Nischenprodukte großflächig als Mainstream-CPU zu vermarkten.
Denn die reinen AMD-CPUs, also Bulldozer und Abkömmlinge (deren Gegner im Übrigen genau genommen ja nicht die cpus aus intels mainstream-plattform 1150, sondern die CPUs aus intels 2010-platform sind) sind ja praktisch unverkäuflich. Dass dieses Unterfangen (ein Nischenprodukt als mainstream-cpu zu positionieren) von vornherein völlig aussichtslos und zum Scheitern verurteilt ist, ist klar (und das zeigen auch die Bilanzen von AMD und die Abschreibungen und die Lagerbestände an diesen Gerätschaften): ein nahezu komatöser CPU-Teil, der dazu noch einen überkandidelt aufgeblähten und stromhungrigen GPU-Teil mit sich schleppen muss.
Will man bei AMDs mainstream-CPUs, also den APUs, auch nur halbwegs akzeptable CPU-Leistung erstehen, muss man schon zum A10 greifen. Die Käufer der infragestehenden (in die cpu eingebauten) Grafikleistung (bei AMD vorwiegend A10) setzen sich also zusammen erstens aus denjenigen, die genötigt wurden, diese Grafikleistung notgedrungen mitzuerweben, weil sie sonst nicht einmal zu halbwegs diskutabler (AMD-)CPU-Leistung kommen.
Dass Käufer, die CPU-Leistung nachfragen, sich eher früher als später fragen, warum sie ausgerechnet in dem Fall überhaupt eine amd-cpu erwerben sollen, (bei der sie im übrigen noch genötigt werden, einen für sie nutzlosen Grafikklotz am Beim einzuhandeln) liegt auf der Hand.
Zweitens die Gruppe der anspruchsloseren Gelegenheitsspieler. Auch diese Spezies fragt sich eher früher als später, ob es nicht attraktiver ist, die Leistung einer kleinen separaten GPU durch eine Intel-CPU aufzuwerten und sich so den Weg zu erweiterten Qualitätsleveln zu ebnen.
Drittens Computing via gpu. Da wird sich OpenCl mit hoher Wahrscheinlichkeit durchsetzen, und eben nicht AMDs Sonderweg hsa.
Intels Engagement bzgl. open cl 2.0:
https://software.intel.com/en-us/intel-opencl
Am ende bleibt AMD-seitig nur ein äußerst fragiles, am Markt vorbeientwickeltes Portfolio, das auf tönernen Füssen steht, weil es die avisierten Zielgruppen mangels Plausibilität des AMD-Angebots nicht erreichen kann.
Bleibt nur die Gruppe derjenigen, die die Faszination der Miniaturisierung, also der Mehr-Leistung in immer kleineren Formfaktoren, empfinden. Doch dies setzt erstens Effizienz voraus, zweitens Effizienz und drittens Effizienz. Eine sportliche Disziplin, von der AMD nahezu so weit entfernt ist wie ein Couch-Potato von Usain Bolt.
Absolute Stromersparnis und Effizienz waren für Intel überhaupt erst der Grund, traditionell auf dem Board verortete Einheiten zunehmend in die CPU zu integrieren.
Schon AMDs Motivation für Fusion (APUs) war eine völlig andere, und zu Effizienz (auf Intels Niveau) hat es AMD bis heute im gesamten Portfolio nicht gebracht. Dabei sind Miniaturisierung und damit erzwungenermaßen Effizienz überhaupt die Antriebsfeder der gesamten IT(-Hardware-Entwicklung). Stattdessen hat AMD eine Karikatur dieser weltweiten Effizienz-Entwicklung zu bieten: Bulldozer und seine Abkömmlinge und als Krönung FX92xx mit 200W TDP.
Entgegen den vollmundigen Behauptungen sind die Effizienzsteigerungen bei Carrizo geradezu niedlich. Drosselt man diese 35W apu auf 15w, um sie in höherwertige flache Designs überhaupt unterbringen zu können, erhält man Leistung nur noch in homöopathischen Dosen. Die OEMs werden erhebliche Probleme haben, das an den Mann zu bringen. Auch die Effizienz von FuryX konnte nur marginal gesteigert werden. Maxwell ist hier ungeschlagen. Sogar NVidia hat also, spätestens seit Maxwell, realisiert, was die Stunde geschlagen hat.
AMDs tatsächliche Motivation zu APUs: wegen des völlig überteuerten ATI-Erwerbs in 2006 musste mit aller Gewalt ein Synergie-Effekt her, der die aus dem Ruder laufenden Folgekosten dieser Aquisition (
Nach ATI-Kauf: AMD weitet Verlust aus) wenigstens langfristig relativiert. Ganze vier Jahre nach dem ATI-Erwerb konnte AMD immerhin eine Demo einer APU vorzeigen.
AMDs zweiter offenbar unbedingter Antrieb zur möglichst baldigen Fabrizierung von APUs (wobei dann auch noch gleich zu sagen ist, dass die weltweit erste "Quasi-APU" natürlich von Intel stammt, nämlich Clarkdale) war, dass eben unbedingt ein unterscheidendes Alleinstellungsmerkmal her musste, nachdem schon zwei verschiedene AMD-Architekturen (phenom und bulldozer) die dringend benötigten Kaufgründe für AMD-CPUs einfach nicht annähernd hergaben.
Aber tatsächlich taugen AMDs APUs mit der infrage stehenden Grafikleistung noch nicht mal als Nischenprodukt für Miniaturisierungsenthusiasten, denn eine 100W CPU ist selbstverständlich für Mini-Formate völlig ungeeignet.
Wie man das viel besser macht, zeigt (natürlich, möchte man fast sagen) wieder einmal mehr Intel, mit den neuen Core i5 und i7 mit C-Kennung.
Intel vollbringt keine Wunder, sondern technische (High End-)Ingenieursleistungen ganz offenbar mit (ziemlich viel) Sinn und Verstand.
Eine GPU (ein Array von gleichförmigen, verhältnismäßig simplen Recheneinheiten) zusammenzulöten ist ganz sicher nicht die Hohe Kunst des Prozessorschmiedens. Eine iGPU mit wesentlich höherer Leistung (als was bisher intel-seitig geboten wurde) hätte Intel ganz sicher auch wesentlich früher zusammenschustern können, allerdings (wie bei AMD) um den Preis von aus dem Ruder laufenden Verbräuchen, also dann wenn man sich (wie nachweislich AMD) um die TDP, die Effizienz, ein sinnvolles markttaugliches Portfolio und eine sinnvolle Kunden-Adressierung nicht schert. So etwas kommt für Intel als Weltmarktführer selbstverständlich überhaupt nicht in Frage.
Sondern mit so etwas wartet man sinnvollerweise, bis die Zeit dafür reif ist. Und wann ist das? Das ist, wenn mindestens 14nm bereit steht. Und deswegen kommt diese Grafikleistung von Intel heute, bei 14nm, als Broadwell Core i5 5675C und Core i7 5775C und nicht vorher.
Solche Verzweifelungstaten jenseits von Sinn und Verstand, überlässt man besser AMD. Denn ist der Effizienz-Ruf erstmal ruiniert,
kann man in der Hinsicht auch gleich ganz ungeniert auf die Pauke hauen (siehe FX92xx, siehe AMD Grafikkarten weit jenseits von 300W TDP).
So gesehen sind AMDs APUs höchstens eine Art vorzeitiger Markt-Erguss, der offenbar dringend behandlungsbedürftig ist. Für solche Technik-Ergüsse vor der Zeit ist AMD ja ohnehin berüchtigt (siehe Phenom I, siehe Bulldozer). Man hat in manchen Foren damals sogar lachhafterweise versucht, in derartigen allerersten AMD-Fehlversuchen mit darauffolgenden Korrekturversuchen ein ganz eigenes AMD-Tick-Tock-Schema zu erkennen.
Ob nun AMDs Selbsttherapie-Versuch unter Tiefenentspannung (genannt "Zen") diesbezüglich Besserung herbeizuführen geeignet ist, das wird man erst noch sehen müssen. Was man so liest, soll AMD ja schon einmal die IT und den Rest der Welt damit bedroht haben, 300Watt-Zen-APUs herauszubringen. das wird ein verheerender Spaß ...
Selbst in den aktuellen APUs von AMD kann man daher vernünftigerweise höchstens Machbarkeitsstudien sehen, und das fast ein Jahrzehnt, nachdem ATI erworben wurde. Das ist eine schon brutal suboptimale Leistung von AMD.
Was hat nun AMD mit diesen APU-Machbarkeitsstudien gezeigt? Dass sie doch in der Lage sind, die aufgekaufte Grafiktechnik irgendwie in ihren CPUs zu verwerten (dazu haben sie 4 Jahre gebraucht), dass sie an ihrem Hoch-TDP-, i.e. Hoch-Takt-Design, festkleben, dabei leistungsmäßig (nach 10 Jahren) praktisch auf der Stelle treten, und dass sie sich mit den weltweit einhelligen Forderungen nach mehr Effizienz, notfalls den Allerwertesten zu wischen bereit sind. Das haben sie eindrucksvoll auf drei Gebieten demonstriert, CPU, APU, GPU.
Dass es daher Intel angeblich nur verspätet zu dieser Graphik-Leistung bringen soll, ist schon sehr witzig, aber anders als du zu glauben scheinst, nämlich einer ohne die erhoffte Intel-Pointe, stattdessen einer, der wie gesehen vollumfänglich nach hinten losgeht und eher allein AMD (be-)trifft.
zu "MorphCore"
das völlig aus der Luft gegriffene Gerücht, skylake könnte mit morphcore kommen, hast wohl vor allem du irgendwo aufgeschnappt und dann weitertransportiert
zu Kaby Lake:
kann sein, dass Kaby Lake aufgrund einer technisch oder gar wirtschaftlich bedingten Verzögerung von 10nm kommt,
kann aber auch sein, dass das so nicht zutrifft
und wenn es so kommt, aus welchen Gründen auch immer, kann es auch sein, dass Intel den Zwischenschritt nutzt, um seine Altera-FPGAs zu integrieren, oder nutzt, weitere architektonische Optimierungen zu realisieren (im Hinblick auf "Zen" oder was da sonst noch so kommen mag)