Intel: Auf 'Skylake' folgen 'Kaby Lake' und 'Cannonlake'

FM4E

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
15.01.2007
Beiträge
19.031
Ort
Oberbayern
<p><img style="margin: 10px; float: left;" alt="intel3" src="/images/stories/logos-2013/intel3.jpg" width="100" height="100" />Die letzten Wochen lassen sich fast an einer Hand abzählen, bis der Launch der Sunrise-Point-Plattform mit den <a href="index.php/news/hardware/prozessoren/35057-intel-skylake-der-core-i5-6600k-und-der-core-i7-6700k-machen-den-anfang.html">Skylake-S-Prozessoren samt DDR3L- und DDR4-Unterstützung</a> sowie mit den <a href="index.php/news/hardware/chipsaetze/31904-intels-100-chipsatzserie-stellt-mehr-pcie-lanes-zur-verfuegung.html">Intel-100-Chipsätzen</a>  erfolgt. Bei <a href="http://www.intel.de/">Intel</a> macht man sich intern natürlich bereits weit im Vorfeld über die nächsten Produkte Gedanken, wovon einige Informationen nun durch Benchlife.info an...<br /><br /><a href="/index.php/news/hardware/prozessoren/35840-intel-auf-skylake-folgen-kaby-lake-und-cannonlake-.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was genau wird sich von Broadwell zu Skylake für Laptops ändern? Neue Architektur, DX12 fähige Grafik, vielleicht DDR4, aber keine native USB 3.1 Unterstützung? Die kommt sowieso erst mit Cannonlake 2016-2017?
 
Gibt es eigentlich schon Infos zu irgendwelchen Neuerungen im High-End Bereich? Also Sockel 2011-3?
 
Ich hasse langsam diese häppchenpolitik meine Bitch bleibt anscheinend noch hatte noch nie solang die selbe cpu + motherboard + speicher, hatte aber auch noch nie soviel geld für urlaub etc. und die regen sich auf das der computerabsatz einbricht und entlassen leute, pfui pfui Intel und konsorten
 
Intel versucht auf AMD zu warten
Die wollen sich vielleicht nur revanchieren. Schliesslich hat AMD die ganze Zeit auf Intels iGPU gewartet. :rolleyes:


@paul1508

DX12 Support, ja. Zur Architektur selbst weiss man noch recht wenig. Was völlig neues ist aber wohl nicht zu erwarten. Bei den recht mageren Leistungssteigerungen der bisherigen Leaks (~5-10% pro Takt im Vergleich zu Haswell) dürfte es wohl nur die übliche inkrementelle Weiterentwicklung sein. Aber genaues wird man sicherlich spätestens beim Launch erfahren. Vor einiger Zeit wurde darüber spekuliert, dass Skylake eine neue Multithreading Technologie namens MorphCore mitbringen könnte. Dann werden sozusagen beim Multithreading aus den OoO Kernen mehrere In-Order Kerne, um Performance oder Effizienz zu steigern. Ob Skylake tatsächlich damit kommt, ist mehr und mehr zu bezweifeln.
 
DDR4 hat Skylake ja sowieso schon, nur hat die JEDEC lange gebraucht die SO-DIMMS für DDR4 zu spezifizieren, aber wieso sollten die Skylake Chipsätze für Notebooks dann nicht auch schon DDR4 unterstützen, zumal die ja auch erst deutlich nach denen für Desktops kommen werden?

meine Bitch bleibt anscheinend noch hatte noch nie solang die selbe cpu + motherboard + speicher, hatte aber auch noch nie soviel geld für urlaub etc.
Wieso regst Du Dich auf? Waren die Urlaube so verregnet? Freu Dich doch darüber, dass die Performance Deines Systems noch mit den aktuellen CPUs mithalten kann! Sehe nicht immer alles so negativ! :cool:
 
Find ich auch.. langsam könnten die Programmierer wieder mal ein wenig was lernen und anständige Arbeit abliefern.. dann eichen aktuelle Systeme die nächsten 5 -6 Jahre :bigok:

Aber die heutigen Gamedesigner können das ja alles nimmer ... sagt denen mal sie haben nur 640KB Systemspeicher von denen die User aber nedd mehr als 450 KB frei machen können, ausser sie haben totale Profis die 550 hin bekommen... dann würde es keine Games mehr geben... :fresse:
 
Find ich auch.. langsam könnten die Programmierer wieder mal ein wenig was lernen und anständige Arbeit abliefern.. dann eichen aktuelle Systeme die nächsten 5 -6 Jahre :bigok:

Aber die heutigen Gamedesigner können das ja alles nimmer ... sagt denen mal sie haben nur 640KB Systemspeicher von denen die User aber nedd mehr als 450 KB frei machen können, ausser sie haben totale Profis die 550 hin bekommen... dann würde es keine Games mehr geben... :fresse:
Sag das den Studios die Gamesportierungen nach Indien etc. outsourcen >_>
 
Die wollen sich vielleicht nur revanchieren. Schliesslich hat AMD die ganze Zeit auf Intels iGPU gewartet. :rolleyes:

Vor einiger Zeit wurde darüber spekuliert, dass Skylake eine neue Multithreading Technologie namens MorphCore mitbringen könnte. Ob Skylake tatsächlich damit kommt, ist mehr und mehr zu bezweifeln.

das war aber ein ganz hübscher Versuch, einen kleinen Scherz zu machen. Leider fehlt da die Pointe, zumindest in Bezug auf Intel. Warum? Deswegen:

AMDs APUs sind, soweit sie die hier infrage stehende Grafikleistung aufbieten können, Nischenprodukte.
Infrage kommend überhaupt nur in Szenarien, die man an zwei Fingern abzählen kann: low-end Grafik für anspruchslose Gelegenheitsspielchen und Computing über die GPU. Das ist eine winzige Nische. Deren Berechtigung zusätzlich infrage gestellt ist dadurch, dass es offensichtlich vernünftiger ist, eine kleine, aber relativ zum AMD-Angebot leistungsstärkere intel-cpu mit einer separaten Billiggrafikkarte zu kombinieren.

Dummerweise ist AMD gezwungen zu versuchen, solche Nischenprodukte großflächig als Mainstream-CPU zu vermarkten.
Denn die reinen AMD-CPUs, also Bulldozer und Abkömmlinge (deren Gegner im Übrigen genau genommen ja nicht die cpus aus intels mainstream-plattform 1150, sondern die CPUs aus intels 2010-platform sind) sind ja praktisch unverkäuflich. Dass dieses Unterfangen (ein Nischenprodukt als mainstream-cpu zu positionieren) von vornherein völlig aussichtslos und zum Scheitern verurteilt ist, ist klar (und das zeigen auch die Bilanzen von AMD und die Abschreibungen und die Lagerbestände an diesen Gerätschaften): ein nahezu komatöser CPU-Teil, der dazu noch einen überkandidelt aufgeblähten und stromhungrigen GPU-Teil mit sich schleppen muss.
Will man bei AMDs mainstream-CPUs, also den APUs, auch nur halbwegs akzeptable CPU-Leistung erstehen, muss man schon zum A10 greifen. Die Käufer der infragestehenden (in die cpu eingebauten) Grafikleistung (bei AMD vorwiegend A10) setzen sich also zusammen erstens aus denjenigen, die genötigt wurden, diese Grafikleistung notgedrungen mitzuerweben, weil sie sonst nicht einmal zu halbwegs diskutabler (AMD-)CPU-Leistung kommen.
Dass Käufer, die CPU-Leistung nachfragen, sich eher früher als später fragen, warum sie ausgerechnet in dem Fall überhaupt eine amd-cpu erwerben sollen, (bei der sie im übrigen noch genötigt werden, einen für sie nutzlosen Grafikklotz am Beim einzuhandeln) liegt auf der Hand.
Zweitens die Gruppe der anspruchsloseren Gelegenheitsspieler. Auch diese Spezies fragt sich eher früher als später, ob es nicht attraktiver ist, die Leistung einer kleinen separaten GPU durch eine Intel-CPU aufzuwerten und sich so den Weg zu erweiterten Qualitätsleveln zu ebnen.
Drittens Computing via gpu. Da wird sich OpenCl mit hoher Wahrscheinlichkeit durchsetzen, und eben nicht AMDs Sonderweg hsa.
Intels Engagement bzgl. open cl 2.0: https://software.intel.com/en-us/intel-opencl
Am ende bleibt AMD-seitig nur ein äußerst fragiles, am Markt vorbeientwickeltes Portfolio, das auf tönernen Füssen steht, weil es die avisierten Zielgruppen mangels Plausibilität des AMD-Angebots nicht erreichen kann.

Bleibt nur die Gruppe derjenigen, die die Faszination der Miniaturisierung, also der Mehr-Leistung in immer kleineren Formfaktoren, empfinden. Doch dies setzt erstens Effizienz voraus, zweitens Effizienz und drittens Effizienz. Eine sportliche Disziplin, von der AMD nahezu so weit entfernt ist wie ein Couch-Potato von Usain Bolt.
Absolute Stromersparnis und Effizienz waren für Intel überhaupt erst der Grund, traditionell auf dem Board verortete Einheiten zunehmend in die CPU zu integrieren.
Schon AMDs Motivation für Fusion (APUs) war eine völlig andere, und zu Effizienz (auf Intels Niveau) hat es AMD bis heute im gesamten Portfolio nicht gebracht. Dabei sind Miniaturisierung und damit erzwungenermaßen Effizienz überhaupt die Antriebsfeder der gesamten IT(-Hardware-Entwicklung). Stattdessen hat AMD eine Karikatur dieser weltweiten Effizienz-Entwicklung zu bieten: Bulldozer und seine Abkömmlinge und als Krönung FX92xx mit 200W TDP.
Entgegen den vollmundigen Behauptungen sind die Effizienzsteigerungen bei Carrizo geradezu niedlich. Drosselt man diese 35W apu auf 15w, um sie in höherwertige flache Designs überhaupt unterbringen zu können, erhält man Leistung nur noch in homöopathischen Dosen. Die OEMs werden erhebliche Probleme haben, das an den Mann zu bringen. Auch die Effizienz von FuryX konnte nur marginal gesteigert werden. Maxwell ist hier ungeschlagen. Sogar NVidia hat also, spätestens seit Maxwell, realisiert, was die Stunde geschlagen hat.

AMDs tatsächliche Motivation zu APUs: wegen des völlig überteuerten ATI-Erwerbs in 2006 musste mit aller Gewalt ein Synergie-Effekt her, der die aus dem Ruder laufenden Folgekosten dieser Aquisition (Nach ATI-Kauf: AMD weitet Verlust aus) wenigstens langfristig relativiert. Ganze vier Jahre nach dem ATI-Erwerb konnte AMD immerhin eine Demo einer APU vorzeigen.
AMDs zweiter offenbar unbedingter Antrieb zur möglichst baldigen Fabrizierung von APUs (wobei dann auch noch gleich zu sagen ist, dass die weltweit erste "Quasi-APU" natürlich von Intel stammt, nämlich Clarkdale) war, dass eben unbedingt ein unterscheidendes Alleinstellungsmerkmal her musste, nachdem schon zwei verschiedene AMD-Architekturen (phenom und bulldozer) die dringend benötigten Kaufgründe für AMD-CPUs einfach nicht annähernd hergaben.

Aber tatsächlich taugen AMDs APUs mit der infrage stehenden Grafikleistung noch nicht mal als Nischenprodukt für Miniaturisierungsenthusiasten, denn eine 100W CPU ist selbstverständlich für Mini-Formate völlig ungeeignet.
Wie man das viel besser macht, zeigt (natürlich, möchte man fast sagen) wieder einmal mehr Intel, mit den neuen Core i5 und i7 mit C-Kennung.
Intel vollbringt keine Wunder, sondern technische (High End-)Ingenieursleistungen ganz offenbar mit (ziemlich viel) Sinn und Verstand.
Eine GPU (ein Array von gleichförmigen, verhältnismäßig simplen Recheneinheiten) zusammenzulöten ist ganz sicher nicht die Hohe Kunst des Prozessorschmiedens. Eine iGPU mit wesentlich höherer Leistung (als was bisher intel-seitig geboten wurde) hätte Intel ganz sicher auch wesentlich früher zusammenschustern können, allerdings (wie bei AMD) um den Preis von aus dem Ruder laufenden Verbräuchen, also dann wenn man sich (wie nachweislich AMD) um die TDP, die Effizienz, ein sinnvolles markttaugliches Portfolio und eine sinnvolle Kunden-Adressierung nicht schert. So etwas kommt für Intel als Weltmarktführer selbstverständlich überhaupt nicht in Frage.
Sondern mit so etwas wartet man sinnvollerweise, bis die Zeit dafür reif ist. Und wann ist das? Das ist, wenn mindestens 14nm bereit steht. Und deswegen kommt diese Grafikleistung von Intel heute, bei 14nm, als Broadwell Core i5 5675C und Core i7 5775C und nicht vorher.

Solche Verzweifelungstaten jenseits von Sinn und Verstand, überlässt man besser AMD. Denn ist der Effizienz-Ruf erstmal ruiniert,
kann man in der Hinsicht auch gleich ganz ungeniert auf die Pauke hauen (siehe FX92xx, siehe AMD Grafikkarten weit jenseits von 300W TDP).
So gesehen sind AMDs APUs höchstens eine Art vorzeitiger Markt-Erguss, der offenbar dringend behandlungsbedürftig ist. Für solche Technik-Ergüsse vor der Zeit ist AMD ja ohnehin berüchtigt (siehe Phenom I, siehe Bulldozer). Man hat in manchen Foren damals sogar lachhafterweise versucht, in derartigen allerersten AMD-Fehlversuchen mit darauffolgenden Korrekturversuchen ein ganz eigenes AMD-Tick-Tock-Schema zu erkennen.
Ob nun AMDs Selbsttherapie-Versuch unter Tiefenentspannung (genannt "Zen") diesbezüglich Besserung herbeizuführen geeignet ist, das wird man erst noch sehen müssen. Was man so liest, soll AMD ja schon einmal die IT und den Rest der Welt damit bedroht haben, 300Watt-Zen-APUs herauszubringen. das wird ein verheerender Spaß ...
Selbst in den aktuellen APUs von AMD kann man daher vernünftigerweise höchstens Machbarkeitsstudien sehen, und das fast ein Jahrzehnt, nachdem ATI erworben wurde. Das ist eine schon brutal suboptimale Leistung von AMD.
Was hat nun AMD mit diesen APU-Machbarkeitsstudien gezeigt? Dass sie doch in der Lage sind, die aufgekaufte Grafiktechnik irgendwie in ihren CPUs zu verwerten (dazu haben sie 4 Jahre gebraucht), dass sie an ihrem Hoch-TDP-, i.e. Hoch-Takt-Design, festkleben, dabei leistungsmäßig (nach 10 Jahren) praktisch auf der Stelle treten, und dass sie sich mit den weltweit einhelligen Forderungen nach mehr Effizienz, notfalls den Allerwertesten zu wischen bereit sind. Das haben sie eindrucksvoll auf drei Gebieten demonstriert, CPU, APU, GPU.

Dass es daher Intel angeblich nur verspätet zu dieser Graphik-Leistung bringen soll, ist schon sehr witzig, aber anders als du zu glauben scheinst, nämlich einer ohne die erhoffte Intel-Pointe, stattdessen einer, der wie gesehen vollumfänglich nach hinten losgeht und eher allein AMD (be-)trifft.


zu "MorphCore"
das völlig aus der Luft gegriffene Gerücht, skylake könnte mit morphcore kommen, hast wohl vor allem du irgendwo aufgeschnappt und dann weitertransportiert


zu Kaby Lake:
kann sein, dass Kaby Lake aufgrund einer technisch oder gar wirtschaftlich bedingten Verzögerung von 10nm kommt,
kann aber auch sein, dass das so nicht zutrifft
und wenn es so kommt, aus welchen Gründen auch immer, kann es auch sein, dass Intel den Zwischenschritt nutzt, um seine Altera-FPGAs zu integrieren, oder nutzt, weitere architektonische Optimierungen zu realisieren (im Hinblick auf "Zen" oder was da sonst noch so kommen mag)
 
Find ich auch.. langsam könnten die Programmierer wieder mal ein wenig was lernen und anständige Arbeit abliefern
Jein, es lassen sich nun einmal nicht alle Algorithmen und Probleme paralellisieren, daher wird die Singletthreadperformance auch immer von Bedeutung bleiben. Wer etwas mehr von Programmierung versteht als nur, dass sie gemacht werden muss, der sollte das auch wissen.
 
DDR4 hat Skylake ja sowieso schon, nur hat die JEDEC lange gebraucht die SO-DIMMS für DDR4 zu spezifizieren, aber wieso sollten die Skylake Chipsätze für Notebooks dann nicht auch schon DDR4 unterstützen, zumal die ja auch erst deutlich nach denen für Desktops kommen werden?

Wieso regst Du Dich auf? Waren die Urlaube so verregnet? Freu Dich doch darüber, dass die Performance Deines Systems noch mit den aktuellen CPUs mithalten kann! Sehe nicht immer alles so negativ! :cool:

Langeweile is der einzige grund haha aber i weis das sind Probleme auf hohem niveau bei mir :rofl: naja wart ich halt
das surdace 4Pro kommt ja noch hoffe ich doch und werd mal noch das htpc-projekt in angriff nehmen :fresse:
 
Kaby Lake ist sicherlich Cannonlake in 14nm. Ich glaube nicht, dass Cannonlake überhaupt noch kommt. Die werden sicher schon an der neuen Architektur nach dem Refresh arbeiten, die Frage ist eher, bleibt man auch dabei bei 14nm.
 
Zuletzt bearbeitet:
Schwer zu sagen was Kaby Lake sein wird, vielleicht ein Skylake mit mehr Takt wie Haswell Refresh, vielleicht eine Revolution in Form einer Archikektur mit Morphocore, alles ist möglich und außerdem Namen ist ja noch nichts bekannt.
 
Intel hat es bisher nie für nötig gehalten Codenamen für so wenig zu verteilen und ich glaub auch nicht daran. Ich vermute, dass nächstes Jahr erst mal Skylake-Refresh mit mehr Takt kommt und später in 2017 dann Kaby Lake. In 2018 (eher gegen Ende) könnte dann der erste 10nm-Prozesser anstehen, oder eben auch nicht, falls sich der Ramp noch weiter verschiebt. Sicherlich wär das aber dann nicht Cannon Lake, da Intel ja keine Probleme mit neuen Architekturen hat, sondern mit der Fertigung und deren Kosten.
Also
August 2015 -> 14nm Skylake
Mitte 2016 -> 14nm Skylake Refresh
irgendwann 2017 -> 14nm Kaby Lake und 10nm Ramp
irgendwann 2018 -> 10nm/14nm neue µArch (Haswell-Team)

Bisherige Planung war ja:
August 2015 -> 14nm Skylake
Ende 2015 Ramp 10nm
Anfang 2017 -> 10nm Cannonlake
irgendwann 2018 -> 10nm neue µArch
 
Zuletzt bearbeitet:
@Lake Mendocino

Welcher gesperrte AMD Hasser mit zu viel Geltungsdrang da wohl einen neuen Fake-Account hat? Du scheinst dich irgendwie im Thema völlig verirrt zu haben. :rolleyes:

APUs sind natürlich alles andere als Nischenprodukte. Der Consumermarkt wird heutzutage in nahezu sämtlichen Bereichen von APUs bzw SoCs dominiert. AMDs und Intels Portfolio besteht zum Grossteil daraus. Kudos an AMD, dass sie auch hier wieder mal Vorreiter waren.

HSA ist auch kein Sonderweg, sondern eine Lösung für Heterogenes Computing via IL Layer. OpenCL ist damit nicht vergleichbar. Zumal AMD OpenCL ebenso stark unterstützt und auch als erste Support für OpenCL 2.0 hatten.

Clarkdale war auch keine APU, da CPU und GPU nicht monolithisch waren. Die erste x86 APU überhaupt wurde von AMD am 4.1.2011 in Form von Ontario gelaunched.

Zum Rest deiner "Ergüsse" muss man nicht viel sagen. Die sind so falsch wie dein Nick und so polemisch wie man es natürlich von verblendeten Intel Schafen gewohnt ist. Einen Lacher waren sie aber allemal wert. Wenn auch kein sonderlich guter.
 
Intel hat es bisher nie für nötig gehalten Codenamen für so wenig zu verteilen
Denk an Devil's Canyon, damit bezichnet Intel nur die beiden schnellsten Haswell Refresh Consumer CPUs und außer mehr Takt an Werk und einem oder zwei freigeschalteten Features die die Vorgänger nicht hatte, hat sich nichts geändert und trotzdem hat Intel einen eigenen Codenamen für die beiden CPUs vergeben.

APU ist übrigens ein Begriff den AMD erfunden hat und den nur AMD verwendet, daher halte ich es für sinnfrei diesen Begriff für CPUs anderer Hersteller zu nutzen, ganz gleich ob und wie da eine iGPU integiert ist.
 
APU heisst einfach nur, dass CPU und GPU auf einem Die vereint sind. Du kannst es natürlich auch immer ausschreiben, wenn dir das lieber ist. Ich bleibe bei APU und sehe kein Problem darin, den Begriff auch bei anderen Herstellern zu verwenden. In Zukunft ist vielleicht SoC der bessere und allgemeingültigere Begriff. Im Moment ist aber noch nicht jede APU auch ein SoC.
 
Denk an Devil's Canyon, damit bezichnet Intel nur die beiden schnellsten Haswell Refresh Consumer CPUs und außer mehr Takt an Werk und einem oder zwei freigeschalteten Features die die Vorgänger nicht hatte, hat sich nichts geändert und trotzdem hat Intel einen eigenen Codenamen für die beiden CPUs vergeben.

APU ist übrigens ein Begriff den AMD erfunden hat und den nur AMD verwendet, daher halte ich es für sinnfrei diesen Begriff für CPUs anderer Hersteller zu nutzen, ganz gleich ob und wie da eine iGPU integiert ist.
Das ist was anderes. Das brauchte natürlich einen neuen Codenamen, weil das ja explizit Spieler ansprechen sollte. Wie gesagt, gab es ja auch Änderungen mit der High-End-WLP und wohl bessere HS.
 
Zuletzt bearbeitet:
Es gab aber einen neuen Codenamen und daher kann Kaby Lake alles sein, von einem Skylake mit paar MHz mehr bis zu einer ganz anderen Architektur z.B. mit MorphoCore. Ersteres dürfte wahrscheinlicher sein als Letzteres, aber mehr als den Namen kennen wir eben noch bisher nicht. Und das es wieder "in 14nm" gefertigt wird.
 
Wenn es ein Skylake wäre, würde er Skylake heißen. Zudem gibt es Skylake Refresh ja offenbar ebenfalls noch.
 
Zuletzt bearbeitet:
APU ist übrigens ein Begriff den AMD erfunden hat und den nur AMD verwendet, daher halte ich es für sinnfrei diesen Begriff für CPUs anderer Hersteller zu nutzen, ganz gleich ob und wie da eine iGPU integiert ist.

Korrekt... Zumal AMD nicht einmal den ersten x86-Chip mit integrierter GPU auf den Markt gebracht hat. Das war nämlich Intel mit der Pine Trail Plattform Ende 2009. ;) AMD zog da glaube erst Anfang 2011 nach.
 
Hot, denk an Devil's Canyon! Das ist auch Haswell und heißt doch Devil's Canyon.

Das war nämlich Intel mit der Pine Trail Plattform Ende 2009. ;) AMD zog da glaube erst Anfang 2011 nach.
Deswegen haben sie ja auch eine neue Bezeichnung dafür genommen, damit sie sich eben abgeben, denn die eigentlich nötige Technologie um diese iGPU auch für die Berechnungen sinnvoll nutzen zu können, ist ja auch nicht gleich mit der ersten Generation integriert worden.
 
Und nochmal: Das ist ne Ausnahme, weil Intel direkt Gamer anspricht und DC Haswell unleashed ist.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh