Informationen zu Intels Skylake-EP sowie Cannonlake-(EP) durchgesickert

mhab

[online]-Redakteur
Thread Starter
Mitglied seit
03.08.2007
Beiträge
3.900
<p><img src="/images/stories/logos/intel3.jpg" width="100" height="100" alt="intel3" style="margin: 10px; float: left;" />Der Chipriese <a href="http://www.intel.de" target="_blank">Intel</a> plant für das Jahr 2017 den Start der „Cannonlake“-Plattform. Geht es nach den aktuellen Gerüchten, werden die Prozessoren nicht nur im 10-Nanometer-Prozess hergestellt, sondern sollen auch mehr Rechenkerne bieten. Demnach sollen die CPUs nicht wie bei den bisherigen Prozessoren-Generation im Consumer-Bereich maximal vier Rechenkerne besitzen, sondern mindestens sechs oder sogar acht Kerne zur Verfügung stellen. Diese Information soll direkt von einem Intel-Ingenieur stammen, der Prozessoren aus der Cannonlake-Plattform mit 4, 6 und 8 Rechenkernen entwickelt.</p>
<p>Bisher hatte Intel die...<br /><br /><a href="/index.php/news/hardware/prozessoren/36775-informationen-zu-intels-skylake-ep-sowie-cannonlake-ep-durchgesickert.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
8 Kerne bei gleicher oder höherer IPC für 400€ dann geht Sandy Bridge in Rente.
 
Ich kann mir durchaus vorstellen, wenn Amd mit Zen Prozessoren in den Markt wirft die echte Acht Kerne haben, dass Intel dahingehend nachziehen will, auch wenn die Antwort Sechs Kerne sein wird.
 
Cannonlake wird es nicht mit mehr als 4C/8T geben für den Mainstream-Bereich. Die Aussagen des intel-Ingenieurs bezogen sich eindeutig auf die low-power Serverprozessoren.

Dann wird es halt Zen oder Sandy Bridge bleibt noch ein paar Jahre. Wer kein will bekommt auch keins.
 
Verstehe die Aufregung um diese Spekulation nicht. Der 5820k ist doch schon fast im Mainstream. Glaube nicht das der kleine Sockel so schnell 8 Kerne bekommt, aber 6 auf jeden Fall. Wozu sonst Kablylake dazwischenschieben, wenn es ansonsten keinen Mehrwert gäbe.
 
Schade das man sich mit dem Skylake E soviel Zeit lässt :(
 
Ich glaube nicht, dass sich Intel Zeit lässt. Viel eher ist davon auszugehen, dass sie den Fertigungsprozess nicht wirklich im Griff haben. - Wie sonst sind die homöopathischen Dosen zu erklären, mit denen bspw. Core i7-6700k auf den Markt tröpfelt? - Jetzt einfach mal einen Chip vom Band laufen zu lassen, der im gleichen Fertiungsverfahren gefertigt wird, aber noch größer ist, wird in noch katastrophaleren Resultaten münden. - Intel bzw. die Verantwortlichen dort, wissen das und werden daher hübsch abwarten, bis die Probleme beim "kleinen" Skylake ausgeräumt sind, bevor man sich an die E-Variante heranwagt.
 
Da klafft dann die Architekturspalte zwischen dem Mainstream/Performance und dem High End Sockel wieder auseinander, sogar etwas mehr denn je.
Haswell E(/P) kam ja Aug. 2014 raus wo Haswell am Sockel 1150 noch aktuell war. Das aber wohl auch nur weil Broadwell verzögert kam.
Jetzt kommt ja irgendwann 2016(?) erst mal Broadwell-E und erst in der ersten Hälfte 2017 Skylake-E. Da gibt's dann vielleicht schon Cannonlake am Mainstream Sockel wenn Intel bis dahin das mit 10nm Fertigung im Griff hat.

Naja was soll's, die ersten Gerüchte hören sich schon mal nicht schlecht an. 48 PCI-E Lanes an der CPU und nochmal bis zu 20 am Chipsatz bieten schon mal ordentlich was für's Erweiterungsherz. Als Enthusiast kann man sich da 3 Grafikkarten und diverse M.2 SSDs reinpacken ohne Kompromisse. Und im Serversektor bietet das auch genug für diverse Controller (SAS/RAID) oder Schnittstellenkarten.
Die 28 Kerne (wirklich Skylake-EP oder doch eher -EX ?) sind Serverseitig bestimmt auch interessant.

Cannonlake wird es nicht mit mehr als 4C/8T geben für den Mainstream-Bereich.
Wie meinst Du das? Daß keine 4C/8T Cannonlake am Mainstream Sockel kommen werden sondern nur noch mit mehr Kernen, oder meinst Du es werden keine Cannonlake mit mehr Kerne als 4C/8T (also keine 6 und 8 Kerner) am Mainstream Sockel kommen?
Beide Aussagen halte ich für unwahrscheinlich.

Denn zu 1) - auch in Zukunft will man doch Celeron und Pentium CPUs haben. Daß diese mit Cannonlake schon mehr als 2 Kerne haben werden bezweifle ich zwar, aber 2 + HTT oder 4 ohne HTT sind durchaus denkbar.
Und zu 2) nach oben sind 6 Kerner (als i5? ohne HTT oder vielleicht nur i7) auch durchaus denkbar.

Gerade wenn AMD wirklich nächstes Jahr mit Zen etwas aufschließen kann und eventuell wieder viele Kerne in preislich niedrigen Regionen bringt muß Intel etwas machen.

Mehr Kerne sind auch in den allermeisten Fällen schlichtweg unnötig, da es kaum Software gibt, die davon profitieren würde. 3d-Rendering ist fast das einizige wo man von mehr Kernen profitiert, aber da gibt es mittlerweile auch Render-Engines, welche die GPU benutzen und wesentlich schneller sind. Dazu kommt noch, daß man die TDP der Mainstream-CPUs unterhalb der 100W-Marke halten will, und was man bei der CPU durch einen kleineren Fertigungsprozess einspart wird dann eher in die iGPU oder die MHz/Kern (IPC) gesteckt.
Also auf die MHz/Kern wird man nicht mehr so setzen können. Sieh Dir mal die vergangenen Jahre an, da gab' es mehrfach kleinere Fertigungsprozesse aber kaum mehr Taktraten. Und mit OC sieht man ja bei jeder Architektur ganz gut wo in etwa das realistische Maximum liegt. Da liegen Sandy, Ivy, Haswell und Skylake so ziemlich auf Augenhöhe (letztere geköpft). Tendenz zu höheren Taktraten eher bei Sandy.
Was glaubst Du warum die Leute alle heulen daß es da kaum einen Leistungsfortschritt in den letzten Jahren gibt, wenn die Kernanzahl (am Mainstream Desktop) gleich bleibt und die Taktraten nur minimalst nach oben gehen? Alleine mit der IPC kann man sich keine Wunder erwarten, da sind 10-15% Steigerung schon toll.
 
Ein kleiner Denkanstoß für die Leute, die auf mehr Takt bestehen.
Ab nem gewissen Punkt steigt die Vcore unverhältnismäßig an für nen stabilen Takt.
Die CPU auf höhere Taktraten auszulegen ist weitaus schwerer als mehr Kerne hinzuzufügen.
Stichwort Tunnelströme etc. Kann man sich in etwa vorstellen wie bei nem Auto.
Bis sagen wir mal 100km/h steigt der Spritverbrauch leicht an, darüber gehts je nach Wagen rapide hoch.

Zu Singlecorezeiten wurde beißerisch versucht, den Takt weiter hohzuzüchten, bis der Punkt erreicht, dass man bemerkt hat, es viel einfacher ist, 2 Kerne in eine CPU zu packen.
Es ist sowohl aus energietechnischer Sicht als auch aus Entwicklungssicht rentabler, Richtung Mulicore zu gehen.
Mehr Takt wird je weiter man hoch geht immer schwieriger stabil zu bekommen und das noch ohne den Verbrauch durch die Decke schießen zu lassen.
Kleinere Fertigungsverfahren für kürzere "Schaltwege", um die Verlustleistung zu minimieren und Multicore sind der way to go.
 
@Quantum Luke
Ja leider ist es so wie Du sagst. Mit den aktuellen Technologien kommt man taktmäßig nicht mehr viel weiter ohne die Spannungen und somit den Verbrauch unverhältnismäßig in die Höhe zu treiben.
Intel wollte ja mit dem Pentium IV in GHz Regionen weit über 5GHz (von bis zu 10GHz war mal die Rede). Allerdings hat man dann ab 4GHz gemerkt daß die Effizienz nachlässt und es mit der Wärmeabfuhr problematisch wird. Bis zum P IV waren die CPU Kühler meist auch noch recht klein und noch selten aus Kupfer. Was ich mich so erinnere kamen eben erst mit den schnelleren P IV die dicken CPU Kühler in Tower Form und mit Heatpipes. Die eigneten sich natürlich auch gut am Sockel 462 (A) aber so richtig notwendig waren die beim P IV. Der Boxed Kühler meines P IV 2.8 GHz (Prescott) war eine Frechheit was Leistung aber vor allem Lautstärke anging.

Tja wie dem auch sei, schon damals war man knapp bei 4GHz ... und wo sind wir heute? ;)
 
Zu Singlecorezeiten wurde beißerisch versucht, den Takt weiter hohzuzüchten, bis der Punkt erreicht, dass man bemerkt hat, es viel einfacher ist, 2 Kerne in eine CPU zu packen.
Es ist sowohl aus energietechnischer Sicht als auch aus Entwicklungssicht rentabler, Richtung Mulicore zu gehen.

Mehr Cores klappt von 1 auf 2 oder von 2 auf 4 ja noch im Alltag. Wobei letzteres schon fast nicht aufgeht. Nach deiner Sysinfo hast du nen Quadcore Core2. Schau dir doch mal deine Alltagslast im Taskmanager an... Und dann rechne dir selbst aus, was passiert, wenn du da nochmal ne Coreverdopplung drauf packst -> es wird nicht schneller. Die Szenarien, die mit der CPU Breite skalieren sind heute relativ dünn. Und davon sind viele dabei, die einfach klar ausschließlich darauf ausgelegt sind. Da ist dann nicht bei acht oder 12 Cores schluss. Sondern das geht bis der Arzt kommt. Wie viel dieser Software betreibt Otto Normal Bürger wirklich bei der tag täglichen Arbeit? Und vor allem, wer solche Software intensiv nutzt, kauft auch entsprechend breite CPU Modelle.

Aus meiner Sicht kommt man heute relativ gut im Alltag mit nem kleinen Mobile Dualcore + SMT aus. Für die normalen Sachen muss der Takt auch nicht da sein. Wichtig ist, das das Modell in der Lage ist, Lastspitzen durch einen aggresiven Turbo abzufedern. Das klappt bei den kleinen i5/i7 Mobile Modellen ja aktuell super. Bei den dicken Boliden ala S2011 nicht wirklich -> denn da wirkt der Turbo nicht richtig und das merkt man einfach. Vor allem, wenn man noch OC drauf hat und der fehlende Takt drastisch hoch ist...


Mit mehr Cores erschlägst du definitiv das Problem nicht. Und dass jede Software in Zukunft 1A auf MT skaliert, halte ich für Wunschdenken. Es ist einfach heiden viel Aufwand jeden "Pfiff" auf MT zu programmieren, zumal es auch bei weitem nicht überall geht. Vor allem, wenn man davon eigentlich gar keinen wirklichen Mehrwert zur Zeit der Erstellung hat. -> und schon fängt man über die Monate und Jahre an zu merken, wo der Hase krankt. Nämlich an dem Punkt, wenn es leistungstechnisch schnellere CPU Modelle (pro Takt/pro Thread) gibt.
Mal im Vergleich, ich hab hier noch aktiv eine Kiste zu stehen mit nem Phenom I 9550 -> das Teil ist mit ner 830er Samsung SSD bestückt und nutzt Win 8.1 x64 als OS. Rein vom Feeling her ist damit deutlich weniger fluffiges Arbeiten drin als mit einem i5-4200U im Surface 2 Pro, was ich als Vergleich hier habe. Beide mit vier Threads, letzterer aber mit den deutlich dickeren Cores und mauem SMT im Vergleich zu vier gleichen Cores mit höherem Takt...
Das Problem beim Erkennen solcher Sachen ist einfach, du wirst weniger stark merken, wenn es schneller wird. Aber du merkst es extrem stark, wenn es nicht mehr gewohnt schnell funktioniert ;) Sprich aufrüsten merkt man nur, wenn die Lücke riesig ist. Beim Abrüsten hingegen kann/wird dir das deutlich eher auf die Füße fallen!
 
@fdsonne
Also ich habe zahlreiche Games, wo 3-4 Kerne am Limit sind.
Daher wird mein Q9550 auch rausfliegen, bisher fehlte das Geld.

Ich habe halt oft verschidene Games gleichzeitig offen, teilweise aufgrund des chats. Dazu dann noch diverse streamingseiten, youtube, twitch, an sich viele offene tabs.
Da merkt man dann schonmal, dass 1 oder 2 Kerne mehr nicht schaden würden.
Gut, die niedrige IPC meiner CPU spielt natürlich auch ne gewisse Rolle bei der Sache, ich halte es jedoch für sehr sehr unwahrscheinlich, dass next-gen Spiele Kerne mit ner derzeitigen IPC und mehr als 4GHz brauchen, um flüssig zu laufen. Wenn man sich mal die Konsolen ansieht, kann ne Entwicklung zum Hexacore nicht mehr lange dauern.
Wie gesagt, ein Quad ist das allermindeste fürs Gaming, wenn noch viel im Hintergrund läuft, kann es knapp werden.
Aber in der Hinsicht ist ja jeder anders gestrickt, einer hat permanent zahllose tabs offen und Hintergrundprogramme am laufen, der andere spielt ausschließlich ein Spiel.
 
Du widersprichst dir doch selbst. Erst sagst du, dass du nen Quad hast und mehrere Spiele gleichzeitig offen, dann sagst du, dass QuadCore das Minimum sei für "Gaming".
 
Aber in der Hinsicht ist ja jeder anders gestrickt, einer hat permanent zahllose tabs offen und Hintergrundprogramme am laufen, der andere spielt ausschließlich ein Spiel.

Das ist aber nur die halbe Wahrheit. Es zählt nicht, was offen ist, sondern es zählt, was Leistung benötigt. Ich nutze die Tabs meines Browsers als quasi permanente Bookmarks. Da kommen über die Monate gern mal 150 Tabs zusammen, die sind halt offen, wenn der Browser offen ist. Das kostet mich genau NULL CPU Performance, sondern einfach nur RAM.
Wo ich mir allerdings die Frage stelle, wozu braucht man xx viele Programme, wenn man so oder so gerade spielt, womöglich sogar im Vollbildmodus? Das hat überhaupt keinen Sinn und erschließtlich sich im Grunde jeglicher Logik.

Mal als Beispiel, auf meiner Workstation laufen aktuell gerade ~1500 Threads. Die sind da und laufen einfach... Während ich hier den Text tipper. Die CPU hat eine Load von 1-2%, verteilt auf alle 16 Threads. Der Leistungsbedarf kommt einfach in meinem Fall aus dem Grund, dass ich diverse Tools zur Überwachung offen habe, so läuft ein Afterburner Fenster mit Diagrammen für die GPUs, es läuft das Corsair Link Tool zur Lüfter/Temp Überwachung, ggf. auch Verbrauchsüberwachnung. Es läuft idR der Taskmanager zur CPU Load Überwachung usw. usf.

Das alles würde ein Singlecore mit SMT spielend abdecken können. SMT/CMT deshalb, weil das Ansprechverhalten bei einem einzigen Threads grausig ist.
Wozu soll ich nun künstlich viele Programme öffnen, die Leistung kosten können, obwohl man diese gar nicht aktiv nutzt, wenn ich diese im Bedarfsfall einfach dann aufmachen könnte? Dank SSD und genügend RAM auch ohne wirkliche Verzögerung beim Öffnen?
Mehrere Spiele gleichzeitig offen zu halten, halte ich für sehr konstruiert um mehr CPU Power zu rechtfertigen ;)


Auch ist es nicht so, dass die Games auf die Cores hin optimiert werden. Sondern es läuft genau der gegenteilige Prozess. Man nutzt die Cores/Threads für mehr Berechnungen. Das sieht für den Außenstehenden zwar dann im Endeffekt gleich aus (also kommt aufs selbe Resultat), der Hintergrund ist aber Grundverschieden. Wenn nämlich einfach mehr Sachen berechnet werden, dann bringt eine breite CPU einfach gerade mal eine gewisse Basisleistung um dieses "Mehr" an Berechnungen ausführen zu können. Ist die CPU nicht breit genug, dann sinkt die Leistungs, teils drastisch.
Mit den Konsolen hat das aber einfach mal überhaupt nichts zu tun... Denn es behebt das Grundsätzliche Problem nicht. Und das ist einfach, dass eine gewisse Basisperformance notwendig ist, damit das Spiel erstmal rund läuft... Alles was an CPU Performance oben drauf kommt, ist quasi nettes Beiwerk, aber nicht zwingend notwendig. Mit mehr Cores erhöhst du die Leistung des Spiels also einfach nicht. Zumindest nicht ab dem Punkt, wo die CPU grundsätzlich breit genug ist.
Anders schaut das beim API Overhead aus. Je nach GPU (AMD oder NV) kann es hier drastische Unterschiede geben. Eine vier Thread Mittelklasse CPU ala Intel i3 oder AMD Athlon X4 ist selbst mit einer Lower Level API ala Mantle, ggf. auch DX12 nicht zwingend in der Lage, maximale FPS aus einer HighEnd GPU zu quetschen, obwohl nachweislich die Spiele die CPU lange nicht ans Limit treiben müssen. Das liegt dann wiederum aber nicht am Spiel, sondern am Treiber und den Optimierungen. Ebenso gibt es eine extrem klaffende Lücke zwischen NV und AMD in dem Bereich. Wo die AMD GPU deutlich mehr CPU Power braucht um in Fahrt zu kommen, ist das bei der NV GPU deutlich eher der Fall, obwohl beide eigentlich in etwa gleich schnell sein sollten und das Spiel absolut keinen Unterschied zwischen AMD und NV GPU in Sachen Gameberechnungen machen kann/sollte.


Wo ich dir aber zustimme, zumindest zum Großteil, ein Quad sollte man schon haben, wenn man wirklich die neueren Titel spielen will und dazu noch ne relativ große GPU hat. Das liegt aber wie erwähnt nicht am Spiel, sondern viel eher zu einem großen Teil am API Overhead und an den Zusatzberechnungen, die einfach in neueren Titeln immer mehr anzutreffen sind...
Theoretisch wäre es gar denkbar, dass die Entwickler deutlich mehr Cores ansprechen für ihren Zusatzspaß. KI Berechnung kann bspw. extrem komplex und zugleich extrem gut auf MT skaliert werden. Damit bekommst du theretisch gar 8, 12 oder 16 Threads klein und da ist lange noch nicht schluss... Nur warum sollte man das als Entwickler tun? Der heimische Mitteklasse PC hat 4-8 Threads, die er abdecken kann. Ein Spiel, was damit nicht klar kommt, verkauft sich einfach nicht... Ergo ein absolutes NoGo. Ebenso hat der Spielemarkt in Zukunft an der Stelle noch das ganz dezente Problem, dass die Lücke zwischen breiten CPUs und im Alltag notwendigen CPUs immer weiter auseinander klaffen wird. Das heist, die Spieleentwickler müssen sich da einfach mal was einfallen lassen...
 
@Quantum Luke
Bis Anfang des Jahres habe ich ein sehr ähnliches System wie Du als Haupt PC genutzt (Core2Quad Xeon @ 4GHz, EP45-UD3P, 8GB DDR2 @ 1000+ MHz CL5, 840 Pro SSD, GTX 680 OC [Leistung vergleichbar einer 280X], Win7 64Bit)
Dank der schnellen GPU und SSD konnte ich mit dem Sys noch so alles mit recht hohen Einstellungen/FPS spielen. Allerdings achte ich darauf daß beim Spielen eher alles unnötige geschlossen ist. Da interessiert es mich nicht ob ich gerade eine Email, sonstige Nachrichten bekomme und schaue auch keine Videos/höre keine Musik etc. daneben. Liegt bestimmt auch an der Art der Spiele die man spielt.
Bin dann auf einen 6 Kern i7 umgestiegen weil ich mir keinen Quad (auch mit HT als i7 a'la 4790K) mehr kaufen wollte. Und JA - man merkt einen Unterschied. In einigen Bereichen (z.B. Videokonvertierung) enorm, in anderen etwas (Spiele wie z.B. BF4 laufen nun etwas flüssiger) und in einigen aber so gut wie gar nicht (Office, Surfen etc.)
Das zeigt auch schön welche Anwendungen bzw. Anwendungsgebiete was für Anforderungen bzw. Nutzung der Kerne mit sich bringen. Wenn Du jetzt tatsächlich z.B. ein (oder mehrere) Spiel(e) spielst die das System schon gut auslasten (Bei BF4 hatte ich permanent fast 100% Last auf allen 4 Kernen beim C2Q) aber daneben noch Streamen etc. willst kann es da bei einem Quad schon recht knapp werden.
Bei vielen anderen Spielen die z.B. nur 2-3 Kerne nutzen und vielleicht auch nicht permanent 100% abfordern kommt man mit einem Quad bestimmt auch noch gut zurecht.
Und wie fdsonne schon schrieb kommt es nicht darauf an wie viel man offen hat (das geht eher in Richtung RAM) sondern wieviel davon wirklich aktiv ist und Last erzeugt.

Um auf's Thema zurück zu kommen, ich kann mir gut vorstellen daß es vielleicht schon mit Cannonlake mehr als 4 Kerne am Mainstream Sockel geben könnte. Allerdings wird es bestimmt auch Varianten mit wieder nur 2 Kerne geben, eben weil der Markt es verlangt. Bei Zen denke ich ebenfalls in diese Richtung. Die Hersteller müssen die Nachfrage abdecken und auch in 2 Jahren wenn dann Cannonlake kommt bzw. Zen hoffentlich auch schon breit am Markt ist werden für kleine Officemühlen oder günstige Notebooks 2 Kern CPUs (teils halt mit HTT) benötigt.
Und bzgl. Spiele die mehr als 4 Kerne nutzen (und auch zum Konsolenthema weshalb dies vermutet wird), JA - es kommen bestimmt Spiele die das nutzen und davon profitieren. Bis das jedoch die Mehrzahl ist werden wohl noch einige Jahre vergehen. Solange es noch so viele Dual Core Systeme gibt bzw. welche die 4 Threads/Kerne haben werden die Entwickler darauf Rücksicht nehmen müssen. Man will sich ja keine Käufergruppen ausschließen wenn z.B. das Spiel auf 4 oder weniger Kernen nicht mehr spielbar läuft. Und aktuell ist das noch eine sehr große Anzahl.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh