IDF2015: Die Skylake-Architektur im Detail

dbode

Administrator
Hardwareluxx Team
Thread Starter
Mitglied seit
04.05.2001
Beiträge
10.699
<p><img src="/images/stories/galleries/news/idf2015/idf2015logo.jpg" width="100" height="100" alt="idf2015logo" style="margin: 10px; float: left;" />Das IDF 2015 nutzte Intel, um erstmals Details zu ihrer neuen Skylake-Architektur zu präsentieren. Den Test der ersten Prozessoren hatten wir mit dem <a href="index.php/artikel/hardware/prozessoren/36200-skylake-core-i7-6700k-und-core-i5-6600k-im-test.html">Core i5-6600K und dem Core i7-6700K bereits online</a> – ungewohnterweise präsentiert Intel aber erst nach diesem ersten, vorgezogenen Launch die Architekturdetails.</p>
<p>Zunächst erklärte Intel die historische Entwicklung von Skylake im Unternehmen, die während der letzten fünf Jahre mehrmals verändert worden ist. Skylake wurde von Intel vor fünf Jahren als...<br /><br /><a href="/index.php/news/hardware/prozessoren/36354-idf2015-die-skylake-architektur-im-detail.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Verbesserungen, Verbesserungen, "Verbesserungen"... und am Ende kommen wieder nur ne Handvoll Prozentpunkte greifbare Mehr-Performance raus...
Der CPU-Markt hat endlich mal eine Art Revolution nötig die wieder Spielraum für echten Fortschritt schafft!

Z.B. das was schon seit langem vorhergesagt wird: Kleine aber viele Kerne. Z.B. ein 50kerner um die Softwareentwickler dazu zu zwingen, von vorherein so viel zu paralelisieren wie möglich. Eventuell ein Dualdesign wie bei den Mobilprozessoren 1-4 Starke Kerne + viele kleine.
Ich weiss das klingt abstrus, aber das wäre eine langfristige Basis und Intel hätte die Marktmacht dazu (besodners als fast-Monopolist), die Industrie in solch eine Richtung zu lenken, auch wenn solche CPUs anfangs rote Zahlen verursachen würden.

Früher hat die Chipindustrie tatsächlich mal regelmäßig mit Umbrüchen agiert - die Softwareeentwickler mussten sich wohl oder übel anpassen oder blieben auf der Strecke. Heute scheint es als ob der Hardwarehersteller den Softwarehäusern hinterherrennt und die sind naturgemäß eher unflexibel.
Erinnert mich ein mal mehr an "The innovator's dilemma" oder an den berühmten Rat (in etwa): Höre nicht auf deine Kunden (die wollen nur das Bestehende "etwas besser") - Überlege dir stattdessen was sie wirklich brauchen könnten.

Glaube Serveranwendungen würden sich sogar erstaunlich schnell anpassen, sofern es bei x86 bleibt.

@ELKINATOR Ziemlich sicher nicht alle Ausbaustufen, aber die Grundlage schon.
 
Zuletzt bearbeitet:
Verbesserungen, Verbesserungen, "Verbesserungen"... und am Ende kommen wieder nur ne Handvoll Prozentpunkte greifbare Mehr-Performance raus...
Der CPU-Markt hat endlich mal eine Art Revolution nötig die wieder Spielraum für echten Fortschritt schafft!

Warum das Melkverfahren ändern, wenn die Kuh weiterhin gut und günstig Milch liefert ?
Ist wie mit allen anderen Dingen, die die Industrie für ihre Kunden bereithält.
Grundlegendes wird nicht verändert, solange es nicht nötig ist. An ein paar Ecken und Kanten wird etwas gefeilt und fertig ist die neue gehypte Innovation zum gestiegenen Neupreis.
Veränderung kostet schließlich Geld.

Hätte z.B. NVIDIA keine Konkurrenz, so würden wir Heute noch mit dem G80,G92,G104,G128,G138 ect.usw.usv. uns unsere Gamerträume verwirklichen und uns jedes Jahr über 5% mehr Leistung freuen.
Das selbe gilt natürlich auch für ATI/AMD. Nur der Form halber. ;)

Ein Monopol kann man durchbrechen, indem man als potenzieller Kunde einfach nicht kauft. Ganz einfach. :)
 
Hab ich das richtig gelesen, auch im Desktop CPU steckt eine Kamera CPU (ISP)?

Was denn noch alles? Erst GPU, dann image signaling processor.
Wann schmeißt Intel endlich diesen ganzen Mist raus, der nicht in eine CPU gehört? (zumindest bei den K-Modellen).
 
Warum das Melkverfahren ändern, wenn die Kuh weiterhin gut und günstig Milch liefert ?
Ist wie mit allen anderen Dingen, die die Industrie für ihre Kunden bereithält.
Grundlegendes wird nicht verändert, solange es nicht nötig ist. An ein paar Ecken und Kanten wird etwas gefeilt und fertig ist die neue gehypte Innovation zum gestiegenen Neupreis.
Veränderung kostet schließlich Geld.

Hätte z.B. NVIDIA keine Konkurrenz, so würden wir Heute noch mit dem G80,G92,G104,G128,G138 ect.usw.usv. uns unsere Gamerträume verwirklichen und uns jedes Jahr über 5% mehr Leistung freuen.
Das selbe gilt natürlich auch für ATI/AMD. Nur der Form halber. ;)

Ein Monopol kann man durchbrechen, indem man als potenzieller Kunde einfach nicht kauft. Ganz einfach. :)

Ich sehe das Ganze nicht als Problem des Monopols an. Diese Prinzip der langsamen Verbesserung verfolgen viele Firmen selbst wenn es Konkurenz gibt, solang sie sich gegenseitig leben lassen wie es auch bei Intel und AMD der Fall war). Das bekommt den Unternehmen aber langfristig nicht gut.

Man muss sich mal den Markt der Medien anschauen:
Walkmen bzw. Kasetten und CDs wurden durch iPods und andere Mp3player ersetzt. Videotheken und nach und nach Fernsehsender werden durch Streamingdienste ersetzt. Fixe Heimcomputer wurden durch Mobilgeräte ersetzt. Katalogbasierende Geschäfte werden durch Onlineshopping ersetzt. Usw. usw.
Bei all diesen Dingen fällt eines auf: Es sind fast nie die selben Unternehmen die auf eine neue Technologie/Idee umstellen und erfolgreich sind.
Es sind neue Unternehmen.

Der Grund ist, dass sich Etablierte gerne ausruhen und sich Änderungen verweigern.
Als Kunde kann man da leider nicht wirklich was machen, höchstens rechtzeitig auf solch ein Start-Up umsteigen.

Was denn noch alles? Erst GPU, dann image signaling processor.
Wann schmeißt Intel endlich diesen ganzen Mist raus, der nicht in eine CPU gehört? (zumindest bei den K-Modellen).
Naja, das langfristige Ziel sind "SoCs" und das ist auch völlig nachvollziehbar, schließlich ist das am effizientesten (sowohl kostenweise als auch stromefizient).
 
Zuletzt bearbeitet:
ich kanns nicht erwarten skylake endlich im dell xps13 zu haben, ihr mit euren paar prozent mehrleistung könnt mir gestohle bleiben, überall das selbe gelaber. die stromsparmaßnahmen lesen sich einfach nur großartig. skylake ist n großer wurf!
dmi 3.0 für intle ne kleine revolution
und beim tippen meiner hausarbeit usw. brauch ich nichtmal ansatzweise mehr leistung als vor 5 jahren. und jetzt stell dir vor, nicht jeder nutzt seinen pc zum zocken, im gegenteil, ein verschwindend geringer anteil tut es.
ihr solltet intel lieber sehr sehr dankbar sein dass es überhaupt noch gesockelte cpus gibt.
in den laptops, auch in den meisten gaming laptops wirds nun verlötet
 
Ich denke es ist nachvollziehbar, dass ich diesen SoCs am Desktop-PC nicht gut gesonnen bin.
Da sie für mich den Hauptgrund darstellen, warum sich in Sachen CPU-Leistung pro neuer CPU-Generation nur ~10% Mehrleistung ergibt. (will sagen, Intel kümmert sich nicht mehr um Desktop und macht in anderen Bereichen weier, siehe nur die Unmengen an euen Technologien in diesem Artikel: IDF2015: Intels Blick in die Zukunft (Keynote) )
 
ja aber das ist doch seit lange abzusehen, der desktop pc ist ein fossil. wer will noch son riesen kasten rumstehen haben? 99% der leute nutzen pcs zum surfen usw. in meinem bekanntenkreis hat niemand mehr n desktop pc, höchstens n imac wenns n großer bildschirm sein soll.
und bei ultrabooks laptops 2in1 tablets usw. hat intel noch einiges zu verbessern, die leistung reicht 99% der menschen dicke.

ddr4 und skylake wird nochmal richtig schwung in die laptop riege bringen, ich freu mich.

und die die immer nach mehr leistung schreien, warum kauft ihr euch denn nicht einfach die enthusiasten plattform?! ich beschwer mich in meinem golf doch auch nicht dass er nicht so schnell ist wien porsche.

alle wollen mehr kerne , mehr leistung, als gäbe es X99 nicht. dann aber als ich in der kaufberatungs ecke hier war und einen 4k gaming pc plante , sagten alle n 5820k braucht man für gaming nicht....

die meisten hier wollen doch bloß mehr kerne und mehr leistung weils, nicht to have ist. zockt man in 1080p und 60hz, reicht alles was seit 4 jahren auf dem markt ist zum zocken dicke aus.
 
Ich denke es ist nachvollziehbar, dass ich diesen SoCs am Desktop-PC nicht gut gesonnen bin.
Da sie für mich den Hauptgrund darstellen, warum sich in Sachen CPU-Leistung pro neuer CPU-Generation nur ~10% Mehrleistung ergibt. (will sagen, Intel kümmert sich nicht mehr um Desktop und macht in anderen Bereichen weier, siehe nur die Unmengen an euen Technologien in diesem Artikel: IDF2015: Intels Blick in die Zukunft (Keynote) )

Auch ohne den "Mist" bekommst du nicht mehr als 10% Mehrleistung. ;)

Mich interessieren auch vor allem die Prozessoren für die mobilen Geräte, ich hoffe da ist Intel ein großer Wurf gelungen.
 
er versteht wohl nichtmal welche vorteile ein SOC hat, wenn man alles direkt integriert verkürzt das die signalwege/latenzen, zu glauben durch die integration den chipsatzes wird ein chip langsamer ist echt arg:O
 
er versteht wohl nichtmal welche vorteile ein SOC hat, wenn man alles direkt integriert verkürzt das die signalwege/latenzen, zu glauben durch die integration den chipsatzes wird ein chip langsamer ist echt arg:O
Denke er spielt eher auf die Tatsache an dass sich Intel generell auf Mobil-Zeug konzentriert und dabei definitiv die Effizienz vor der bloßen leistung Vorrang hat.
So oder so, noch sind wir nicht bei SoCs. Eine Hardwareunterstützung für Kameras hat auch sonst Vorteile. Livebildverabreitung erfordert auf einer normalen CPU relativ viel Leistung.
 
Was denn noch alles? Erst GPU, dann image signaling processor.
Wann schmeißt Intel endlich diesen ganzen Mist raus, der nicht in eine CPU gehört? (zumindest bei den K-Modellen).

Das gefällt mir auch nicht. Aber die Lösung für unsereins ist dann der Sockel 2011-xyz.
 
Ich bin hier beim Lesen manchmal echt vom Glauben abgefallen.
Zeigt doch mal ein bisschen Empathie.
1. Intel macht nicht so viel auf Stromsparen etc, weil sie es gerne so mögen. Ganz im Gegenteil, das kann ja ARM viel besser. Aber das verkauft sich besser, weil es die meisten Leute kaufen, weil es das ist, was sie brauchen. Ergo: Mit Skylake macht Intel die meisten glücklich. Das ist nicht nur strategisch gut, sondern im weiteren Sinne sozial.
2. Wer immer schreit "dann kauft doch die Enthusiasten-Plattform" denkt auch nicht drüber nach. Der Hauptvorteil der 2011er liegt in a) mehr Kernen >4+HT und b) mehr PCIe-Lanes. Beides ist erwiesener Maßen nicht sonderlich von Vorteil beim Zocken. Auch wenn selbst Intel es gerne anders verkauft. Die Mainstream-Plattform soll alle glücklich machen und kann damit nicht jedes Sonderbedürfnis erfüllen. I3s und darunter sind für Office-PCs, I5s für alle die auch mal was anspruchvolleres machen und I7 für Hochleistungsanforderungen - wie gesagt jeweils im Mainstream/Business --> schließlich sind auch die Business-Chipsätze jeweils für die Mainstream-Plattform.
Leider sind High-End-Gamer in all der Bandbreite nicht vertreten. P/L-Jäger nutzen I5(K)s. Aber ein I7 ist nichts viel besser fürs Gaming.
Ein I7-Gaming bräuchte 6 ECHTE kerne (HT bremst manches Game, mehr wird eigentlich nirgendwo genutzt), 4GHz+ und <=30 PCIe 3.0 Lanes (GPU: 16, SSD:4-8, Soundkarte: 1, NIC: 2). Das Ganze für Preise <=350€. Dafür können dann HT, iGPU, Coprozessoren, VT-x etc. raus.

Also denkt doch einfach mal dran: Die meisten werden mit Skylake sehr glücklich. Intel ist sehr klug, genau so zu handeln. ABER: es stimmt schon, dass die perfekte Gaming-CPU einfach nicht angeboten wird, obwohl die Technik da wäre. Die X99-er Plattform ist es jedenfalls nicht.

LG
Tim
 
Intel fährt momentan die Effizienz-Schiene.

Müssen sie auch.

Es droht mehr Gefahr aus der ARM-Richtung als von AMD. Wenn man sich ansieht, was im Bereich von ARM derzeit alles auf uns zurollt (10core Mediatek MT6797 - brachiale Leistung - oder 8core Allwinner A80 für kleine parallelisierte Leistung), kommt man aus dem Staunen kaum heraus.

Wenn die x64-Windows-Welt nach und nach auf der ARM-Architektur ankommt, hat Intel ein größeres Problem als AMD. Im Augenblick hat Intel lediglich die x86-Dominanz in der Hand.

Ich nutze seit einigen Tagen ein Billig-China-Tablet (ca. 100€) mit einem 8core Allwinner A83T - 8x 2GHz & Dank big.LITTLE sehr stromsparend. Aber von der Leistung her sehen die ganzen doppelt- und dreifach so teuren Samsung-Tablets mit ihren Dual- & QuadCores kein Land gegen diesen Billig-Kram. Wenn da x86-Software drauf laufen könnte - sinnvoll parallelisiert - wäre alles anders.
 
Ich bin hier beim Lesen manchmal echt vom Glauben abgefallen.
Zeigt doch mal ein bisschen Empathie.
1. Intel macht nicht so viel auf Stromsparen etc, weil sie es gerne so mögen. Ganz im Gegenteil, das kann ja ARM viel besser. Aber das verkauft sich besser, weil es die meisten Leute kaufen, weil es das ist, was sie brauchen. Ergo: Mit Skylake macht Intel die meisten glücklich. Das ist nicht nur strategisch gut, sondern im weiteren Sinne sozial.
2. Wer immer schreit "dann kauft doch die Enthusiasten-Plattform" denkt auch nicht drüber nach. Der Hauptvorteil der 2011er liegt in a) mehr Kernen >4+HT und b) mehr PCIe-Lanes. Beides ist erwiesener Maßen nicht sonderlich von Vorteil beim Zocken. Auch wenn selbst Intel es gerne anders verkauft. Die Mainstream-Plattform soll alle glücklich machen und kann damit nicht jedes Sonderbedürfnis erfüllen. I3s und darunter sind für Office-PCs, I5s für alle die auch mal was anspruchvolleres machen und I7 für Hochleistungsanforderungen - wie gesagt jeweils im Mainstream/Business --> schließlich sind auch die Business-Chipsätze jeweils für die Mainstream-Plattform.
Leider sind High-End-Gamer in all der Bandbreite nicht vertreten. P/L-Jäger nutzen I5(K)s. Aber ein I7 ist nichts viel besser fürs Gaming.
Ein I7-Gaming bräuchte 6 ECHTE kerne (HT bremst manches Game, mehr wird eigentlich nirgendwo genutzt), 4GHz+ und <=30 PCIe 3.0 Lanes (GPU: 16, SSD:4-8, Soundkarte: 1, NIC: 2). Das Ganze für Preise <=350€. Dafür können dann HT, iGPU, Coprozessoren, VT-x etc. raus.

Also denkt doch einfach mal dran: Die meisten werden mit Skylake sehr glücklich. Intel ist sehr klug, genau so zu handeln. ABER: es stimmt schon, dass die perfekte Gaming-CPU einfach nicht angeboten wird, obwohl die Technik da wäre. Die X99-er Plattform ist es jedenfalls nicht.

LG
Tim

Die X99 Plattform ist im Anbetracht dessen, dass AMD weit abgeschlagen ist sehr gut. Der 5820k ist sehr interessant. Bietet er doch die Leistung des 4960x (hat auch mal 1000€ gekostet) für einen Bruchteil des Preises. Zudem jede Menge OC und genug Lanes für den üblichen Gamer. Selbst jetzt hat man im Schnitt schon mehr Leistung als mit einem 4790k in Games. Obwohl DX12 Games noch nichteinmal erschienen sind. Zudem kaum teurer.
Core i7-5820K und 5960X im Test (Seite 5) - ComputerBase
Nur mal als Vergleich. Bei den Ersten QuadCores hat man 0 Performancevorteil gegenüber DualCores gehabt.
Intel Core 2 Extreme QX6800 im Test (Seite 16) - ComputerBase

Und wo ist überhaupt das Problem? Nur weil viele Anwendungen noch nicht davon profitieren zu sagen es ist unnötig ist schlicht falsch. Was wird wohl wichtiger werden, wenn es mit Takt und IPC kaum noch voran geht? Doch nicht etwa die Kerne... Beim Sandy Bridge haben viele wegen des Aufpreises zum 2500k gegriffen, - nun hätten Sie doch gerne einen 2600k.... Wer etwas langlebiges sucht fährt aktuell am Besten mit Haswell-E. Oder Budgetlösung: Skylake DualCore+HT und später auf der Plattform auf 6C wechseln.
 
Zuletzt bearbeitet:
er versteht wohl nichtmal welche vorteile ein SOC hat, wenn man alles direkt integriert verkürzt das die signalwege/latenzen, zu glauben durch die integration den chipsatzes wird ein chip langsamer ist echt arg:O

Ich brauch keine verkürzen Signalwege zwischen CPU und iGPU, denn ich benötige die iGPU überhaupt nicht. Das ist doch der entscheidende Punkt. Die TDP wird höher angesetzt, weil auch noch eine GPU mit drin ist, welche ich nicht benötige zb.

Denke er spielt eher auf die Tatsache an dass sich Intel generell auf Mobil-Zeug konzentriert und dabei definitiv die Effizienz vor der bloßen leistung Vorrang hat.
So oder so, noch sind wir nicht bei SoCs. Eine Hardwareunterstützung für Kameras hat auch sonst Vorteile. Livebildverabreitung erfordert auf einer normalen CPU relativ viel Leistung.

Ja mir geht es darum, dass Intel zu sehr in den Spagat geht. Somit in einem K-Prozessor für Übertakter, die eine dedizierte GPU verwenden, zu viele sonstige Techniken und Funktionen (wie zb. iGPU) integriert werden.

Darüber kann man ja im Artikel lesen:
...wurde zunächst an einem klassischen PC I/O-Set gearbeitet, bei welchem die TDP bei den beiden extremsten Produkten um den Faktor 3 auseinanderliegen kann...Dann kamen allerdings die Ultrabooks und 2-in-1-Notebooks – und das Skylake-Team musste ihre Pläne ausweiten. Die Entfernung zwischen dem kleinsten Skylake-Produkt und dem größten High-End-Skylake-Chip liegen nun um den Faktor 20 auseinander.

ja aber das ist doch seit lange abzusehen, der desktop pc ist ein fossil. wer will noch son riesen kasten rumstehen haben? 99% der leute nutzen pcs zum surfen usw. in meinem bekanntenkreis hat niemand mehr n desktop pc, höchstens n imac wenns n großer bildschirm sein soll.

Für mich ist der Desktop PC noch lange kein Fossil. Mir macht ein "riesen" Kasten unterm Schreibtisch nix aus. Ja ich nutze den PC am meisten zum Surfen, aber auch zum Schreiben, Videos schneiden, Spielen. Alleine in unserer Wohnung haben 3 von 4 Personen einen eigenen Desktop PC. In meinem Verwandten-Kreis fällt mir jetzt spontan niemand ein, der nur auf einen Laptop setzt.

Der Desktop-PC ist mein Hauptgerät, das Handy ist ganz nett um mal zwischen durch was im WLAN nachzuschlagen. Aber der PC ist ja sowieso an. Wenn ich was recherchieren will geh ich meistens an den Desktop PC. Ist einfach viel komfortabler bei 3440 Pixeln in der Breite und 34" mehrere tabs im Überblick zu haben. Am Handy kommt noch dazu, dass es viele Websiten gibt, die entweder immer noch flash nutzen statt HTML5, oder die mobile Version der Websiten sind nicht für moderne Smartphone Auflösungen mit 2560x1440 oder FullHD geeignet, weil alle Schaltflächen riesig sind und kaum Informationen auf den Schirm passen.

So unterschiedlich ist also das Umfeld und die Erfahrungen.
 
Zuletzt bearbeitet:
Ich cross-poste mal meinen Beitrag bei CB dazu:
"Ich würde mich ja wirklich freuen wenn Intel mal wieder Consumer-Prozessoren ohne iGPU (und ich meine nicht mit deaktivierter, sondern wirklich vom Design her ohne iGPU) auflegen würde. Bei der Die-Fläche, die die GPU mittlerweile frisst, müssten die Kosten für eine solche CPU doch dramatisch niedriger sein, oder?
Ich meine, folgendes:
ModellArchitekturNodeDie Size (+ EDRAM)% GPU
i7 2700KSandy bridge32 nm216 mm²~19%
i7 3960XSandy bridge E32 nm435 mm²0
i7 3770KIvy bridge22 nm160 mm²~28%
i7 4960XIvy bridge E22 nm257 mm²0
i7 4790KHaswell22 nm177 mm²~31%
i7 5960XHaswell E22 nm356 mm²0
i7 5775CBroadwell14 nm? mm² (+ ? mm²)~50%
i7 6700KSkylake14 nm~122 mm²~35%
Da bezahlen wir Nutzer von dedizierten GPUs also zwischen einem Fünftel und der Hälfte der Chipfläche (ggf. + EDRAM) umsonst?!"
Ein Stück weit kann ich karod3's Standpunkt also durchaus nachvollziehen.
Unabhängig davon, ob Elkinator was Sinnvolles beiträgt oder nicht, sollte er definitiv einen anderen Ton anschlagen. Vollkommen unbegründet andere User anpöbeln und ihnen das Recht auf ihre Meinung absprechen ("Kannst du nicht beurteilen!"), das geht garnicht.
 
Die IGP frisst Die Space die man sonst auch im Mainstreambereich durch mehr CPU Transistoren ersetzen könnte.

Und wie sollen diese Transistoren die Leistung der CPU steigern, wenn nicht durch mehr "physische" Cores oder Verfahren wie SMT?
Beides hast du heute mit S2011(-3) und eben ohne IGP...

Z.B. das was schon seit langem vorhergesagt wird: Kleine aber viele Kerne. Z.B. ein 50kerner um die Softwareentwickler dazu zu zwingen, von vorherein so viel zu paralelisieren wie möglich. Eventuell ein Dualdesign wie bei den Mobilprozessoren 1-4 Starke Kerne + viele kleine.
Ich weiss das klingt abstrus, aber das wäre eine langfristige Basis und Intel hätte die Marktmacht dazu (besodners als fast-Monopolist), die Industrie in solch eine Richtung zu lenken, auch wenn solche CPUs anfangs rote Zahlen verursachen würden.

Das ist doch totaler Quatsch... Was soll das bringen?
Du hast seit Jahren schon, eigentlich seit den ersten CPUs im Mainstream Bereich, welche zwei Threads bieten, Anwendungen, die eine Basisleistung erfordern. Diese Leistung gilt es abzudecken, damit die Anwendung läuft. Alles was über der Basis kommt, ist zum Großteil das Erzeugnis von statisch erzeugten Berechnungen... Um so komplexer die "Art" der Berechnung, desto mehr Zeit benötigt der Spaß und oftmals, je nach Berechnung, lässt sich der Spaß auch 1A über die Threads verteilen... Genau dort bringen breitere CPUs auch Vorteil.

Vergleiche einfach mal mit dem, was heute drin ist... Nimm bspw. die Durchschnittliche Last deines Prozessors über den Alltag. Was willst du da mit 50 Cores? Es zählt, vergleichsweise kurze Lastspitzen abzufangen. Nämlich die, welche ausmachen, ob eine Anwendung für ihre Berechnung nun eine Sekunde oder 2 oder 3 braucht... Das ist nicht viel. In Relation ist 1 auf 2 oder 3 aber mal glatt eine Verdopplung bis Verdreifachung.
Selbst wenn du die Leistung deiner CPU massiv drosselst, irgendwo auf das Niveau eines ~1GHz Dualcores, hast du für die Masse im Alltag noch genug Allround Performance... Ich habe zumindest keinen Schmerz mit dem popligen Dualcore im Surface 2 bei 800MHz fix im Stromsparmodus.
Was sollen also 50 Cores bringen? Damit kannst du auch nicht hexen... A) wird die TDP/der Verbrauch weiterhin das "physische Limit" vorgeben, B) nimmst du damit allen Anwendungen, die kurze Lastspitzen erzeugen massiv Wind aus den Segeln, C) kauf aufgrund der Software, welche am Markt verbreitet ist, sowas einfach keiner und D) hast du heute mit dem notwendigen Kleingeld die Möglichkeit, einen 36 Thread Prozessor (mit dem richtigen Board auch zwei davon) zu erstehen.
Es ist also keineswegs so, dass man sowas nicht auch heute hätte kaufen können... Nur machts imho niemand. Weil A) zu teuer, B) zu viel MT Fokus und C) profitiert davon keine Alltagssoftware.

Wenn sowas Keiner kauft, dann wird man damit auch keinen "Zwang" bei den Entwicklern auslösen. Die machen sowieso, was sie wollen... Und oftmals zählt es auch nicht, was irgendwie technisch geht, sondern was wirtschaftlich ist. Den Mehraufwand, alles bis ins kleinste Detail auf MT auszulegen und es noch so zu optimieren, dass die Threads auch gleichzeitig Last erzeugen, steht häufig für Alltagszeug gar nicht im Verhältnis zur Zeitersparnis... Wenn du "keine" Zeit in der Berechnung sparst, es also nicht schneller wird, warum also den Aufwand betreiben???
Dazu kommt, gerade Klicki Bunti Anwendungen sind häufig eher auf usability als auf Speed ausgelegt... Wenn da die Menüs schon Zeit brauchen, bis sie aufklappen, interessierts auch keinen, ob die Berechnung nun nach 500ms oder 1000ms fertig ist.

Ich cross-poste mal meinen Beitrag bei CB dazu:
"Ich würde mich ja wirklich freuen wenn Intel mal wieder Consumer-Prozessoren ohne iGPU (und ich meine nicht mit deaktivierter, sondern wirklich vom Design her ohne iGPU) auflegen würde. Bei der Die-Fläche, die die GPU mittlerweile frisst, müssten die Kosten für eine solche CPU doch dramatisch niedriger sein, oder?

Das ist zwar nachvollziehbar, was die reinen "Möglichkeiten" eines solchen Gedankenspiels angeht. Allerdings ist es mir etwas zu kurz gedacht...
Denn das, was klar dabei vergessen wird ist der Fakt, dass Intel ihre Produktion auf wenige verschiedene Masken aufteilt und damit eine ziemlich breite Palette von verschiedenen CPUs fertigt mit möglichst wenig verschiedenen Masken fertigt.
Ob es "günstiger" pro Einheit wäre, die GPU rauszulassen, dafür aber eine eigene Maske zu erstellen, die Dinger auf ner eigenen Straße zu produzieren, ganz andere Volumina kalkulieren zu müssen, ggf. andere "Lagerbestände" halten zu müssen usw. usf. ist aus meiner Sicht äußerst fraglich...

Vor allem ist es ja auch so, es ist nicht nur Intel, welche oftmals "mehr" fertigen als eigentlich benötigt wird. Da es die ganzen Halbleiter Produzenten relativ häufig so tätigen, bestätigt es auch die Annahme, dass es pro Einheit so am effizientesten, weil kostengünstigsten ist. Sowohl GPUs von NV und AMD als auch andere "Chips" werden teildeaktiviert. Selbst Intel bringt im Serverumfeld teildeaktiverte Einheiten. -> bei vielen Modellen ist mehr Silizium drin als benötigt wird.


Mal ganz davon ab, denke mal einen Schritt weiter, nicht nur der reine Prozessor ist hier das Problem. Auch Board und Co. -> PC/Notebook/Tablet ohne Grafik verkauft sich nicht. Kommt ja kein Bild raus. Also muss der Aufwand von extern zugekauft werden im Fall der Fälle. Also wieder mehr "Vielfalt" und somit höhere Kosten.

Nimmt man es genau, so tut die GPU eigentlich nicht weh... Wenn man sie nicht nutzt, stört sie primär auch nicht.
 
Zuletzt bearbeitet:
Ob es "günstiger" pro Einheit wäre, die GPU rauszulassen, dafür aber eine eigene Maske zu erstellen, die Dinger auf ner eigenen Straße zu produzieren, ganz andere Volumina kalkulieren zu müssen, ggf. andere "Lagerbestände" halten zu müssen usw. usf. ist aus meiner Sicht äußerst fraglich...
Sicher ist das der Haken, aber bei der enormen Fläche, welche die Grafikeinheit mittlerweile einnimmt, bin ich mir sicher nicht, ob eine zweite Maske ohne GPU immer noch teurer wäre... ich denke, es ist eher Kalkül seitens Intel. Man hat kein Interesse an möglichst günstigen Prozessoren für Leute mit leistungsstarker dedizierter Grafik und auch keine Konkurrenz dafür. Die wollen mittelfristig SoCs zur weiteren Beherrschung des Massenmarktes pushen und pfeifen halt auf uns Nerds. Wer überdurchschnittliche Leistung will bekommt gnädigerweise ein Server-Abfallprodukt ausgehändigt und alle anderen einen (als große Errungenschaft verkauften) freien Multi im immer weiter geschrumpften, aber trotzdem nicht günstiger werdenden 0815 Quadcore, der sich aber ohnehin kaum noch ausnutzen lässt, weil die meisten Krücken bei 4.5 GHz schon ins Keuchen geraten bzw. durch - ebenfalls kalkulierte - WLP Misshandlung gehemmt werden. Wer glaubt, dass Gamer bei Intel irgendeinen Stellenwert abseits von Marketing hätten, hat doch den Schuss nicht gehört :fresse: Wir kaufen deren Gedöns mangels Alternativen ja sowieso. Die haben ganz andere Sorgen, nämlich den Mobilmarkt.

Nimmt man es genau, so tut die GPU eigentlich nicht weh... Wenn man sie nicht nutzt, stört sie primär auch nicht.
Naja, es tut in der Seele weh :fresse: Da wo die GPU sitzt könnten halt prima zwei weitere Kerne Platz nehmen.

Es droht mehr Gefahr aus der ARM-Richtung als von AMD.
Dito. Allein Apple könnte bald eine Rolle Rückwärts vollziehen und sich wieder von x86 verabschieden, wenn solche Großkunden wegfallen tut das selbst Intel weh. Deren Cyclone Architektur ist fast schon erschreckend gut, schon der A8X kann teilweise Intel CPUs schlagen, obwohl das nur ein primär auf Stromsparen getrimmter Dreikerner ist. Wenn man die Dinger auf 8-12 Kerne aufbohrt und in 14nm herstellt, oh oh...

Und hört doch bitte mal auf ELKINATOR zu zitieren. Den hat hier bald jeder auf der Ignorelist und man will sich solche Ergüsse damit eigentlich ersparen.
 
Zuletzt bearbeitet:
Wenn man sich ansieht, was im Bereich von ARM derzeit alles auf uns zurollt (10core Mediatek MT6797 - brachiale Leistung - oder 8core Allwinner A80 für kleine parallelisierte Leistung), kommt man aus dem Staunen kaum heraus.
Naja, der Allwinner ist relativ uninteressant, da noch 32-bit. Das würde ich mir mittlerweile selbst bei ARM nicht mehr antun. 64-bit ARMs, speziell mit Cortex-A72 sind da schon weitaus interessanter. Ich bin der Meinung, dass ARM das Potenzial hat, das x86 Intel Imperium zu stürzen. Dennoch, ohne Softwareinfrastruktur wird das nix. Und da sind wir noch weit entfernt, dass ARM sowohl bei Servern als auch im Consumermarkt umfassend einsatzbereit ist.

Es droht mehr Gefahr aus der ARM-Richtung als von AMD.
Nur zur Info, auch AMD entwickelt eine ARM Architektur (Codename "K12"). Also das eine muss das andere nicht ausschliessen. ;)


Da bezahlen wir Nutzer von dedizierten GPUs also zwischen einem Fünftel und der Hälfte der Chipfläche (ggf. + EDRAM) umsonst?!"
Ein Stück weit kann ich karod3's Standpunkt also durchaus nachvollziehen.
Dann solltest du aber auch den Standpunkt der Unternehmen verstehen, und dass jedes mal zwei separate Designs zu machen, eines mit und eines ohne iGPU, die Entwicklungskosten deutlich erhöhen. Ausserdem müsste man dann anderswo eine iGPU bereitstellen, wie vorher im Chipsatz. Auch dafür müsstest du dann bezahlen. Auch als dGPU Nutzer sollte man sich langsam an allumfassende integrierte Lösungen gewöhnen. Und dazu gehören eben auch GPUs. Selbst wenn man diese nicht nutzt. Du hast eh genügend Komponenten in deinem System, für die du bezahlst, aber nicht nutzt. Oder nutzt du jeden einzelnen PCIe oder SATA Anschluss?
 
@fdsonne: Ich plädiere nicht dafür, lowpower-Notebooks und Tablets statt mit iGPU mit ded.GPU zu verkaufen. Ich plädiere dafür, Geräten, die sowieso eine ded.GPU haben (überspitzt gesagt: Alienwares [Laptops und Desktops!] & Selbstbau-Gaming-PCs & Workstations mit Quadro/FirePro), zwischen einem Drittel und der Hälfte der CPU-Kosten zu sparen (was bei so 'nem i7 oder besseren Xeon E3 ja schnell mal dreistellige Beträge sind). Geräte also, bei denen der "Aufwand", die GPU von extern zukaufen zu müssen, sowieso betrieben wird und dementsprechend kein Argument sein kann.

@mr.dude: Mir geht es ja garnicht darum, dass Intel irgendwas voll extra-wurstiges für mich "entwickeln" soll. Klar wär's super, wenn die somit verbliebene Die-Fläche für zwei weitere Kerne genutzt oder der EDRAM als LLC stattdessen direkt auf den gleichen Die gequetscht würde um den Interposer zu sparen, aber ich sage mir einfach: Früher gab's CPUs, die waren nur CPUs. Die hatten keine iGPU, und Computer damit haben funktioniert. Warum kann Intel also nicht einfach 1:1 das Design, was aktuell z.B. der i7 6700K ist, nehmen, und die iGPU weglassen. Eine neue Maske würde dafür benötigt, ja, aber dafür würde man auch ca. 50% mehr Prozessoren aus einem Wafer kriegen, und die Defektwarscheinlichkeit pro Prozessor sinkt, weil er kleiner ist (was ihn zusätzlich günstiger macht, weil weniger "Ausschussfläche" von den funktionierenden Chips mitfinanziert werden muss). Insbesondere angesichts der Tatsache, dass Intel ja viele Xeon E3's mit deaktivierter iGPU (die ja auf der gleichen Maske wie der Core i7 basieren) und AMD Athlon X4's (auch nur A10's mit deaktivierter iGPU; ganz ohne iGPU im A88X-PCH ;)) verkauft , kann mir ja keiner erzählen, dass ein Computer, der keine GPU on Die oder im PCH hat, nicht funktioniert. Und wenn solche Dies dann eben eine onboard-GPU als Teil des PCHs notwendig machen: Sei's drum, wenn Intel sich dabei auf 4-8EUs beschränkt anstatt 40mm² Waferfläche, die man bezahlen muss, für eine GPU zu verwenden, die man nicht braucht (klar müsste die iGPU des Chipsatzes dann jeder bezahlen, aber weil die so klein ist würde sie ja viel weniger extra-Kosten verursachen als die vielen mm² in jedem Prozessor aktuell). Und genau deswegen hinkt der Vergleich zu den MoBo-Anschlüssen auch gewaltig: ein unbenutzter SATA-Port oder PCIe-Slot kostet mich keine nennenswerten Beträge (ich schätze mal <10€); ein Drittel oder sogar die Hälfte weniger für die CPU bezahlen zu müssen, das ist aber durchaus nennenswert.

All das gilt natürlich unter der Annahme, dass Intel die Ersparnisse durch 30-50% weniger Die-Fläche pro Prozessor zumindest nennenswert anteilsmäßig an die Kunden weitergibt.
 
Zuletzt bearbeitet:
@fdsonne: Ich plädiere nicht dafür, lowpower-Notebooks und Tablets statt mit iGPU mit ded.GPU zu verkaufen. Ich plädiere dafür, Geräten, die sowieso eine ded.GPU haben (überspitzt gesagt: Alienwares [Laptops und Desktops!] & Selbstbau-Gaming-PCs & Workstations mit Quadro/FirePro), zwischen einem Drittel und der Hälfte der CPU-Kosten zu sparen (was bei so 'nem i7 oder besseren Xeon E3 ja schnell mal dreistellige Beträge sind). Geräte also, bei denen der "Aufwand", die GPU von extern zukaufen zu müssen, sowieso betrieben wird und dementsprechend kein Argument sein kann.

Nein, so meinte ich das nicht. Ich meinte, dass es eben Aufwand erzeugt, wenn bspw. die Mainboard Hersteller (gilt natürlich auch für Tablet und Notebook Mainboards) sich in dem Fall auch mehrgleisig aufstellen müssen. Die Version mit IGP, die ohne aber dGPU. Dazu gibt's noch die Kombigeräte. -> das sind tendenziell drei Möglichkeiten. 3x Aufwand und irgendwer muss dafür am Ende aufkommen -> die Kosten fließen doch 1:1 in die Endkundenpreise. Lässt man die GPU drin, gibt's nur 2 -> das ist also ein Mehraufwand von potenziell 50% und erzeugt definitiv auch Mehrkosten!

Und wie gesagt. Ich bezweifle, dass durch weglassen der GPU der Prozessorpreis sinkt, wenn man alle möglichen Kosteneinsparungen einer solchen Kompromisslösung (-> jeder bekommt die GPU, egal ob gewollt oder nicht) gegen die Mehrkosten stellt, die mehr Masken, mehr Designs, mehr gleichzeitig verschieden benötigte Fertigungsstraßen usw. usf. erzeugen.

Denn das reine weglassen ist halt nur die halbe Wahrheit im Kostenkonstrukt. Selbst der aktuelle Preis pro Prozessoreinheit inkl. GPU ist ziemlich sicher niedriger, wenn man alles aus dem selben Stück "Silizium" erstellt, als wenn man für verschiedene Anforderungen verschiedene Modelle erzeugt.
Nimmt man es genau, ist nicht mal klar, wieviel direkte Herstellungskosten wirklich bei den Mainstream Endkundenpreisen drin steckt. Sprich ob die nunmehr irgendwo 370€ Endkundenpreis beim großen Skylake auch ansatzweise den Kosten entsprechen, oder ob da noch 80% und mehr "Marge" für Intel und die (Zwischen)Händler drin sind.
Da quasi alle Halbleiter-Fertiger nicht für jedes Anwendungsprofil ein eigenes dediziertes Produkt bringen und man dort teildeaktiviert, teils sogar lauffähige Modelle teildeaktiviert, zeigt doch, dass es wirtschaftlich für das Unternehmen keinen Sinn ergibt. -> wenn es also teurer ist, die Teile dediziert zu fertigen, wie soll das beim Endkunden dann für weniger Preis sorgen??
 
Wären also um die 70€. Angenommen man zieht 1/3tel davon ab, wären das gerade mal poplige 23€. Bleiben also irgendwo um dein 50€ übrig. -> den Rest wieder drauf, macht 20-25€ Einsparung, gesetzt dem Fall, die Kosten lassen sich 1:1 so übertragen.

Es stellt sich also nach wie vor die Frage, ob das wirklich Sinn ergibt... Aus meiner Sicht definitiv nein. Das bisschen ist sogar so niedrig, was die Händler untereinander schon für Preisunterschiede aufzeigen, nur damit man in den Preissuchmaschinen möglichst weit oben steht :fresse:

Auch den Verteilungsschlüssel haben wir noch gar nicht erwähnt. Sprich wie viel Anteil der ausgelieferten Einheiten will die GPU und wie viel nicht. Wenn bloß 10% die GPU gar nicht wollen, kann sich jeder selbst ausmalen, wie viel Sinn es ergibt, dafür eigene Produktionsstraßen zu betreiben...
 
Früher gab's CPUs, die waren nur CPUs. Die hatten keine iGPU, und Computer damit haben funktioniert. Warum kann Intel also nicht einfach 1:1 das Design, was aktuell z.B. der i7 6700K ist, nehmen, und die iGPU weglassen. Eine neue Maske würde dafür benötigt, ja, aber dafür würde man auch ca. 50% mehr Prozessoren aus einem Wafer kriegen, und die Defektwarscheinlichkeit pro Prozessor sinkt, weil er kleiner ist (was ihn zusätzlich günstiger macht, weil weniger "Ausschussfläche" von den funktionierenden Chips mitfinanziert werden muss).
Es ist ja nicht nur eine neue Maske. Das eigentlich teure an der Geschichte ist die Entwicklung des Designs.

All das gilt natürlich unter der Annahme, dass Intel die Ersparnisse durch 30-50% weniger Die-Fläche pro Prozessor zumindest nennenswert anteilsmäßig an die Kunden weitergibt.
Tja, da liegt das Problem. Das würde sowieso nicht passieren. ;)
 
Es gibt doch Intel 6 Cores wenn AMD endlich Zen released. Nicht umsonst packt man KabyLake dazwischen. Wer natürlich jedes Jahr wieder einen QuadCore kauft dem ist nicht zu helfen. Wer trotz überteuerte Händlerpreise zum 6700k greift obwol er für 30€ mehr ein X99 Setup bekommen kann, dem erst recht. Die Leute habens dann aber auch nicht anders verdient, dass in 2 Jahren plötzlich alles 6 Kerne fordert und man in die Röhre guckt.

Bei den Grafikkarten haben (fast) alle gefühlt 1000€ aktzeptiert. Aber die CPU, ja die muss schön billig sein. Die ersten QuadCores wurden verschenkt. Das hat AMD fast ruiniert und selbst Intel zehrt noch von den alten Core2Quad Altlasten. Das wollen beide nicht mehr, daher hat Intel über Jahre den kleinen Sockel dahin gedrückt wo er hingehört. In den Budget-Bereich, den unteren Mainstream, wo eine iGPU wichtig ist. Ein 5820k ist mit den reduzierten PCIe Lanes genau das was Ihr haben wollt, aber nicht bereit seid zu bezahlen. Oh ja die 30€... :stupid:

Intel P3 (1C)
Pentium D 805 (2C)
Q6600 (4C)
5960x (8C)

Edit: Es gab sogar 2x Cashback-Aktion (-80€), aber das war den Leuten immernoch zu teuer. :xmas:
 
Zuletzt bearbeitet:
Kabylake ist quasi ein Skylake-Refresh ähnlich wie bei Haswell. Nur das man dem Kind nun von vorneherein einen Namen gibt. Das Ganz fällt zufällig in den Zeitraum des Zen Release von AMD. Man kontert also direkt und bringt mit großer Wahrscheinlichkeit 6 Kerne für den kleinen Sockel. Der 6700k ist ja jetzt schon wie der 4970k am Ende dessen was man mit 4 Kernen anbieten kann.
 
genauso wie Cannonlake ein Skylake-Refresh in 10nm wäre.
Kabylake = Cannonlake in 14nm statt 10nm, weil Intel den 10nm Node auslassen wird!

vielleicht sehen wir dann auch Zen+ in 10nm als gegener für KabyLake in 14nm.
bis Intel 7nm marktreif hat, wird AMD auch schon 10nm designs am markt haben:}
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh