Die IGP frisst Die Space die man sonst auch im Mainstreambereich durch mehr CPU Transistoren ersetzen könnte.
Und wie sollen diese Transistoren die Leistung der CPU steigern, wenn nicht durch mehr "physische" Cores oder Verfahren wie SMT?
Beides hast du heute mit S2011(-3) und eben ohne IGP...
Z.B. das was schon seit langem vorhergesagt wird: Kleine aber viele Kerne. Z.B. ein 50kerner um die Softwareentwickler dazu zu zwingen, von vorherein so viel zu paralelisieren wie möglich. Eventuell ein Dualdesign wie bei den Mobilprozessoren 1-4 Starke Kerne + viele kleine.
Ich weiss das klingt abstrus, aber das wäre eine langfristige Basis und Intel hätte die Marktmacht dazu (besodners als fast-Monopolist), die Industrie in solch eine Richtung zu lenken, auch wenn solche CPUs anfangs rote Zahlen verursachen würden.
Das ist doch totaler Quatsch... Was soll das bringen?
Du hast seit Jahren schon, eigentlich seit den ersten CPUs im Mainstream Bereich, welche zwei Threads bieten, Anwendungen, die eine Basisleistung erfordern. Diese Leistung gilt es abzudecken, damit die Anwendung läuft. Alles was über der Basis kommt, ist zum Großteil das Erzeugnis von statisch erzeugten Berechnungen... Um so komplexer die "Art" der Berechnung, desto mehr Zeit benötigt der Spaß und oftmals, je nach Berechnung, lässt sich der Spaß auch 1A über die Threads verteilen... Genau dort bringen breitere CPUs auch Vorteil.
Vergleiche einfach mal mit dem, was heute drin ist... Nimm bspw. die Durchschnittliche Last deines Prozessors über den Alltag. Was willst du da mit 50 Cores? Es zählt, vergleichsweise kurze Lastspitzen abzufangen. Nämlich die, welche ausmachen, ob eine Anwendung für ihre Berechnung nun eine Sekunde oder 2 oder 3 braucht... Das ist nicht viel. In Relation ist 1 auf 2 oder 3 aber mal glatt eine Verdopplung bis Verdreifachung.
Selbst wenn du die Leistung deiner CPU massiv drosselst, irgendwo auf das Niveau eines ~1GHz Dualcores, hast du für die Masse im Alltag noch genug Allround Performance... Ich habe zumindest keinen Schmerz mit dem popligen Dualcore im Surface 2 bei 800MHz fix im Stromsparmodus.
Was sollen also 50 Cores bringen? Damit kannst du auch nicht hexen... A) wird die TDP/der Verbrauch weiterhin das "physische Limit" vorgeben, B) nimmst du damit allen Anwendungen, die kurze Lastspitzen erzeugen massiv Wind aus den Segeln, C) kauf aufgrund der Software, welche am Markt verbreitet ist, sowas einfach keiner und D) hast du heute mit dem notwendigen Kleingeld die Möglichkeit, einen 36 Thread Prozessor (mit dem richtigen Board auch zwei davon) zu erstehen.
Es ist also keineswegs so, dass man sowas nicht auch heute hätte kaufen können... Nur machts imho niemand. Weil A) zu teuer, B) zu viel MT Fokus und C) profitiert davon keine Alltagssoftware.
Wenn sowas Keiner kauft, dann wird man damit auch keinen "Zwang" bei den Entwicklern auslösen. Die machen sowieso, was sie wollen... Und oftmals zählt es auch nicht, was irgendwie technisch geht, sondern was wirtschaftlich ist. Den Mehraufwand, alles bis ins kleinste Detail auf MT auszulegen und es noch so zu optimieren, dass die Threads auch gleichzeitig Last erzeugen, steht häufig für Alltagszeug gar nicht im Verhältnis zur Zeitersparnis... Wenn du "keine" Zeit in der Berechnung sparst, es also nicht schneller wird, warum also den Aufwand betreiben???
Dazu kommt, gerade Klicki Bunti Anwendungen sind häufig eher auf usability als auf Speed ausgelegt... Wenn da die Menüs schon Zeit brauchen, bis sie aufklappen, interessierts auch keinen, ob die Berechnung nun nach 500ms oder 1000ms fertig ist.
Ich cross-poste mal meinen Beitrag bei CB dazu:
"Ich würde mich ja wirklich freuen wenn Intel mal wieder Consumer-Prozessoren ohne iGPU (und ich meine nicht mit deaktivierter, sondern wirklich vom Design her ohne iGPU) auflegen würde. Bei der Die-Fläche, die die GPU mittlerweile frisst, müssten die Kosten für eine solche CPU doch dramatisch niedriger sein, oder?
Das ist zwar nachvollziehbar, was die reinen "Möglichkeiten" eines solchen Gedankenspiels angeht. Allerdings ist es mir etwas zu kurz gedacht...
Denn das, was klar dabei vergessen wird ist der Fakt, dass Intel ihre Produktion auf wenige verschiedene Masken aufteilt und damit eine ziemlich breite Palette von verschiedenen CPUs fertigt mit möglichst wenig verschiedenen Masken fertigt.
Ob es "günstiger" pro Einheit wäre, die GPU rauszulassen, dafür aber eine eigene Maske zu erstellen, die Dinger auf ner eigenen Straße zu produzieren, ganz andere Volumina kalkulieren zu müssen, ggf. andere "Lagerbestände" halten zu müssen usw. usf. ist aus meiner Sicht äußerst fraglich...
Vor allem ist es ja auch so, es ist nicht nur Intel, welche oftmals "mehr" fertigen als eigentlich benötigt wird. Da es die ganzen Halbleiter Produzenten relativ häufig so tätigen, bestätigt es auch die Annahme, dass es pro Einheit so am effizientesten, weil kostengünstigsten ist. Sowohl GPUs von NV und AMD als auch andere "Chips" werden teildeaktiviert. Selbst Intel bringt im Serverumfeld teildeaktiverte Einheiten. -> bei vielen Modellen ist mehr Silizium drin als benötigt wird.
Mal ganz davon ab, denke mal einen Schritt weiter, nicht nur der reine Prozessor ist hier das Problem. Auch Board und Co. -> PC/Notebook/Tablet ohne Grafik verkauft sich nicht. Kommt ja kein Bild raus. Also muss der Aufwand von extern zugekauft werden im Fall der Fälle. Also wieder mehr "Vielfalt" und somit höhere Kosten.
Nimmt man es genau, so tut die GPU eigentlich nicht weh... Wenn man sie nicht nutzt, stört sie primär auch nicht.