Auch jetzt haben wir eine neue Archtektur, nämlich Sandy in effizienter, das bedeutet kleiner aber mit möglichst wenig IPC-Verlust. Dafür wäre er dann besser an den Fertigungsprozess angepasst und es wären endlich höhere Takte möglich. Setzt man die richtigen Programme und Compiler ein, wird man sicherlich auch eine IPC-Steigerung erreichen, aber eben auch nur dann.
"Neue Architektur" ist Marketing-Jargon. Prinzipiell sehen wir eine weitere Evolutionsstufe der Core-Architektur. Bei den verkündeten (und ohnehin erwarteten) IPC-Steigerungen sehe ich kein Indiz dafür, dass diese sich nur auf neue Befehlssätze und damit einzelne Fälle beschränken sollten. Ganz im Gegenteil: Spekuliert wird eine kürzere Pipeline und weiter optimierte Caches, dass schlägt sich nahezu überall durch. Ich erwarte, ähnlich wie bei den letzten Neuvorstellungen, eine durchgänig gesteigerte IPC - 10% klingen zunächst ziemlich viel, gemessen am aktuellen Niveau wären auch >5% aber schon beachtlich.
Wen interessiert die Die-Size? Es geht um Abwärme. Da war Sandy-E schon sehr heftig, Ivy ist vllt. 15% effizienter in der Praxis aufgrund der relativ hohen benötigten Spannung für 22nm. Die 2 Kerne mehr werden also voll aufgefressen. Wenn Haswell jetzt weniger verbrauchen soll, dass sogar 14 Kerne möglich sind, muss Haswell effizienter und kleiner werden oder wir haben 200W TDP bei der neuen Plattform.
Vorsicht mit solchen Pauschalisierungen. Der 22nm-Prozess ist vor allem bei niedrigen Spannungen und damit Taktraten im Vorteil, das siehst du z.B. im Notebookbereich, speziell bei den ULV-Modellen. Gleiches wird für die niedrig taktenden Server-Ableger gelten. Haswell-E, der im übrigen noch ewig weit in der Zukunft liegt, muss mit 14 Kernen nicht zwangsläufig höher takten als Ivy-E und profitiert zudem von einem zu dem Zeitpunkt perfekt ausgereiften Prozess.
Der Platz ist dennoch begrenzt, da es ein MCM ist. Die Dies müssen auch möglichst latenzarm verbunden werden, das kostet Platz. Es ist was anderes einen RAM-Chip anzubinden (low-level) oder eine Northbridge über QPI wie beim Clarkdale. Zudem verwenden auch die Consumerprogramme immer mehr Threads. Es ist eben ab einem Punkt effizienter, mehr Kerne zu verbauen als die Kerne immer fetter zu machen, weil ab einem gewissen Punkt Multithreading mehr Befehlsdurchsatz ermöglicht. Deshalb haben wir ja überhaupt DualCores, deshalb gibt es Techniken wie SMT.
Ich frag mich auch, warum jetzt jeder von Intel erwartet, dass sie die pro-Kern-Leistung bis zum sonstwohin treiben. Das ist technisch völlig sinnlos, man braucht das beste Produkt. Darum auch die Fixierung auf die GPU beim Haswell. Intel hat es einfach nicht nötig, die CPU-Kerne immer dicker zu machen. Irgendwann muss man den Absprung hinkriegen und zu Multithreading bei möglichst effizienter IPC-Ausnutzung hinzukommen.
Zunächst einmal stehen maximal 4 Kerne für Haswell im Consumer-Bereich bereits fest. Wie gering der Vorteil von mehr als 4 bzw. 8 Threads im Desktop ist, zeigen unzählige Reviews eindrucksvoll auf. Zudem ist Multithreadleistung/Watt nur einer von vielen Teilaspekten des Begriffes "Effizienz". Dazu gehört auch die Performance bei wenigen Threads sowie die Die-Size. Hinsichtlich der Gewinnmaximierung gibt es keinen Anlass, mehr Kerne als nötig zu verbauen. AMD peilt für die nächsten Jahre Steigerungen von je 10-15% an - solange man dies mit Takt und IPC kompensieren kann gibt es keinen Anlass, hier mehr anzubieten. Ein überwiegender und weiter wachsender Chipanteil wird zudem in Notebooks verbaut, ein weiterer Grund, noch länger mit 4 Kernen auszukommen - auch wenn wir Freaks mehr wollen und die Kerne nicht wirklich viel Fläche einnehmen.
Hier haben wir gleich den nächsten Punkt: Wie groß sind 4 Kerne bei Ivy Bridge - zusammen vielleicht 50mm² inkl. L2-Cache? Wie stark möchtest du diese verkleinern, welches Einsparpotential soll hier überhaupt bestehen wenn gleichzeitig die IPC mit Haswell steigt? Wie oben beschrieben, bietet das Package über 1400mm². Wenn es Platzprobleme für das MCM-Modell GT2+ gäbe, dann sicher nicht wenigen <10mm² CPU-Fläche. Hier redest du ein Problem völlig aus dem Nichts herbei.
Auch die wachsende GPU hat mehrere Gründe. Wie du bereits genannt hast, hält man CPU-seitig einen komfortablen Vorsprung. Speziell im mobilen Sektor gibt es aber die Nachfrage nach schnelleren IGPs um zusätzliche GPUs überflüssig zu machen (-> Stichwort dünne Ultrabooks), gerüchteweise wollte Apple bereits bei Ivy Bridge eine "GT3-GPU". Zudem muss man sich langfristig darauf vorbereiten, die GPU auch für non-3D-Zwecke einzusetzen, egal ob per OpenCL oder "nativ". Das geht nicht von heute auf morgen, sondern wird über mehrere Generationen vorbereitet. Noch liegt AMD GPU-seitig in Führung, das wird Intel so schnell wie möglich aufholen wollen. Eine überlegene GPU-Architektur stampft auch Intel nicht mal eben aus dem Nichts hervor, zunächst geht das nur mit entsprechendem Transistoraufwand und Extras wie dem zusätzlichen DRAM.
Die Kerne werden kleiner, das halte ich für absolut sicher...
Dann hat Intel gezaubert. Höhere IPC, mehr CPU-Leistung, neue Instruktionen und das alles bei sinkender Fläche - nein, das macht bei logischer Überlegung keinerlei Sinn.