das bremst den Fortschritt auf dem Desktop markt keiner kauft hardware im bereich von 1500€ um nur mal paar videos zu schneiden oder mal zu Spielen
also muss alles auf nen quad laufen.und wehe man ist multitasker und will einiges gleichzeitig machen.
Versetz dich doch mal in die Lage der Hersteller...
Wenn für Steigerungen der Leistung pro Takt klar Grenzen absehbar sind, Takt durch andere Grenzen physischer Art ebenso nicht unendlich steigerbar ist, was bleibt dann noch über?
Heute werden die Prozessoren schon deutlich länger verwendet als vor Jahren noch. Nicht nur privat, auch im Business... So ne OEM Notebook Schmette von vor sagen wir 10 Jahren hat keine 5 Jahre durchgehalten. Heute bekommst du das schon hin. (mein Ivy-i7 Mobile Quad hat nunmehr 4 Jahre auf der Uhr -> und es sieht eher dünn aus am Markt, was einen Wechsel rechtfertigt)
Was soll der Hersteller also machen? Er wird die Preise anziehen MÜSSEN, denn weniger abgesetzte Einheiten durch längere Laufzeit = weniger Umsatz in dieser Laufzeit.
Gleiches Bild hast du, sogar noch massiv schlimmer, im Serverbereich. Vor 10 Jahren noch wurden da ohne wirkliche Virtualisierungslayer für fast jeden Service eigene Bleche ins Rack geschraubt. Heute nutzt du ne Hand voll "dicker" Server und deckst die physische Trennung mit einem Virtualisierungslayer ab. Bietet dein Unternehmen sagen wir 50 verschiedene Services, waren das damals ziemlich sicher 50 verkaufte Prozessoren. Vielleicht sogar mehr (wegen Dual-Socket). Heute kauft das Unternehmen vielleich 2-4-6 Prozessoren. -> rechne selbst, was das für den Hersteller der Prozessoren bedeutet.
Die Preise pro Einheit müssen zwangsweise steigen. Sonst ist der Part doch quasi nicht mehr stemmbar. Schaut man sich dazu noch die Zahlen an -> neben Intel Bemühungen für Mobilezeug aka Tablet Markt, so sinken die Zahlen dort auch rapide. Die Boom-Blase droht früher oder später zu zerplatzen. Das CPU/Computergeschäft ist mittlerweile auf einem Level, wo es obenraus ziemlich dünn wird. Und der Markt ist durch die extreme Verbreitung soweit insich festgefahren, dass rapide technische Wechsel nur äußerst schwer zu bewerkstelligen sind. Denn Compatibilität ist eins der größten Pluspunkte auf der einen Seite von x86. Wäre es vor sagen wir 20-25 Jahren absehbar gewesen, wo es hinführt, hätte man damals andere Entscheidungen treffen müssen. -> ob dann allerdings die Welt so ausgesehen hätte wie heute? Fraglich...
Ob sich Intel wirklich ausruht kann man natürlich nicht mit bestimmtheit sagen, aber ich glaube daran dass wir, bei mehr Konkurenz (also wenn Bulldozer so einegschlagen wäre wie von AMD gewünscht), erstens spätestens mit Ivy, mehr Kerne für den Mainstreamsockel bekommen hätten und zweitens man mehr Risiken richtung neuer Ansätze eingegangen wäre (so wie es AMD mit der Modul-bauweise getan hat, was ja leider ein Schuss in den Ofen war).
Was sind denn bei dir "Risiken richtung neuer Ansätze"?
Zu Zeiten von Ivy war doch das Kind schon im Brunnen... Es säuft effektiv schon ab. Denn einen derart festgefahrenen Markt völlig umzubiegen ist effektiv nicht möglich... Andere Ansätze hat es ja in diversen Bereichen. Nicht zuletzt auch von Intel mit den Xeon Phi Ablegern oder AMD/NV mit den FirePro/Tesla "GPUs". Das bringt aber einen festgefahrenen Markt genau gar nix. Denn eine Kompatibilität ist damit nicht mehr gegeben. Das KANN nur als langsam schleichender Prozess fruchten oder eben auf anderen Märkten.
Der AMD Ansatz mit "Fusion" ist da bspw. eine sehr interessante Sache... Aber man sieht halt atm nicht viel davon. Sprich wir sind seit Jahr und Tag nach Bekanntgabe dieses Vorhabens nicht weiter als am Anfang noch in dem es nach wie vor "nur" den CPU Part + beigestellte GPUs gibt.
Der Markt hat einfach etwas Revolution nötig statt ewiger Evolution. Hoffentlich wird AMD das bewirken können. Einen heissen Kandidaten haben sie immerhin, auch wenn der wohl noch in den Kinderschuhen steckt: VISC.
Das Thema ist aktuell leider nicht so recht greifbar... Denn es fehlt da irgendwie an Kommunikation zu den Endanwendern.
Nach den letzten Meldungen dazu scheint man dort recht geringe Taktfrequenzen zu fahren und auch (aktuell) primär auf das Mobile Geschäft zu zielen?
Die vor nicht all zu langer Zeit gezeigten Infos sprechen von 2GHz für den virtuellen DC pro VISC Kern und einer Effizienzsteigerung um Faktor 3-4 ggü. anderen Vertretern.
Wenn es euch aber primär um Performance geht, dann wird DAS zumindest so noch nicht reichen...
Auch wird bei sowas gern vergessen, dass Prozessoren nicht ausschließlich legacy x86 Code abarbeiten. Du kannst heute zwischen sagen wir einem Sandy und einem Haswell bei Taktgleichheit eine Leistungssteigerung von vielleicht ~10-15% Messen bei ausschließlich legacy Code. Aber auch teils Faktor 2+ wenn neuere Befehlserweiterungen genutzt werden. -> letzteres siehst du bspw. häufiger im Bereich Video(de/en)coding in Software auf dem Prozessor.
Stellt sich also die Frage, was ist der Spaß am Ende in der Praxis wert? -> und hier fehlt es imho leider noch an Infos, wenn ich das richtig sehe...