Es war eben einfach ein Fehler quasi blindlinks darauf zu vertrauen, dass dieser Markt fast bedingungslos in die Breite expandiert. Viel mehr gibts da ja nicht dran rumzureden... Der Markt war nicht bereit für acht und mehr Threads.
Wobei man daran AMD durchaus eine Mitschuld zuweisen kann, denn durch deren Bestrebungen die CPU und die GPU in Form der APU auf einem Die zu vereinen, haben sie ja auch eine alternative Nutzung des durch die Shrinks frei werdenden Platzes auf den Dies mit gefördert. Genau diese iGPU ist ja bei Intels Mainstream CPUs in jeder Generation stärker geworden und nimmt immer mehr Platz auf dem Die ein, während die High-End CPUs der großen Sockel keine haben und deren Kernzahlen seither geradezu exploriert sind.
Wäre der Fokus nicht auf die iGPUs/APUs verlängert worden, wären es mit der Steigerung der Kernzahlen im Mainstream vermutlich durchaus weiter gegangen, denn nachdem man erkannt hat das die 10GHz von denen man geträumt hat als die Taktraten mit jeder Generation rasant gesteigert werden konnten, doch nicht erreichbar sein werden, ging es dann darum mit mehr Kernen mit Leistung zu bieten. Nur hat sich da das Mainstreamsegment dann eben auch zugunsten besserer iGPUs abgekoppelt und bleibt bei maximal 4 Kernen, bei Intel wie bei AMD!
irgendwelche 15W DualCores mit oftmals sehr hohem TurboBoost um Lastspitzen abzudecken und sonst recht niedrigem Basistakt.
Anders kann man solche TDP auch nicht bieten und 15W sind ja schon eher viel, es gibt auch welche mit 6W TDP oder noch weniger. Die sind ja auch nicht für dauernd hohe Last ausgelegt und daher funktioniert das Konzept. Man muss eben die HW für den Zweck passend wählen und sollte sich nicht von den kurzfristigen Spitzenleistungen blenden lassen, da gerade Consumer HW immer öfter mit Technologien daher kommt, die nur einen kurzzeitigen Boost der Leistung erlauben, wie man es z.B. bei dem Pseudo-SLC Schreibcaches der TLC SSDs sieht, deren Dauerschreibrate dann nicht selten ganz schön bescheiden ist. Aber die reicht eben um in den Benchmarks gut auszusehen wo nur wenige GB geschrieben werden und für den typischen Heimanwender reicht es auch, denn wann schreibt er mal viele GB am Stück. So ist es auch mit diesen CPUs mit extrem geringer TDP, die takten bei Last hoch, die Leistungsaufnahme übersteigt die TDP dann gewaltig und die Dinger werden warm und müssen im Takt wieder runter. Passiert das bevor ein Benchmark zuende ist, fällt das Ergebnis dort eher bescheiden aus, ist der Benchmark vorher durch, dann glänzen sie dort mit guten Ergebnissen. Nur sind es eben Sprinter, die schaffen die 100m in 10s, halten aber eben keine Marathonstrecke mit der Geschwindigkeit durch.
Was klar zeigt, dass dieses Konzept, viel viel viel pro Thread Power bei wenig Verbrauch und ohne sehr Breite CPUs klar aufgeht/aufgegangen ist.
Eben, weil ja auch viel Software noch sehr von der Singlethreadperformance abhängt. Das wird sich auch so bald nicht ändern und wie gesagt kann man manche Dinge einfach nicht parallel realisieren, bei denn wird sich das nie ändern. Einen MD5 Hash kann man z.B. nicht parallel berechnen, wenn man den MD5 z.B. einer großen Datei ermitteln will, hängt man da voll an der Singlethreadperformance, nur wenn man mit Burte-Force einen Hash knacken will, dann kann man das parallelisiert ausführen und umso mehr Kombinationen parallel probieren, je mehr Kerne man hat.
Witzig ist dabei die Wandlung der Geschichte. AMD hat mit den Athlons, Athlon XPs und Athlon 64 Modellen genau diesen Part doch selbst gepusht. Nicht mehr "nur" auf Taktrate, sondern auf Leistung pro Takt gehen.
Es war allerdings seltsam, warum AMD diese erfolgreichen Pfad verlassen hat, den Fehler muss sich AMD klar alleine Ankreiden lassen. Das ist im Grunde die Antwort auf die Frage dieses Threads.
- - - Updated - - -
aber wenn man sich die letzten Ereignisse anschaut, und auch die Ideen die AMD in CPUs/GPUs (Mantle, HMB ... und schlag mich tot) hatte, immer nach hinten für die Firma losging. Da kann man eigentlich auch nicht mehr von einer Pechsträhne reden.
Weil es zu spät und zu halbherzig gemacht wurde, die ganze Idee hinter den APUs war es eben auch kleine parallelisierbare Aufgaben an die GPU abgeben zu können, wenn diese komplett in die CPU integriert ist, weil eben sonst die Zeit für die Übertragung der Daten jeglichen Vorteil auffrisst, nur ab welcher Generation der APUs war das denn überhaupt erst möglich? Eben, weder bei der ersten noch bei der zweiten und als es endliche Entwicklungstools in die Richtung gab, war der Marktanteil schon so gering, dass die Breite der SW Entwickler dies nicht mehr interessiert hat und andere Konzepte wie Cuda waren früher dran und auch viel weiter verbreitet. Außerdem waren die CPU Kerne der APUs sowieso so schwach, dass man so etwas dann gar nicht als Basis für die Entwicklung von SW mit hohen Leistungsanforderungen genommen hätte. Nun kommt Zen erstmal wieder als CPU, es ist ein Hüh und Hott, es fehlen eine klare Richtung und die Beständigkeit.
Kein professioneller SW Entwickler wird Zeit und damit Geld investieren um auf eine Technik zu setzen vor der er morgen nicht weiß ob sie nicht gleich wieder eingestampft wird. Das sollte auch AMD bekannt sein und das haben sie trotzdem gemacht, wohl nicht zuletzt aus Geldnot.