Oder übersehe ich da was? Weil irgendwie zeigt die Entwicklung doch nur in die Richtung; ich stecke mehr Strom rein, erlaube zeitgleich mehr Kernen mehr Operationen gleichzeitig und schneller zugleich zu berechnen. Aber irgendwann kann ich halt nicht mehr Strom reinstecken, weil es sonst für den Durchschnittsuser nicht mehr zu kühlen sein wird?
Wie wird man das Problem zum Beispiel in den nächsten 10Jahren umgehen wollen, seitens der Hersteller?
Dagegen steuert man ja indem man mit Powercaps arbeitet. Um so breiter die CPUs werden, desto weniger relevant ist die Leistung pro Thread. So nem riesen Prozessor beim Numbercrushing ist das total egal ob er seine Leistung jetzt doppeltem Takt bei halber Core Anzahl oder halbem Takt bei doppelter Core Anzahl erreicht. Am Ende ist das zumindest in gewissem Rahmen +- identische Performance.
Nur wir hier im Mainstream haben das Problem, dass viele der Alltagsaufgaben nicht durch Parallelität mehr Leistung erzeugen, sondern die absolute Geschwindigkeit einzelner Tasks den Speed bestimmt. Der Spagat, immer mehr Bumms in Cores zu ballern ist gerade im Mainstream absolut notwendig. Die Parallelität geht dann über die Breite. Und damit da obenraus nicht ausufert und den von dir beschriebenen Fall annimmt, wird oben das Powerlimit hart gesetzt.
So ein 16C Ryzen verliert sehr viel theoretische Leistung mit 142W. Es kommen nur noch ~4GHz an. Könnten aber auch 5GHz sein. Kann man nur halt nicht kühlen. Mit noch mehr Breite wird das auch noch schlimmer - irgendwann kannst du dann auf diese Leistung verzichten, kostet Waferfläche, kannste eh nicht nutzen, also muss was anderes her -> das wäre der Big/Little Ansatz.
Was die Programmierung angeht, auch damit hast du vollkommen recht. Da liegt extrem viel Potential. Nur auch hat das wieder nen gewaltigen Pferdefuß - schau dir die Kritik an, wenn da mal ein Game in 2020 oder 2021 SSE4 Support weggekürzt bekommt und mindestens SSE4.2 oder so verlangt. -> da gehen halt viele auf die Barrikaden. Eine der größten Vorteile warum x86 so weit verbreitet ist, ist die Kompatibilität auf ewig und fünf Tage. Nur ist das auch eine riesiger Entwicklungsbremse um neue Befehlserweiterungen einzubringen. Die Entwickler drehen halt im Zweifel dann mehrere Runden und man muss die Software auch so ausrichten, dass die langsamere/ineffizientere Geschichte nicht bedeutet, dass es nicht mehr nutzbar ist. Bei Games bspw. -> KI und Physik, die 32C+ spielend auslastet? Oder massiven Gerbauch von AVX2/512 und Co. macht? Kein Ding - blöd nur, dass sowas Keiner hat. Also dümpeln die CPUs mit quasi keiner Last rum, weil da draußen auch Leute mit 2C oder 4C unterwegs sind. Und das sind sogar die meisten (weil Notebooks).