Fakt ist einfach die Entwickler von Spielen und Anwendungen wurden wie es scheint von dieser Entwicklung total überrascht.
Fakt ist das überhaupt nicht. Fakt ist eher, dass Leute, welche keine Ahnung von Softwareentwicklung haben, sich anmaßen über eben diese urteilen zu können, obwohl sich einfach nicht wissen (können), dass das nicht mal eben so einfach funktioniert. Hast du eventuell schon einmal daran gedacht, dass es auch Limitierungen geben könnte, sodass hier zwar eine Skalierung über mehrere Kerne vorhanden ist, diese aber nicht wirklich ersichtlich ist? Gerade bei Software wie Spielen muss viel synchronisiert (Threads sind nicht völlig unabhängig voneinander, es muss z.B. in Echtzeit auf den Input vom Spieler reagiert werden) werden, sodass es hier Einschränkungen bei der Nebenläufigkeit gibt. Es kommt zu kurzen Wartezeiten bei den Threads, Threads müssen in einer bestimmten Reihenfolge ausgeführt werden, usw. Hier können dann CPUs mit schnelleren Kernen Punkten und bis zu einem gewissen Grad ihre fehlenden Kerne kompensieren. Dazu gesellt sich dann auch noch der API-Overhead von Dx11, wo die Auslastung der Threads nicht so pralle ist, denn der sogenannte Mainthread bekommt viel Last und die restlichen Threads sind eher weniger ausgelastet.
Hätten sie frühzeitig, sagen wir mal auf 8 Kerne oder mehr, ihre Programme optimiert, würden die Leistungsunterschiede heute noch kleiner sein oder sich gar in eine andere Richtung bewegen.
Wie oft haben wir diese dumme Pauschale schon gehört? Wie optimiert man seine Software denn auf gewisse Anzahl an Kernen?
Nur weil 4 schnelle Kerne besser performen als 8 langsame Kerne, heißt dies ja noch lange nicht, dass eine Software eine schlechte Kernskalierung aufweist. Dies nehmen aber dann sofort viele Leute an und der Irrglaube vieler ist, dass nur weil eine Software eine gute Kernskalierung aufweist, diese auf mehreren Kernen besser läuft (wenigstens bis zu der Anzahl, bis der sie skaliert). Dies ist aber Murks, denn oft sind schnellere Kerne in der Lage, den gleichen Workload schneller abzuarbeiten als langsamere. Gut erkennbar ist dies an folgendem Beispiel:
Ghost Recon Wildlands: GPU- und CPU-Benchmarks aus der Finalversion [Update]
Dort wurde Ghost Recon Wildland darauf getestet, wie gut es denn mit Kernen skaliert. Dazu wurde ein i7 6950X auf 2 GHz begrenzt. Dabei kam heraus, dass das Spiel so bis zu 10 Cores/20 Threads ordentlich skaliert und ins GPU-Limit rennt. Dann wurde das gleiche noch einmal mit dem 6950X auf 4 GHz getestet. Dort ist dann zu erkennen, dass schon 4C/4T ausreichen, um ins GPU-Limit zu rennen. Spätestens bei 4C/8T gibt es dann auch nicht mehr diese unschönen, kurzen Ausreißer nach unten bei dem Frameverlauf. Trotz guter Kernskalierung, sind auch hier die schnellen Kerne im Vorteil und können ihren Nachteil, bezüglich der Anzahl, locker kompensieren.
Wenn man sich Benchmarks zu diesem Spiel ansieht, wird man auch erkennen, dass z.B. ein 7700k besser performt als ein 1800x und das obwohl dieses Spiel eine gute Kernskalierung aufweist.
Also nichts von wegen hier haben die Entwickler irgendeinen Trend verschlafen. Die Kernskalierung ist da, aber sie wird nicht immer benötigt.