wenn witcher 3 jetzt mit 30fps läuft, wird der witcher 4 dann nicht mit 40 laufen^^
das natürlich nicht.
Aber vom Grundgedanken geht es schon darum, die vorhandene Hardware so gut wie möglich anzusprechen bzw. auszulasten. Im besten Fall heißt das mehr fps mit gleicher Hardware oder gleiche fps bei geringfügig schwächerer Hardware (vergleich dx12 zu dx11)
Wie das letztendlich aussieht, wann man spürbare Unterschiede hat und ob es sich wirklich lohnt, bleibt natürlich noch abzuwarten.
In welche Richtung das gehen kann, sieht man hier z.b.:
Microsoft: DX12 ist fertig und schafft Arbeit für integrierte GPUs - Golem.de
In dem Beispiel hat man durch die igpu natürlich auch effektiv einfach mehr Rechenleistung, als wenn nur von dx11 auf dx12 gewechselt wird. Aber alleine, dass die igpu mit angesprochen werden kann und eben gute ~5fps mehr liefert find ich schon klasse.
In letzter Instanz sind da sicher die Spielentwickler gefragt. Wenn die kein Bock auf Implementierung und Optimierung haben, kommt halt wieder nur scheiße bei rum - wie das heute auch schon ist. Kategorisch sich gegen win10 zu stellen wird durch dx12 mmn aber eben deutlich schwerer - natürlich erst in mittelfristiger Zukunft.
Bezüglich aktueller GPU wahl find ich eigentlich diese fps videos mittlerwiele am brauchbarsten:
https://www.youtube.com/watch?v=4ckA_KTdaJg
Muss man halt ein wenig suchen und gucken, bis man passende für seine games, settings und gewünschten Karten gefunden hat. Wenn ich mir so anschaue, dass die 970 da beim witcher und AC aber selbst in den vorgerenderten Sequenzen teils auf 30fps rutscht, bleib ich nach wie vor dabei, dass das bei ordentlich action einfach eng werden kann.