Da hast du natürlich recht, machbar wäre sicher viel, man muss aber dran denken, das die Entwicklungskosten auch wieder rein kommen.
Und gerade in heutigen Zeiten, wo alles einfach nix kosten darf, ist die Sache, wie sie jetzt ist, eigentlich Goldrichtig...
Zumahl es immer verückte geben wird, die sowas kaufen.
Übrigens, nen Turbomodus könnte man ebenso bei heutigen Karten implementieren, ich denke da zum Beispiel an das CCC bei AMD und Overdrive...
Die Frage ist eher, ob das Sinn macht, weil wenn die Cores den höheren Takt mitmachen, warum nicht dann gleich per default eindrehen und überall die Mehrleistung genießen!?
Beim i7 bringt der Turbomodus ja viel, wenn Singlethreaded Anwendungen gefahren werden, weil der Takt ne ganze Ecke hoch geht.
Aber wenn ne Anwendung läuft, welche alle Cores auslastet, bringt Turbo fast nix, da kannst auch händisch OCen und hast gleichen/mehr Erfolg
Das was du beschreibst wäre eine Möglichkeit diese Frametimes zu syncronisieren, gleiches kann man aber bei aktuellen Lösungen machen, bzw. könnte man.
Problem bei deinem ist aber ebenso, das wenn die Einheiten das Bild berechnet haben, diese warten müssten. Was die ganze Sache verlangsamt.
Ich gehe stark davon aus, das es für AMD und NV ein leichtes wäre, die Bildausgabe zu syncronisieren, eben das die Frametimes passen und nicht schwanken. Aber das kostet FPS und das wollen wohl beide Hersteller nicht, weil ja dadurch die Karten langsamer werden
Mehr FPS auf dem Papier zählt wohl hier mehr als gefühlt flüssigeres Arbeiten...
Ich denke mal, das wird sich noch zeigen...
Vorteil an der Softwaregeschichte, das lässt sich im Nachhinein noch sehr einfach optimieren...
Jein, umso mehr Einheiten man implementiert, desto geringer wird die Wartezeit die verbracht werden muss bis das komplette Bild fertig gerendert ist