@fdsonne
Das ist zwar die allereinfachste und kostengünstigste Variante, aber mit dem Weg den Intel mit Larabee geht, sind viel mehr Möglichkeiten vorhanden, z.B. in Sachen Stromaufnahme bzw. Verringerung dessen. Ich denke da z.B. an das Ausschalten einzelner Kerne, was bei einer GPU nicht so ohne weiteres möglich ist. Auch so etwas wie ein Turbo Modus für einzelne Bereiche wie beim i7 wäre denkbar. Also wie man sieht, bei der herkömmlichen Methode ist auch nicht alles Gold was glänzt.
Da hast du natürlich recht, machbar wäre sicher viel, man muss aber dran denken, das die Entwicklungskosten auch wieder rein kommen.
Und gerade in heutigen Zeiten, wo alles einfach nix kosten darf, ist die Sache, wie sie jetzt ist, eigentlich Goldrichtig...
Zumahl es immer verückte geben wird, die sowas kaufen.
Übrigens, nen Turbomodus könnte man ebenso bei heutigen Karten implementieren, ich denke da zum Beispiel an das CCC bei AMD und Overdrive...
Die Frage ist eher, ob das Sinn macht, weil wenn die Cores den höheren Takt mitmachen, warum nicht dann gleich per default eindrehen und überall die Mehrleistung genießen!?
Beim i7 bringt der Turbomodus ja viel, wenn Singlethreaded Anwendungen gefahren werden, weil der Takt ne ganze Ecke hoch geht.
Aber wenn ne Anwendung läuft, welche alle Cores auslastet, bringt Turbo fast nix, da kannst auch händisch OCen und hast gleichen/mehr Erfolg
Wenn ich nun, wie du schreibst, einfach die ROP Cluster Anzahl erhöhe, ist es aber nicht das gleiche als wenn ich beispielsweise einzelne aber viele Cluster nehme und diese an einen Art ringförmigen Bus anbinden würde (so wie ein QPI blos im Ring). Wenn nun eine Steuereinheit in der Mitte dessen sitzt und so lange wartet bis jedes Teil-Bild fertig ist, können einfach keine MR entstehen. Wie auch?
Das was du beschreibst wäre eine Möglichkeit diese Frametimes zu syncronisieren, gleiches kann man aber bei aktuellen Lösungen machen, bzw. könnte man.
Problem bei deinem ist aber ebenso, das wenn die Einheiten das Bild berechnet haben, diese warten müssten. Was die ganze Sache verlangsamt.
Ich gehe stark davon aus, das es für AMD und NV ein leichtes wäre, die Bildausgabe zu syncronisieren, eben das die Frametimes passen und nicht schwanken. Aber das kostet FPS und das wollen wohl beide Hersteller nicht, weil ja dadurch die Karten langsamer werden
Mehr FPS auf dem Papier zählt wohl hier mehr als gefühlt flüssigeres Arbeiten...
Vielleicht, nein sogar höchstwahrscheinlich wird Intel das Problem der Synchronisation beim Larabee über die Software lösen. Nur ist halt die Frage, wie viel sich dort heraus holen lässt?
Ich denke mal, das wird sich noch zeigen...
Vorteil an der Softwaregeschichte, das lässt sich im Nachhinein noch sehr einfach optimieren...