jaa, der king bessert sich^^
ich denk mal, dass mit den heutigen verfahren (sprich silizium) wirtschaftlich so ca. 16-8 nm möglich sind, ab dann sind die leiterbahnen so dünn, dass sie nicht mehr richtig den strom leiten bzw die transistoren so leaken dass die chips gar nicht erst funktionieren würden.
zwangsläufig wirds wohl auf quantenkomputer oder ähnliche extrem parallele systems hinauslaufen, würde auch dem raytracing zugutekommen.
gpus in dem sinne wie wir sie heute kennen wird es so nicht mehr geben, eher Raytrace Koprozessoren (ati bzw. nVidia wollen doch auch noch geld verdienen
)
natürlich sollte dann auch die threadzahl nach belieben verändert werden und teile des speicher und der spannungsversorgung (kann man ja schon heute bei gewissen Prozessor-plattforman) einfach abgeschaltet werden können, dass der stromverbrauch (beinahe) linear zur Leistung steigt und sinkt.
um eine gewissen stufe (sprich WIRKLICH reale grafik) zu verwirklichen, muss jedoch die Physik endlich mal nachkommen und die auflösung der monitore (wenn es solche dann noch gibt, bleiben fürs arbeiten aber wohl einer der besten lösungen) ins unermessliche gesteigert werden
(noch jenseits der 16*** x 8*** die vor kurzem die Japaner vorgestellt haben;XHD oder wie die das genannt haben..)
edit: ok habs gefunden, heisst uhdtv und hat auch leider nur die hälfte der von mir angegebenen auflösung
, xhd ist ein nvidia "standard"