Das ist so nicht ganz richtig...
Unified Shader sind erstmal frei programmierbar. Welche Software (in Form von übersetze Programmcode in Maschinensprache) dann da oben drauf läuft und mit welcher Programmiersprache man diese Produkte ansprechen kann spielt keine Rolle.
Oder vereinfacht gesagt, eine Hardware muss nicht auf eine Software zugeschnitten sein, sondern eine Software wird auf eine Hardware zugeschnitten.
In unserem Fall gibt es Hardware in Form von 1D ALUs auf NV GPUs, es gibt eine Entwicklungsumgebung die mit C++ umgehen kann und es gibt ein Zwischenglied, welches Programmcode in Maschienensprache umsetzt...
Den ALUs ist es schnurz egal ob du nun mit C++, VB, Java oder weis der Teufel was ankommst solange das besagte Zwischenglied die Sprache in eine Maschinenverständliche Sprache übersetzen kann. Und genau diese Möglichkeit hat NV geschaffen. Und bietet C++ Kompatibilität an.
Das ist aber leider nur die eine Kehrseite der Medalie. C++ verstehen heist lange nicht, jeglichen C++ Programmcode ausführen zu können.
Ich denke da zum Beispiel an Befehlserweiterungen ala SSE. Sowas kann die GPU nicht und dementsprechend wird derartige Software nicht auf der GPU laufen, zumindest nicht ohne massive Anpassungen.
Soviel zum Thema Optimierungen der NV Chips für C++
Ich meine damit auch eher den Umbau der GPU, damit C schneller läuft. Das es auch so laufen würde stimmt wohl, aber wie schnell? Beim G200 hätte man halt die ganzen Mul Einheiten weglassen können und beim Fermi hätte man die CUDA-Cores nicht so umbauen müssen, dass sie so viel DP Leistung haben. Außerdem gibt es wohl auch einige Elemente, die man wirklich ändern musste, wenn es rein Softwaretechnisch ist, wäre der G200 ja auch C++ kompatibel. Dies ist aber nicht der Fall.
Da hast du natürlich recht, im Falle von C++ muss der Entwickler der Software nicht erst auf irgend ne NV only Programmiersprache umsatteln um die GPU nutzen zu können. Aber es gibt wie grade schon gesagt auch Stolpersteine zu bewältigen.
Schlussendlich interessiert uns Gamer Endkunden die Workstationfähigkeit aber keinen Milimeter...
Die Frage ist eher, was bringt uns Endkunden das?
Schau dich auf dem Software Markt um... Im Privat-Endkundenbreich gibt es nur wenige Anwendungsgebiete, die extrem Leistung brauchen. Da zählen Games noch zu den größten.
Dann gibt es die Audio/Video Bearbeitungssparte. Aber hier sind schon wieder drastisch wengier Anwender die davon profitieren würden, weils einfach mal nich jeder macht und wenn dann nicht sooo oft, das man davon signifikannt Zeitersparniss hätte.
Und danach hört es schon wieder auf. Das bisschen Office geplänkel der meinsten User macht ne aktuelle Dualcore CPU spielend.
Nunja man kann nie sagen was für Sachen da später draus resultieren, oder hat hier jemand die MP3 verhergesehen?
Aber eigentlich finde Ich hier einen anderen Aspekt interessant. Bisher war der Gamingmarkt das Zugpferd für Highendgrafik und die schnelle Entwicklung hat sogar machmal Supercomputer überrollt. Nun deuten alle Vorzeichen daraufhin, dass GPGPU und Supercomputing in Zukunft das Zugpferd werden. Viele Kunden sind halt nicht mehr bereit für die Entwicklung mitzubezahlen. Das Nvidia nun Kombichips produziert könnte zur Folge haben, dass die Weiterentwicklung schneller voran geht. Davon hätte dann auch der Gamer etwas.
Der Konsolenmarkt hat die Entwicklung im GPU-Markt ja fast zum erliegen gebracht. Über 18 Monate warten wir schon auf eine neue Generation. Es gab mal Zeiten da kamen neue Generationen alle 6 bis 12 Monate.