Wenn man durch auslagerung dieser Softwaresache die CPU entlasten kann denke ich kann man es doch gutheißen. Schöner wäre es aber wenn man es beiden Herstellern gutheißen könnte.
Das stimmt schon, sprich wäre eine gute Sache, aber dafür fährt NV leider die falsche Politik für die Sache.
Denn PhysX als Physikengine ist gar nichtmal schlecht, NV verhindert aber selbst die Ausbreitung. Das fängt beim künstlichen ausschalten bei Verwendung einer AMD als Hauptkarte + NV als PhysX GPU an und hört bei "NV only Feature" auf.
Gut, das eine NV Softwaresache NV only ist, ist nicht sonderlich verwunderlich... Das Problem ist aber, der GPU Markt im Gamingbereich ist fast hälfte/hälfte aufgeteilt. Ein auf einen Hersteller zugeschnittenes Produkt und das Ausschließen des anderen schließt gleich mal 50% des Marktes aus...
Das Produkt kann so Toll wie sonstwas sein, der Spieleentwickler hat schlussendlich die Arbeit und den Finger drauf...
Dazu kommen Lizenzkosten usw.
Aus Sicht der Spieleentwickler ist es fast Unsinn auf PhysX per GPU zu setzen. Ob sie es nun einsetzen oder nicht, mehr Verdienen tun sie damit nicht. Aber sie haben mehr Aufwand es zu implementieren und nur die hälfte der User die es nutzen kann...
Selbst bei PhysX basierend auf der CPU verlangt NV Lizenzkosten, hier kann aber auch jegliche Hardware genutzt werden... Daher sieht man auch deutlich mehr Titel mit PhysX Physikengine für CPU als für GPU.
Zumahl wohl alle derzeitigen Titel die PhysX GPU basiert nutzen im NV Programm drin sind und NV da teils auch Geld in die Entwicklung pumpt...
Aber lassen wir das, gehört hier nicht rein...
Nein das hat Nvidia sicher nicht. Allerdings hat man damals berteits angefangen die Grafikkarten so zu optimieren, dass in C programmierte Anwendungen gut darauf laufen. Der Fermi bildet hier nun den Abschluß dieser Entwicklung, denn er ist die erste 100% C++ kompatible GPU. Aus diesem Grund läuft PhysX auf NV-Karten. Selbst wenn ATI damals PhysX gekauft hätte und nicht NV, so wäre man bei ATI heute noch lange nicht soweit, dass PhysX auf ihren Karten laufen würde. Außerdem finde ich es sehr lustig, dass du nun die ganzen Optimierungen der NV-Chips für C klein reden willst. Vor ein paar Seiten hast du noch gesagt, dass der Fermi vieleicht gar nicht mehr für Games taugt, da NV ihn nur noch für GPGPU entwickelt hat. (Das halte ich natürlich auch für falsch. NV geht es darum beide Märkte gut zu bedienen.)
Das ist so nicht ganz richtig...
Unified Shader sind erstmal frei programmierbar. Welche Software (in Form von übersetze Programmcode in Maschinensprache) dann da oben drauf läuft und mit welcher Programmiersprache man diese Produkte ansprechen kann spielt keine Rolle.
Oder vereinfacht gesagt, eine Hardware muss nicht auf eine Software zugeschnitten sein, sondern eine Software wird auf eine Hardware zugeschnitten.
In unserem Fall gibt es Hardware in Form von 1D ALUs auf NV GPUs, es gibt eine Entwicklungsumgebung die mit C++ umgehen kann und es gibt ein Zwischenglied, welches Programmcode in Maschienensprache umsetzt...
Den ALUs ist es schnurz egal ob du nun mit C++, VB, Java oder weis der Teufel was ankommst solange das besagte Zwischenglied die Sprache in eine Maschinenverständliche Sprache übersetzen kann. Und genau diese Möglichkeit hat NV geschaffen. Und bietet C++ Kompatibilität an.
Das ist aber leider nur die eine Kehrseite der Medalie. C++ verstehen heist lange nicht, jeglichen C++ Programmcode ausführen zu können.
Ich denke da zum Beispiel an Befehlserweiterungen ala SSE. Sowas kann die GPU nicht und dementsprechend wird derartige Software nicht auf der GPU laufen, zumindest nicht ohne massive Anpassungen.
Soviel zum Thema Optimierungen der NV Chips für C++
Mit dem Fermi hat Nvidia für Supercomputing einen Meilenstein abgeliefert. Hier steigt die Leistung wirklich um den Faktor 8 und außerdem um enorm wichtige Elemente wie C++ und ECC. Da liegt sicher der Grund für die überschwängliche Werbung in diesem Bereich.
Da hast du natürlich recht, im Falle von C++ muss der Entwickler der Software nicht erst auf irgend ne NV only Programmiersprache umsatteln um die GPU nutzen zu können. Aber es gibt wie grade schon gesagt auch Stolpersteine zu bewältigen.
Schlussendlich interessiert uns Gamer Endkunden die Workstationfähigkeit aber keinen Milimeter...
Wir Gamer wären ja alle mehr als zufrieden, wenn wir dx11 und +100% bekommen. Das wäre aber im Gamingbereich nichts außergewöhnliches und kein Grund groß die Werbetrommel zu rühren. Daher sag ich mal abwarten und Tee trinken (eigentlich mag ich kein Tee
).
Edit: Ich stimme dir auch zu, dass PhysX im Grunde ein Abfallprodukt ist. Hier sieht man allerdings die große stärke von NV und daher meiner Meinung nach auch die technische Überlegenheit der All-in-one-Karte. Wer weiß, was für Vorteile NV GPUs in Zukunft durch C++ und Supercomputing noch erhalten. Schließlich sind Mp3's ja auch nur ein Abfallprodukt.
Die Frage ist eher, was bringt uns Endkunden das?
Schau dich auf dem Software Markt um... Im Privat-Endkundenbreich gibt es nur wenige Anwendungsgebiete, die extrem Leistung brauchen. Da zählen Games noch zu den größten.
Dann gibt es die Audio/Video Bearbeitungssparte. Aber hier sind schon wieder drastisch wengier Anwender die davon profitieren würden, weils einfach mal nich jeder macht und wenn dann nicht sooo oft, das man davon signifikannt Zeitersparniss hätte.
Und danach hört es schon wieder auf. Das bisschen Office geplänkel der meinsten User macht ne aktuelle Dualcore CPU spielend.
Prima angeschnitten... Das gilt aber für beide Seiten der Fronten die hier diskutieren oder? Ist ja ok das hier viele AMD'ler nicht der selben zuversicht sind wie pro NV'ler. Aber in anbetracht dessen das sich hier noch niemand mit Gewissheit darüber äußern kann wie es um dessen Leistung schlußendlich steht, frag ich mich weshalb hier so oft versucht wird Pessimismus zu verbreiten.
Es geht eher darum den Leuten versuchen begreiflich zu machen, das zu viel Optimismus am Ende auch eine Drastische Enttäuschung sein kann.
Das ganze kocht doch vor jedem Release von neuen hoch...
Ich erinnere mich da noch an unsere Spezis die die HD5870 deutlich vor einer HD4870 X2 gesehen haben, trotz halbwegs glaubbaren Spekulationen über die Anzahl der Shader/TMUs/ROPs...
Und selbes Problem dürfte nun AMD auch haben!
Chips sind zu groß waferausbeute zu klein ein wafer kostet 5000 euro round about mein ich mal gelesen zu haben lasse da 100 GPUs draus möglich sein und 40% ausbeute würden das ca 125€ pro GPU sein plus herstellungskosten des boards und speichereinkauf
AMD hat das Problem nur bedingt. Bzw. deutlich weniger. Denn NV wird sicher wieder eine Top Single GPU Karte vor AMD plazieren und mit einer zweiten abgeschwächten Version der AMD Karte Konkurenz bieten.
Also eine 360GTX wenn sie denn so heißen mag würde ich mir schon auf HD5870 Level, oder etwas drüber vorstellen können. Aber die Karte wäre dann wieder ein Teil deaktivierter Chip, wo man hätte sicher gut 20% oder mehr Chipfläche sparen können, wenn man hätte die GPU gleich so ausgelegt in der max. Ausbaustufe...
Sprich diese Karte muss auf einem ähnlichen Preisniveau verkauft werden wie das AMD Produkt. AMD hat die Preise in der Hand wenns um den Preiskampf geht... --> gleiche Situation wie beim RV770 vs. G200(b)
Wenn man sich die Meldungen der Boardpartner ansieht, die der 260GTX 55nm sogar Verlust beim verkauf zugesprochen haben, weil einfach der Kaufpreis zu niedig war/ist, dann könnte eine ähnliche wenn auch nicht so drastische Situation hier wieder auftreten. Genau das ist meine Befürchtung. Niedrige GPU Preise sind zwar was feines für den Endkunden, tun dem Hersteller aber nicht wirklich gut und somit auch den kommenden Produkten in Form von Entwicklungskosten.
Um nochmal kurz zum Workstation Bereich zu schwenken... Klar macht man hier mehr Gewinn, aber wenn der Gamingbereich ein +/- 0 Geschäft oder ein Verlustgeschäft wird, wird man sich als Hersteller wohl Gedanken machen ob man diesen Bereich nicht aufgibt und neue Standbeine in anderen Bereichen aufbaut... Im GPGPU Bereich ist NV ja quasi konkurenzlos...