Wieso sollte AMD auf ein totes pferd wie physx setzen? In zwei jahren spricht niemand mehr davon weil physik berechnungen dann entweder in dx11 compute-shadern oder opencl ausgeführt werden - und somit auf karten beider hersteller laufen. Problem gelöst, physx tot.
Das würde ich so nicht behaupten...
PhysX ist nur die Software, wie diese am Ende implementiert ist, spielt erstmal keine Rolle. Wenn sich die PhysX als Physikengine durchsetzt, breiten anklang findet und somit von den Herstellern gefordert wird, dann ist sie sicher nicht tot zu bekommen.
Problem ist aber, NV hat die Implementierung in der Hand, Ergo nur auf CPUs lauffähig oder auf CUDA fähigen GPUs.
Solange aber nicht die Masse aller GPUs eine Implementierung erfährt, wird PhysX sich nicht wirklich etablieren können.
Im Moment ist PhysX als Engine auf jeglicher CPU Basis nutzbar, ergo auch auf nahezu allen PCs lauffähig, deswegen auch der Grund, warum viele Games auch PhysX als Engine einsetzten aber das GPU Feature nicht beachten... neuestes Beispiel ist da wohl Risen!
Spätestens aber wenn Havok ne OpenCL oder DX Compute Shader implementierung bekommt, wird NV schwer nachdenken müssen, wie die Zukunft von ihrer Engine ausschaut... Und AMD arbeitet ja zusammen mit Intel wohl scheinbar an Havok und dessen GPU Umsetzung, soweit ich das in Erinnerung hab, da gabs zumindest mal News zu!
jep so sehe ich das auch. wenn der GT300 so gut wird wie versprochen, dann ist nach der release in vielen vielen workstations zu finden.
Und was willst dann mit der Karte machen?
Der Markt ist sehr sehr klein, wo derartige Karten anklang finden... Bzw. ist erst noch im Wachsen, weil es sogut wie keine Software gibt, die breitbandig verfügbar und bekannt ist, und auf GPGPU Features setzt...
Da die Workstationkarten aber durch hervoragenden Support und dergleichen zu extremen Preisen verkauft werden, macht man damit auch trotz wohl recht wenig Absatzmenge extrem viel Geld.
Testla und Co ist ne andere Geschichte und damit nicht vergleichbar... Hier gehts um HPC, da kommt aber auch keine Standard Software zum Einsatz.
Nicht immer alles in einen Topf werfen
Übrigens Jungs, hier gehts um die Beeinträchtigung der Leistung bei verwenden von CPUs zur Berechnung von PhysX Effekten, nicht um irgendwelche GPGPU Sachen weit abseits von PhysX
Ich weiß.. wollte nur sagen das es an der Software liegt - warum AMD hier noch nicht so weit ist wie NV kann ich nicht sagen (dazu fehlen mir die Insider) aber vermutlich sehen sie diese Sparte nicht als besonders wichtig um dafür Leute abzustellen.
Die Aussage das der RV870 auf G80 lvl ist ist aber schlicht falsch, vom Featureset (GPGPU) ist er min mit dem GT200 gleichzusetzen und von der theoretischen leistung ..wie gesagt.
Das man es noch nicht umsetzen kann ist aber auch fakt, dennoch ist es "nur" ein "software" problem.
Erklär mir mal bitte was AMD dafür kann, wenn die Programmierer nicht dazu in der Lage sind oder die Optimierung nicht einbauen können/wollen, damit die Vec 5 Einheiten vollkommen ausgenutzt werden?
Fakt ist, ATI Stream gibts schon seit ner ganzen Weile, vllt nicht so lange wie Cuda, aber es gibt es nicht erst seit gestern...
Jeder kann sich das SDK ziehen und los Programmieren... Die Arbeit für AMD ist somit erstmal getan, alles weitere liegt an der Fähigkeit der Entwickler bei der Bereitstellung der drauf aufbauenden Software...
Da der Mensch aber wohl immer den Weg des geringsten Widerstands geht, kann ich mir schon vorstellen, warum das so läuft. Denn es soll weit unaufwändiger sein, die 1D Shader der NV Karten auszulasten wie die Vec 5 Shader bei AMD...
Man nehme also ne NV Karte, programmiert ein Tool und stelle dies bereit, dann nehme man ne AMD Karte und baut scheinbar halbherzig ne Implementierung für diese Karten ebenso ein...
Für den Leihen sieht es natürlich so aus, als wären die AMD Karten deutlich schlechter...
Nächstes Problem ist der noch nicht wirklich gemeinsame Standard. Eine Implementierung einer Software auf einen Standard wäre vergleichbar. Eine Implementierung einer Software auf zwei verschiedene Basisgerüste (Cuda, Stream) ist erstmal nur bedingt vergleichbar, keiner weis wo welche Optimierung drin steckt.
Gerade so Sachen wie F@H und Co. haben ja den Nachteil, das es keine bezahlmich Software ist, sprich der Entwickler bekommt kein Geld für eine ordentliche Implementierung auf bestimmte Hardware... Ob das nun mit AMD Karten rennt oder nicht, dem Entwickler des Tools wirds egal sein...
Interessant wirds erst bei Software, ander der Entwickler Geld verdient, hier wird man wohl alles tun, um möglichst das Optimum rauszuholen, um nicht fast 50% des möglichen Marktes im Vornherein zu bremsen