Physx auf Radeon

@fs done me mit cpu physx ist selbst mit einer hd 5870 nicht spielbar.es sind zwar wenige games mit physx,dafür aber auch top titel!batman game des jahres 09 ,mafia2 game des jahres 10.wenn physx so unwichtig sein würde,warum dann überhaupt das thema ati karte mit extra physx nvidia karte?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@fs done me mit cpu physx ist selbst mit einer hd 5870 nicht spielbar.es sind zwar wenige games mit physx,dafür aber auch top titel!batman game des jahres 09 ,mafia2 game des jahres 10.wenn physx so unwichtig sein würde,warum dann überhaupt das thema ati karte mit extra physx nvidia karte?

Um zu sehen obs geht.

"game des jahres" geht glaub ich primär nach den Verkaufszahlen und ist somit irrelevant. Für mich jedenfalls, hatte da immer ganz andere Games als diese Zeitschriften auf meiner Liste.

MfG
 
Zuletzt bearbeitet:
@fs done me mit cpu physx ist selbst mit einer hd 5870 nicht spielbar.es sind zwar wenige games mit physx,dafür aber auch top titel!batman game des jahres 09 ,mafia2 game des jahres 10.wenn physx so unwichtig sein würde,warum dann überhaupt das thema ati karte mit extra physx nvidia karte?

Und warum sind Spiele mit CPU PhysX nicht spielbar? Weil es keinen Multicoresupport hat. Warum hat es den nicht? Wer bräuchte mit einem dicken Quad/Hexacore dann noch Cuda...

Gegen den Endkunden vllt nicht, aber gegen die Ersteller des Modders könnten sie schon

Kommt auf das Land an, in dem er sitzt, wie anonym der ist... eher schlecht.
 
Das physx auch auf einer quad oder hexa core flüssig laufen würde,ist nicht bewiesen!auch das gerücht das nvidia das absichtlich ausbremmst ist nicht bewiesen,das wird gerne von ati fans gebracht um nvidia runterzumachen.fakt ist solange etwas nicht bewiesen ist gilt dieses gerücht als falsch!
 
Das physx auch auf einer quad oder hexa core flüssig laufen würde,ist nicht bewiesen!auch das gerücht das nvidia das absichtlich ausbremmst ist nicht bewiesen,das wird gerne von ati fans gebracht um nvidia runterzumachen.fakt ist solange etwas nicht bewiesen ist gilt dieses gerücht als falsch!

Im Gewissen Sinne hast du da zwar recht mit dem nicht bewiesen... Aber ein Beweis ist in der Tatsache nicht möglich, weil NV einfach mal die PhysX Leistung auf scheinbar einen Thread beim Berechnen der CPU beschränkt... Und genau hier liegt der Knackpunkt. Warum tun sie das? Sicher nicht der lieben Kunden willen, sondern weil sie mehr Käufer zu den Grafikkarten bewegen wollen.

Man sieht beispielsweise die ersten Demos zu PhysX oder auch dedizierte PhysX Benches können alle vorhandenen CPU Kerne des PCs voll auslasten. Komischerweise geht das nie in Games, wo NV mit GPU PhysX wirbt --> warum? Und das obwohl die PhysX auf CPU Berechnung zweifelsohne die Bremse in Sachen FPS ist, aber die heutigen Quad/Hexacore CPUs noch massiv reserven haben.
 
physx wird in 3-4 Jahren keine bedeutung mehr haben, bis dahin gibt es DX12 der was großes mitbringt wie DX9 damals & offene Standards von AMD & Intel.
 
Also wenn CPU Physx mal richtig genutzt werden würde kann NV GPU Physx mal getrost vergessen!!!

Außerdem finde ich Physx mal total überschätzt weil ich habe noch kein game gesehen welches mit Physx eine zerstörung bietet wie es z.B. Bad Company 2 bietet und da geht mal echt richtig viel kaputt!
 
Zuletzt bearbeitet:
Es soll bei UT3 Karten geben, die ohne PhysX unspielbar zu langsam sind, allerdings weiß ich nicht, ob das CPU oder GPU-Support hat, hab mich da nie eingehend drum gekümmert.

Ich sags mal so: Wenn Nvidia der Ansicht ist, durch ein bestimmtes Feature Spiele an ihre Karten binden zu wollen, kauf ich eher die Karte und das Spiel nicht und weiche auf einen anderen Titel aus, als so ein Geschäftsgebahren noch zu unterstützen. Soll Nvidia eben wie Apple Rechner baun, die nicht mehr kompatibel sind, aber dieser Blödsinn "ich mach hier was ganz eigenes und lass niemanden mitmachen" im PC-Bereich ist schon wirklich abstrus.
Da könnte man auch auf ein Windows warten, das nur noch mit MS-Tastaturen funktioniert. :d

Als Spielehersteller jedenfalls würd ich den Teufel tun, mir die gesamte AMD-Kundschaft zu verschrecken, indem ich ein PhysX integriere, das auf Radeons nicht anständig läuft.
 
Zuletzt bearbeitet:
Naja, da gibt es z.B. Ghost Recon Advanced Warfighter 2, da kann man Bäume fällen und Flaggen zerschießen - das läuft aber mit CPU PhysX :fresse:

@Duplex
Nein, er kommt mit Mafia 2 und ganz tollen kaputten Betonpfeilern ;)

Mafia 2 finde ich lächerlich von den Physx sachen! NV wollte damit sicher fett die kohle machen aber man sieht ja nicht wirklich was davon!!!
Ohne witz ich würde mir sofort eine GT240 dazu kaufen für meine HD5970 (habe eine im HTPC und habe es getestet) aber es lohnt einfach nicht die unterschiede einfach so dermaßen gering sind das es wieder lächerlich wird!
Wenn z.B. bei Bad Company 2 rein garnix kaputt gehen würde und dann mit der zusatz karte dann alles explodiert und die teile rumfliegen dann wäre das halt ein anreiz aber so mal ehrlich das ist als ob ich nen Game mit 4xAA und dann mit 8xAA zocke da biste auch eher an der besserung am suchen!
 
Zuletzt bearbeitet:
Richtig @Ber
Daher verstehe ich nicht die Argumentation einiger das nvidia angeblich den PC als Spieleplattform fördert, eine Art Verfechter dessen ist, nicht. Gleichzeitig verhindern sie aber die Verbreitung von Technologie wie DX10.1, DX11 wurde auch erstmal kaputt geredet (als nv noch keine DX11 Karte hatte, ATi aber schon) und PhysX wird nur auf "reinen" Systemen zugelassen, sobald ein Dritthersteller im Boot istm wird diese Funktion deaktiviert, auch wenn man eine nivida Karte hat.

Gleichzeitig verbreiten sie aber PhysX auf der XBOX und der PS3. Wer will will hier eigentlich wen verarschen?
 
Zuletzt bearbeitet:
Jungs das soll hier kein "wer finded PhysX wie?" Thread werden...

:btt:
 
physx wird in 3-4 Jahren keine bedeutung mehr haben, bis dahin gibt es DX12 der was großes mitbringt wie DX9 damals & offene Standards von AMD & Intel.

diese standards gibt es in gewisser weise in form der compute shader schon mit dx11. Solange es aber nocht die Finanzspritze von NV gibt werde Entwickler einen Teufel tun und diese nutzen.
Die Computeshader würden herstellerunabhängig programmierbar/nutzbar sein und die aufgabe der physikberechnung auf der graka genauso meistern wie es physx momentan tut
 
Im Gewissen Sinne hast du da zwar recht mit dem nicht bewiesen... Aber ein Beweis ist in der Tatsache nicht möglich, weil NV einfach mal die PhysX Leistung auf scheinbar einen Thread beim Berechnen der CPU beschränkt... Und genau hier liegt der Knackpunkt. Warum tun sie das? Sicher nicht der lieben Kunden willen, sondern weil sie mehr Käufer zu den Grafikkarten bewegen wollen.

Man sieht beispielsweise die ersten Demos zu PhysX oder auch dedizierte PhysX Benches können alle vorhandenen CPU Kerne des PCs voll auslasten. Komischerweise geht das nie in Games, wo NV mit GPU PhysX wirbt --> warum? Und das obwohl die PhysX auf CPU Berechnung zweifelsohne die Bremse in Sachen FPS ist, aber die heutigen Quad/Hexacore CPUs noch massiv reserven haben.

Und damit ist der Post von Turbofucker hinfällig. Denn das Nvidia PhysX auf der CPU limitiert, ist dann kein Gerücht mehr sondern Fakt. Alles ist doch heute Multicoreoptimiert. Nur PhysX nicht, bei dem der Hersteller seltsamerweise Grafikkarten für bessere Performance anbietet? Das Leben ist kein Ponyhof.

Wenn ich mir Mafia 2 anschaue, dann habe ich mit mittleren PhysX Effekten auf der CPU fast spielbare fps. Fast, weil nur ein Thread benutzt wird. 8 Stück kann ich nutzen, 4 Kerne plus HT. Das dürfte den Ausschlag zwischen fast spielbar und flüssig geben.
Die Aussage, es sei nicht beweisen, dass PhysX mit Multicoresupport schneller wäre, ist hanebüchen. a) kann man das nicht herausfinden, solange Nvidia kein Interesse an Multicoresupport hat und b) ist es ja mit einem thread je nach Spiel fast flüssig. Zusammen mit der Deckelung auf einen Thread ergibt sich eher folgendes Bild: Flüssig wärs mit einer gescheiten Optimierung auf die CPU. Dann aber wäre der Marketingeffekt für einen Grafikkartenhersteller dahin - der möchte ja seinen Cudakram vermarkten und hätte dann kein Zugpferd mehr. Was quasi beweist, dass Nvidia deckelt.

Auch wenn das folgende OT ist: Es mutet langsam seltsam an, wie gewisse User hier Propaganda, und um nichts anderes handelt es sich, verbreiten dürfen. Das ist einer sachlichen Diskussion enorm abträglich. Insbesondere durch gewisse Formulierungen (Fakt ist, alles gerüchte, und seine penetrantes "Verkäufergehabe" in den Kaufberatungen).
 
diese standards gibt es in gewisser weise in form der compute shader schon mit dx11. Solange es aber nocht die Finanzspritze von NV gibt werde Entwickler einen Teufel tun und diese nutzen.
Die Computeshader würden herstellerunabhängig programmierbar/nutzbar sein und die aufgabe der physikberechnung auf der graka genauso meistern wie es physx momentan tut

Moment, so einfach gehts dann doch nicht ;)
Computeshader oder OpenCL stellen nur die Plattform. Was im Moment fehlt, ist eine Physikengine bzw. Ansammlung von Bibliotheken, welche diese Plattform auch nutzen kann. Das bietet im Moment eben nur PhysX ;)

Obwohl ich die Umsetzung auf aktuellen NV GPUs absolut grotten schlecht finde, wie vergleiche mit der Ageia Karte oder CPUs zeigen...

Die Aussage, es sei nicht beweisen, dass PhysX mit Multicoresupport schneller wäre, ist hanebüchen. a) kann man das nicht herausfinden, solange Nvidia kein Interesse an Multicoresupport hat und b) ist es ja mit einem thread je nach Spiel fast flüssig. Zusammen mit der Deckelung auf einen Thread ergibt sich eher folgendes Bild: Flüssig wärs mit einer gescheiten Optimierung auf die CPU. Dann aber wäre der Marketingeffekt für einen Grafikkartenhersteller dahin - der möchte ja seinen Cudakram vermarkten und hätte dann kein Zugpferd mehr. Was quasi beweist, dass Nvidia deckelt.

Ich denke die aktuelle Vorgehensweise seitens NV bzw. seitens der Gameschmieden liegt eher daran, das eben die Optimierung auf Cuda bzw. die GPU lange noch weit von Optimal entfernt ist...
Sprich was liegt also naheliegender hier den CPUs bisschen die Bremse aufzudrücken?
 
Man könnte auch fragen, was liegt ferner. Es gab doch vor einiger Zeit auch mal Treiber, die auf 3DMark zugeschnitten waren, um dort besonders gute Ergebnisse zu erzielen, die aber nicht mehr der Leistung im alltäglichen Anwendungsfall entsprachen. Ich mein das ist doch Doping im Benchmarkbereich, oder nicht?
Wenn Nvidia wirklich anfängt die CPU-Leistung bewusst zu deckeln, um ein Feature ihrer eigenen Karten stärker erscheinen zu lassen, als es sonst wäre, um darüber wieder die Marktposition zu stärken, ist das doch Verarschung pur.

Wenn man den Gedanken zu Ende spinnt, könnte AMD doch auch gleich über den Radeon-Treiber die Intel-CPUs runterregeln und auf ihre Radeons zusätzlich einen AMD-Prozessor verbaun (mal übertrieben ausgedrückt), weil der ja per Treiber Multikern erlaubt und deswegen leistungsstärker ist als die Intel-CPU, weil man da über den Treiber außer einem alle Kerne abschaltet.
 
Ich betrachte die ganze Physx "Sache" objektiv und komme zu dem Schluss ,dass Nvidia hier gar niemanden veräppeln will. Ihr einziges Ziel ist mehr Dollars einzustecken als AMD. Wie erreiche ich dieses Ziel? Indem ich exklusive Features nbiete an die eben die Konkurrenz nicht hat. Ebenfalls mache ich auch Intel das Tor zu und optimiere Physx nicht auf Multicores.
Um heutzutage gegen die Konkurrenz bestehen zu können bleibt einem gar nichts anderes übrig , deshalb kann ich nicht verstehen warum einige Leute meinen Nvidia will mit dieser Taktik Konsumenten zu veräppeln.
:wink:
 
Dann stell dir die Frage warum man als Käufer einer nvidia Karte nicht PhysX nutzen kann wenn eine AMD Karte im Rechner steckt?
Es wird dem Kunden vorgelogen es seien technische Probleme der Grund und daher ist diese Sperre drin.
Komischerweise laufen die gehackten Treiber, wo einfach nur die Sperre entfernt wurde, problemlos und PhysX läuft auch rund.

Der Käufer einer nvidia Karte wird also um eine Funktion geprellt / betrogen - und das alles mit einer absolut scheinheiligen Ausrede. Wenn das dann also keine Kundenverarsche ist, dann weiß ich auch nicht.
 
Um das Phänomen PhysX mal von einem anderen Winkel zu betrachten:

PhysX war von Ageia eigentlich dazu gedacht, dass es sowohl von NV als auch ATI Usern genutzt werden kann, nämlich mit deren dedizierten Zusatzkarten.

Das war ein Grundgedanke, nach dem Motto: Gleiches Recht für alle.

Tatsache ist, dass dass NV daraus ein "Alleiniges Recht für uns" gemacht hat. Das Argument NV hätte es ATI ja angeboten zählt aus den von fdsonne genannten Gründen nicht und widerspricht auch dem o.g. Sinne des Erfinders.

Das heißt allerdings nicht, dass ich kein Verständnis für NVs Verhalten dieses Themas bezüglich habe.


Kleines Trivia zu PhysX auf PS3 und Xbox360:

Die XBox nutzt wie viele wissen einen ATI Grafikchip, also fällt dort GPU PhysX flach.

Bei der PS3 werkelt zwar ein Grafikchip von NV, dieser basiert aber auf dem G70 (Geforce 7800) und setzt demzufolge noch auf Shader und Pixelpipelines. Ergo ist auch dort weit und breit nichts von GPU PhysX zu sehen.

Wenn also PhysX für Konsolen genutzt werden soll, dann geht's nur über deren CPU. Und diese sind bekanntlich stark Multithread orientiert.
 
Zuletzt bearbeitet:
Ein großes Problem seitens NV ist auch die Tatsache, das man einerseits Hardwarehersteller für GPUs ist und andererseits Softwareschmiede für PhysX.

Ein Hardwarehersteller wird immer versuchen seine Hardware möglichst weit auf dem Markt zu verbreiten.
Bei einem Softwarehersteller läuft das etwas anders, hier wird man eher versuchen die Software möglichst weit auf dem Markt zu verbreiten und so auch möglichst viele Kunden ansprechen zu wollen.

Wenn nun aber der Hardwarehersteller gleichzeitig Softwareschmiede ist, passt das nicht unter einen Hut. Entweder man will die Hardware pushen oder man will die Software pushen, beides geht nunmal nicht.
Würde man PhysX zu einem freizugänglichen für jedermann offenen Standard machen, so würde ein Argument für den Kauf der NV Hardware wegfallen. Bleibt PhysX für NV only Hardware, so legt man direkt Steine für die PhysX Marktdurchdringung im eigenen Haus.

Wie es scheint, liegt bei NV derzeit ganz klar die priorität auf der Hardware... Heist soviel wie, wenn sich dort nix ändern wird, werden wir PhysX wohl nie als echten GPU basierten Standard sehen...
Da kann man nur hoffen, das eben andere Softwareschmieden ein Produkt bieten, was Hardwareunabhängig läuft. Und das am besten von einer Softwareschmiede, welche keine Grafikkarten selbst unter ihrem Namen verkauft.
 
Oder wir nehmen offene Standard´s wie Havok wo es egal ist wer dahinter steht da es ja wie gesagt "Offen" ist.

Eine frage, wenn ageia von nV aufgekauft worden ist, wieso hatte ich dann bei der HD 4870 ne Ageia PhysX demo mit 3 verschiedenen Szenarien?
 
AMD arbeitet ja daraufhin das es zu einem offenen Physikstandard kommt, zusammen mit der BulletEngine - davon haben dann alle was. Auch unsere geliebten nvidia Fans die PhysX mit Händen und Füßen verteidigen und nur vorbringen "nvidia hat ja PhysX, ATi nicht".
Man sollte sich mal die Frage stellen was passiert würde wenn nvidia das Projekt unterstützen würde - wir, die Kunden, hätten alle was davon, egal ob nvidia, ATi, AMD, Intel drin werkelt. Aber manche haben nicht soviel weitblick...
 
Der 2. Erhebliche Vorteil: Offene Standard´s sind nicht Lizenzpflichtig, und es wird für uns Günstiger.

War so etwas auch nicht in DX11 integriert? Da müssten Nvidia doch langsam die Felle davonschwimmen. PhysX hat sich immernoch nicht durchgesetzt, jedes Quartal ein Titel (grob).

D.h. mittelfristig müssten sie PhysX für lau lizenzieren lassen, um gegen den offenen Standard anzukommen. D.h. das Problem für ATI-User dürfte eher temporär sein.
 
War so etwas auch nicht in DX11 integriert? Da müssten Nvidia doch langsam die Felle davonschwimmen. PhysX hat sich immernoch nicht durchgesetzt, jedes Quartal ein Titel (grob).

D.h. mittelfristig müssten sie PhysX für lau lizenzieren lassen, um gegen den offenen Standard anzukommen. D.h. das Problem für ATI-User dürfte eher temporär sein.

Das sind zwei paar Schuhe... Mit DX11 Compute Shader und OpenCL wurde ein Grundstein gelegt, welchen alle GPUs ab dann können. Sprich es ist nicht mehr Cuda oder Stream notwendig um Anwendungen von der GPU berechnen zu lassen...

Aber was nach wie vor fehlt, ist die Physikengine bzw. die Bibliotheken. Und da gibt es aktuell nur eben PhysX, welche GPU Beschleunigt werden kann. Der Rest ist "nur" CPU Beschleunigt.
Auch ist Mircosofts DX Schnittstelle nicht dafür da, eine Physikengine bereit zu stellen oder zu liefern. Sondern es ist eben nur eine Schnittstelle, auf die andere Anwendungen zugreifen können.

NV müsste quasi PhysX auf OpenCL oder ComputeShader implementieren. Aber ich könnte wetten, wenn das irgendwann mal so kommen wird, das die NV Umsetzung um welten mehr optimiert ist, als die auf anderen GPUs ;)
 
Also wenn CPU Physx mal richtig genutzt werden würde kann NV GPU Physx mal getrost vergessen!!!

Das kann man schön im Mafia 2 Bench sehen wie er auf die CPU zugreift,
hab das hier mal aufgelistet: http://www.hardwareluxx.de/community/15110838-post654.html

PhysX hat sich immernoch nicht durchgesetzt, jedes Quartal ein Titel (grob).

Das ist der Punkt und ich will nicht wissen was NV dafür zahlt damit Titel wie Mafia 2 oder Badman (was ich persönlich nu nie gespielt habe)
mit PhysX veröffentlicht werden :d
 
Zuletzt bearbeitet:
Das kann man schön im Mafia 2 Bench sehen wie er auf die CPU zugreift,
hab das hier mal aufgelistet: http://www.hardwareluxx.de/community/15110838-post654.html
Jupp, es sieht so aus, als hätte man dort einfach mal das Multithreaded Flag nicht gesetzt ;)


Das ist der Punkt und ich will nicht wissen was NV dafür zahlt damit Titel wie Mafia 2 oder Badman (was ich persönlich nu nie gespielt habe)
mit PhysX veröffentlicht werden :d

Ich glaub das werden wir nie rausfinden... Aber ich denke auch, das NV da Geld gegeben hat schon allein wegen dem Logo, das machen die Spieleschmieden ja nicht aus Spaß ;)
 
Vor allem da man bei Mafia II während der Entwicklung nicht direkt die Begeisterung gehört hat: "Wir werden PhysX nutzen"
sondern das später etwas heimlich angekündigt wurde.
 
Und die wirkliche Verarsche bei Mafia II ist auch, das NV in einem Interview auf PCG angekündigt hat, das Mafia II Multithreaded PhysX nutzen würden ;)

Scheinbar haben die dann nach einigen Tests intern festgestellt, oh backe, wenn wir das aktivieren, zieht ne schnöde MultiCore CPU unsere GPUs ab... -> keine gute Werbung, können wir nicht machen :fresse:
 
Also ich würde gerne mal Ein Richtiges Game Programmieren und das Ohne von einer Seite Gesponsort zu werden, Hat bei Halo1 ja auch geklappt .

Habe da ganz gute Ideen.

Aber ich glaube diese "nVidia-ATI-PhysX" Thread´s können mir langsam gestohlen bleiben, da es sinnloses aufwärmen von alten Tatsachen ist, und nur unnötig Serverlast erzeugt.
 
@Chezzard
Zwingt dich ja keiner dran teil zu nehmen. ;)

@fdsonne
Wenns ja nur das wäre mit dem Multithread, mein Post gelesen?
Es ist schon schade das bei CPU Berechnung so einige Effekte ausgelassen werden, wie Schacht von der Decke fallen und sowas....
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh