[Sammelthread] NVidia PhysX Performance/Bildqualitäts-Thread CPU/GPU

NVidia PhysX Performance/Bildqualitäts-Thread CPU/GPU


nvidia_physxpa5j.png


Hallo Leute,
da in den letzten Tagen vermehrt über Performancemessungen und Bildqualitätsvergleiche in PhysX Anwendungen diskutiert wurde, möchte ich an dieser Stelle eine Plattform schaffen, welche allen einen möglichen Überblick über die derzeitige PhysX Umsetzung seitens NVidia gibt.

Der Thread wird von Zeit zu Zeit mit neuen Ergebnissen gefüllt.


1. Fluidmark

Als erstes möchte ich anhand des Benchmarks Fluidmark Version 1.2.0 (Downloadlink) aufzeigen, was man von aktuellen CPUs/GPUs erwarten kann.
Natürlich könnt ihr hier auch mit euren mit Sicherheit teilweise besseren Systemen Werte posten, welche ich dann auch gerne im Startpost übernehmen werde.

Fluidmark ist ein Tool, welches mithilfe des PhysX SDKs erstellt wurde. Es nutzt in der aktuellen Version 1.2.0 volle Multicore/Multi CPU Funktionalitäten. Es ist in der Lage, die Berechnungen auf aktuellen (seit dem G80) NVidia GPUs auszulagern.
Dies lässt einen sehr schönen Vergleich zwischen CPU und GPU Leistung zu.

fuildmark_demo2bt7.jpg

Fluidmark Version 1.2.0 Beispielbild​

In Fluidmark wird die Auslastung mehrerer CPU Kerne dadurch erreicht, indem man mehrere Quellen (sogenante Ermitters) für die Partikel im Bild verwendet. Soll die Berechnung in einem Thread ablaufen, so verwendet man eine Quelle. Soll sie in zweien ablaufen, so eben zwei usw.
Aktuell kann man bis zu 31 Quellen im Bild platzieren und hat somit Support für maximal 31 Threads. Selbst für aktuelle Dual Hexacore Systeme (Intel Nehalem EP) oder aktuelle AMD Dual 12 Kern Systeme steht also nix im Wege...


Ich habe auf meiner Workstation also ein paar Test laufen lassen...
Zunächst einmal die Hardware/Software:
CPUs: 2x Intel (Woodcrest) Xeon 5160 @ 3,33GHz
RAM: 10240MB DDR2-667 FBDimm
GFX: PoV NVidia Geforce 465GTX @ 470GTX @ 750/1500/1600MHz
OS: Windows Vista Business SP2 x64
Treiber: Forceware 258.96 + PhysX 9.10.0513

1.1 Fluidmark Einstellungen:

Also ich habe mal verschiedene Konstellationen durchgetestet. Alle Tests liefen mit folgenden Settings:

fuildmark_settings2heq.jpg

Fluidmark Einstellungen (nicht über den Screen wundern, der ist mit einem anderen PC geschossen)

- 1680x1050, 0xMSAA
- Fullsreen
- enable Multi-core PhysX
- disable Async mode
- benchmarking
- Time-based = 60000ms
- use particle count = 10000-120000
- # of ermitters = 1-31
- enable Force PhysX CPU (or disable for use GPU)


1.2 Messwerte und Erklärung:

fluidmark_1.2.0_physx_xfog.jpg

Messwerte - Spalten=Partikel, Zeilen=Berechnungsart​


Man erkennt sehr schön die 1A Skallierung bei steigender Anzahl der CPU Kerne. Mein System hat zwei physische CPUs mit jeweils zwei CPU Kernen. Normal müsste die Skallierung größer 4 Ermitters stark wegbrechen. Trotzdem skalliert das ganze mit steigender Anzahl der Ermitters weiter. Zwischen 4 und 31 liegen grob 40% Performancezuwachs. Die CPU Auslastung lag bei den CPU Tests idR bei 99-100% (außer eben bei den Tests mit weniger als 4 Ermitters)
Die Messwerte für einen CPU Ermitter sinken ab einem bestimmten Punkt nicht mehr. Das liegt daran, das eben ein Ermitter nicht ausreicht um die ganzen Partikel ins Bild zu bringen. So sind die Ergebnisse immer gleichbleibend. Aus Vergleichsgründen habe ich bei diesen Werten eine "0" vergeben, um die Vergleichbarkeit zu wahren, denn im Bench musste die CPU bei einem Ermitter ab 70000 Partikeln nur noch ~65000 berechnen...

Die GPU Werte sind ebenso unten angehängt.
Man erkennt sehr schön, das die GPU weniger stark einbricht, als es die CPU tut. Dennoch sinken die FPS Raten größer 110000 Partikeln unter die 25er Marke.
Mit dem letzten Punkte hatte ich versucht eine 460GTX zu simulieren. Da eine 470GTX in Schnitt ohne AA/AF in etwa 25% schneller rendert als eine 460GTX, habe ich die Taktraten für GPU und Shader im selben Verhältniss (ca. 25%) abgesenkt. Zu meinem Erstaunen musste ich feststellen, das aber die Messwerte weit weniger gesunken sind. Es scheint also so, das PhysX bzw. speziell Fluidmark deutlich mehr auf mehr Ausführungseinheiten reagiert als auf Takt derselben... Aus diesem Grund habe ich die Messwerte mit den Standard 470GTX Taktraten gleich weggelassen und nur OC vs. simulierte 460GTX getestet. Die echte 470GTX liegt so ziemlich genau zwischen den Messwerten, was ich Stichprobenartig ausgetestet hab.

Zum Schluss noch das ganze in einem Diagramm zusammengefasst:

fluidmark_1.2.0_physx_ug49.jpg

Diagramm​

1.3 Fazit Fluidmark:

Wie man anhand der Messwerte sehen kann skallieren selbst betagtere PC Systeme (mein Testsystem ist von Jan. 2007) sehr gut mit PhysX. Im Vergleich zum CPU Test gewinnt die aktuelle HighEnd GPU ca. um das 2,5 fache. Leider sind diese Werte bei weitem nicht beeindruckend in meinen Augen. Denn wenn man bedenkt, aktuelle HighEnd NVidia GPUs können bis über 1000GFlop/s liefern. CPUs schaffen da nur einen Bruchteil im Bereich 50GFlop/s. Es bleibt unterm Strich also eine extrem ineffiziente Umsetzung seitens NVidia für die GPU.
Aber, man muss ebenso erwähnen, die Werte stützen sich einzig und allein auf einen Benchmark. Im Moment fehlt es aber an weiteren Aussagekräftigen und vor allem Vergleichbaren Benchmarks um mehr Messwerte zu erziehlen.



2. BQ Vergleich Mafia II Benchmark:

Zuguter letzt in diesem Thread möchte ich noch ein kleines Vergleichsvideo vorstellen. Ich habe Mafia II einmal im CPU Modus und einmal im GPU Modus gebencht. Die Leistung soll hier in erster Linie erstmal im Hintergrund stehen. Sondern es geht einzig und allein um die Vergleichbarkeit dieser beiden Messungen.
Man erkennt sehr schön, das beide Messungen etwas unterschiedlich sind... Aber bildet euch selbst eine Meinung ;)

YouTube - Mafia_II_PhysX_Vergleich_CPU/GPU

Am besten ihr schauts in 720p an, sonst leidet die Qualität leider ein wenig ;)



letztens - Allgemeiner Hinweis

Dies ist ein Sammelthread für NVidias PhysX und dessen Umsetzung, das heißt, es darf und soll hier über die Software und auch über die Umsetzung diskutiert werden.

Was allerdings nicht hier rein gehört:
- Offtopic Beiträge (beispielsweise eine Technikdiskussion über die Architektur des RV770 a la HD 48x0), Gespamme oder "Privatkriege -> NV vs. ATi".
- Sinn und Unsinnigkeitsmeldungen über PhysX

Es ist nur im Interesse des Forums, dass es hier gesittet abläuft.

Bei Postings, die zu sehr OT sind oder etwa nur reine Provokation, am Besten gar nicht darauf eingehen, sondern durch Benutzen des "Beitrag melden-Buttons" (
report.gif
) die Moderatoren/-innen die Angelenheit regeln lassen.

Sollte es zu mehrmaligem Verstoß gegen die Regeln kommen, so können auffällige User eine Auszeit von diesem Thread erhalten.


In diesem Sinne...
fdsonne :wink:
 
Interessanter wäre vieleicht wenn man von der auflösung in richtung fullHD geht mit sehr hohen bildqualitäts einstellungen (8xAA) so wie man das auch in einem game machen würde um zu sehen was da dann von der PhysX leistung über bleibt!!
Würde mich echt interessieren wie es dann so mit den fps aussieht oder besser wie viele Partikel dann nun von der GPU noch gepackt werden bei einer flüssigen darstellung von ca. 60FPS!!
Frage ist nur ob der benchmark die optik bieten kann so das die aktuellen GTX4xx karten durch die grafik gebremst werden können!

Gruß Andi

Edit: Mein Phenom X4 965@4,16Ghz @ 30000 partikel bei 31 emitter macht locker 60FPS die auflösung beeinflusst das ganze dabei nicht! Habe es bis 2048x1536 8xAA getestet! Meine HD5970 @ 1Ghz ist wohl dafür zu stark!
Allerdings kann man mit dem gleizeitigem laufen lassen von Furmark ein GPU limit hervorrufen!
 
Zuletzt bearbeitet:
FullHD kann ich leider nicht bieten... ;) das macht der Monitor nicht mit. Und die MSAA Einstellungen werden irgendwie nicht übernommen. Sieht man dann im Benchscreen sehr schön, das dort nach wie vor 0xMSAA steht...

Schlussendlich ist das aber in meinen Augen auch recht egal, denn die Games bieten so viele Verschiedenen Lastszenarien, das man das mit so einem "einfachen" Bench gar nicht nachstellen könnte...

Ich finde es auch sehr viel interessanter zu sehen, was passiert wenn der GPU volle Ressourcen für PhysX zur Verfügung stehen... Und wie man beeindruckender weise sieht, ist der Vorsprung vom hochgelobten GPU PhysX bei weitem nicht so hoch, wie man überall prädigt.
Für mich ein ganz klares Indiz warum man hier künstlich PhysX auf der CPU für bestimmte Anwendungen in nur einem Thread auflaufen lässt, einfach weil sonst kein Mehrwert bei den GPUs über bleiben würde...

Unterm Strich muss man aber erwähnen, das ganze stützt sich allein auf einen einzigen Bench. 100% Aussagekraft hat das also nicht... Aber es gibt schon gut die Richtung vor.

Mal schauen, vllt kann ich noch paar Werte mit nem 8 oder 12 Core Nehalem EP System auftreiben. Ich glaub dann kann die GPU einpacken ;)
 
Naja, in dem Bench mag die Cpu recht nahe an die Gpu zu kommen, aber wie siehts denn aus, wenn die cpu parallel noch andere Dinge berechnen muss? Also so wie das während des Gamens der fall ist.
Das würde mich echt mal interessieren, vielleicht kann man das irgendwie simulieren?


Sent from my iPhone using Hardwareluxx
 
Naja, in dem Bench mag die Cpu recht nahe an die Gpu zu kommen, aber wie siehts denn aus, wenn die cpu parallel noch andere Dinge berechnen muss? Also so wie das während des Gamens der fall ist.
Das würde mich echt mal interessieren, vielleicht kann man das irgendwie simulieren?


Sent from my iPhone using Hardwareluxx

Aber in dem fall müsste man auch bedenken dass die GPU auch noch das Spiel mitberechnen muss wenn man keine extra Physx Gpu hat was meistens der Fall ist. Und die GPU wird auch stärker ausgelastet bei Spiele als die CPU im Normalfall.
 
Naja, in dem Bench mag die Cpu recht nahe an die Gpu zu kommen, aber wie siehts denn aus, wenn die cpu parallel noch andere Dinge berechnen muss? Also so wie das während des Gamens der fall ist.
Das würde mich echt mal interessieren, vielleicht kann man das irgendwie simulieren?


Sent from my iPhone using Hardwareluxx

Das ist ja genau der Knackpunkt, man schaue sich die CPU Auslastung aktueller Games an, selbst bei dehnen, wo PhysX (egal ob per CPU oder per GPU) genutzt wird. Man wird feststellen, wenn da im Schnitt ein Kern bis vllt auch zwei Kerne ausgelastet sind, so ist das Viel. Nutzer einer aktuellen Hexacore CPU oder einens großen/schnellen Quads haben da noch massiv viel Luft nach oben. Es spricht also nix dagegen, die überflüssig brachliegende Leistung mit PhysX Effekten abzufordern. Da zwei oder mehr Kerne sowieso nix zu tun haben.

Ebenso sollte man bedenken, das idR die GPU ebenso nahezu Volllast läuft, sofern das Spiel mit halbwegs aktueller Optik kommt.

Siehe dazu auch Mafia II, man nehme eine NV GPU der Fermi Reihe, und starte das Spiel ohne PhysX. GPU Auslastung im Schnitt weit über 90%. Schaltet man PhysX zu (egal ob CPU/GPU) sinkt nicht nur die FPS Rate massiv, sondern auch die GPU Auslastung. PhysX bremst hier also extremst ein.
 
Achsoo, ich dachte immer die Grakas hätten einen eiges dafür gemachten teil auf der GPU. So kommts natürlich aufs gleiche.

Sorry!


Sent from my iPhone using Hardwareluxx
 
Nein, das geht über die selben Shadereinheiten die auch für die 3D Berechnung herhalten müssen. Und genau hier liegt in meinen Augen der große Schwachpunkt der GPU Umsetzung aktuell. Denn nur die größten HighEnd GPUs bieten hier auch nur ansatzweise etwas Luft um überhaupt aufwendige PhysX Berechnungen nebenbei mit durchführen zu können...

und wenn man die von mir gemachten Messwerte vergleicht, scheint selbst eine total freie GPU in Sachen Effizienz deutlich hinter einer CPU zu hängen. Sprich der GPU Part ist alles andere als ordentlich optimiert ;)
 
@fdsonne
Ein lob an dich für die Mühe.
Also man sieht es zumindest in diesen Benchmark das PhysX nur künstlich gepusht wird. Ich bin seid Jahren ein NVidia nutzer weil es halt durch den NHancer recht praktisch war bei älteren Games bessere BQ zu erzwingen. Worauf ich hinaus will die ganzen Jahre war das mein erster Kaufgrund für NV und der 2te ich wollte keine künstlich herrabgesetze FPS wie bei Batman. Man wird ja gerade dazu gezwungen NV Produkte zu kaufen weil man wegen PhysX der Gefahr läuft weniger FPS mit ATI Karten zu haben. Jetzt kaufe ich mir noch die GTX460 weil sie Preislich einfach super ist aber mit der HD6000 reihe wird das anders aussehen.
Ein gutes Beispiel für umsetztung von änlicher Sofware ist halt BFBC2 mit Havok. Da funzt es super und die FPS gehen auch ned so dermassen in den Keller solange man ein Quad hat.

MfG Jaimewolf3060
 
meine offensichtlichsten physX-erlebnisse hatte ich mit metro2033.. da lässt sich ohne physx problemlos eine einstellige framerate provozieren (unter eyecandy versteht sich), die sich mit aktiven physX in den zweistelligen bereich hochverdoppelt. wohlgemerkt mit nur einer karte, also ohne didizierte physX-hardware.

dazu einfach mal physX im treiber auf CPU und einmal auf GPU stellen und testen und im spiel viel debris erzeugen..


(..)

mfg
tobi
 
Zuletzt bearbeitet:
@fdsonne
Ein lob an dich für die Mühe.
Also man sieht es zumindest in diesen Benchmark das PhysX nur künstlich gepusht wird.

Ja was heist künstlich gepusht...?
PhysX ansich ist eigentlich gar nicht mal verkehrt, der Unterbau ist solide und die Möglichkeiten sind enorm. Aber wo es aktuell scheitert ist die Umsetzung auf die GPU. Man wirbt zwar mit einem Feature, aber die Leistung einer aktuellen GPU, welche mindestens um den Faktor 10 schneller sein müsste als die CPU bei voller Auslastung verpufft am Ende leider fast gänzlich.

ich denke, wenn man seitens NV mehr Wettbewerb in dem Bereich feststellen würde, hätte man auch mehr Ressourcen dran gesetzt, PhysX auf die GPU zu optimieren. So läufts eher nach dem Motto, ja geht doch, was habt ihr denn. Niemand anderes kann da mithalten... (auch wenn die Umsetzung aktuell noch grotten lahm ist)



Man wird ja gerade dazu gezwungen NV Produkte zu kaufen weil man wegen PhysX der Gefahr läuft weniger FPS mit ATI Karten zu haben. Jetzt kaufe ich mir noch die GTX460 weil sie Preislich einfach super ist aber mit der HD6000 reihe wird das anders aussehen.
Ein gutes Beispiel für umsetztung von änlicher Sofware ist halt BFBC2 mit Havok. Da funzt es super und die FPS gehen auch ned so dermassen in den Keller solange man ein Quad hat.

MfG Jaimewolf3060

Jupp, aber es ist ja auch nicht nur die FPS Rate ausschlaggebend, sondern auch die Tatsache, das in einigen der PhysX per GPU Titel einfach mal ganze Szenen fehlen, siehe Metro...
Und das ist eigentlich verarsche am Kunden... unabhängig ob der nun ne NV Karte hat oder nicht. Denn nur die wenigsten haben wirklich derart viel Luft bei der GPU um PhysX voll zu fahren. Werden einem dann aber ganze Szenen gestrichen ist das irgendwie nicht die feine Englische Art.
 
Ich würde sagen PhysX ist vergleichbar mit EAX 5.0 welches auch einfach nicht genutzt wird und über kurz oder lang vom tisch ist!
Ich denke NV kann es eigentlich drehen wie sie wollen der kunde muss dafür zahlen wenn er physx sehen will und da ist der knackpunkt!!!
Havok wird sich meiner meinung nach durchsetzen da es ja immer mehr CPU kerne geben wird und ich denke das der Bulldozer oder der sandy bridge@ 4Ghz einer GTX480 schon arg dicht auf den pelz rücken wird was dann auch dazu führt das man bei Battlefield 3 mit Havok deutlich mehr Physik sehen wird als es PhysX auf einer high end NV karte kann vorallem wenn diese auch noch die Grafische darstellung berechnen muss!
 
Zuletzt bearbeitet:
Ebenso sollte man bedenken, das idR die GPU ebenso nahezu Volllast läuft, sofern das Spiel mit halbwegs aktueller Optik kommt.

Siehe dazu auch Mafia II, man nehme eine NV GPU der Fermi Reihe, und starte das Spiel ohne PhysX. GPU Auslastung im Schnitt weit über 90%. Schaltet man PhysX zu (egal ob CPU/GPU) sinkt nicht nur die FPS Rate massiv, sondern auch die GPU Auslastung. PhysX bremst hier also extremst ein.

Ja das stimmt natürlich, hast vollkommen recht!
Wäre schon gut wenn PhysX für die Cpu ordentlich programmiert werden würde und alle User(egal welche GaKa) was davon hätten, denn sind wir mal ehrlich, PhysX (oder besser gesagt die Idee) ist das absolut geillste was es gibt. Ich persönlich hoffe das der Standard mal geöffnet(für Ati z.B.) und ordentlich optimiert wird. Schade nur das es im Moment sowenige Games gibt die auf physX setzen. Und wenn sie es dann doch tun, warum müssen sie so übertreiben und es (zu)-unrealisistisch machen wie man es zur Zeit in diversen Mafia_2 Videos sieht?


PhysX ansich ist eigentlich gar nicht mal verkehrt, der Unterbau ist solide und die Möglichkeiten sind enorm. Aber wo es aktuell scheitert ist die Umsetzung auf die GPU. Man wirbt zwar mit einem Feature, aber die Leistung einer aktuellen GPU, welche mindestens um den Faktor 10 schneller sein müsste als die CPU bei voller Auslastung verpufft am Ende leider fast gänzlich.

Ich denke aber doch das die Taktraten ordentlich was ausmachen. Stell dir mal vor du könntest die Shader mit 3.3Ghz laufen lassen, ich kann mir gut vorstellen das da noch einiges mehr gehen würde. Aber stimmt, angesichts der Rohleistung einer GraKa ist das Ergebnis schon ziemlich erbärmlich.
 
Zuletzt bearbeitet:
Ich würde sagen PhysX ist vergleichbar mit EAX 5.0 welches auch einfach nicht genutzt wird und über kurz oder lang vom tisch ist!

schonmal von den vorteilen von physX profitiert? nicht so? schade.. aber mitquatschen... *gg*

EAX ist ein altbackener aufsatz auf bestehenden mehrkanalton. physX beschleunigt spiele und verbessert in kritischen stellen die min-frames. sehr viel zuträglicher für ein flüssiges spielen, als EAX.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Klasse Thema , hatte mir seit dem Kauf meiner 465 auch so meine Gedanken gemacht , gerade da ich Metro 2033 Aktuell mit 3D-Vision spiele und die Karte bei 1600x900 Hoffnungslos Überfordert ist . Habe Mittlerweile dann Physix auf die CPU festgelegt und ich Denke jetzt das das dann auch der Beste Schritt war . Thx , MfG
 
ich linke diesen Thread mal eben rein, und stelle hier gleich mal die Frage?



Lohnt ab einer GTX460 noch das zustecken einer kleinen Karte für Physx ?

Man sieht die Antwort schon hier. Man sieht sehr schön dass erst mit eine GTX 460 als Zusatzkarte Mafia 2 mit Physx auf high gut läuft. Die GTX 460 alleine schafft es auf jeden fall nicht wirklich alleine.
 
physX beschleunigt spiele und verbessert in kritischen stellen die min-frames.

Bin nur ich der Meinung, dass dieser Satz ein völliger Griff ins Klo ist ?
Ich hatte schon wieder Hoffnung, dass es mal zu einer gescheiten Diskussion hier kommt. Aber neeee, es muss ja wieder jemand kommen und irgendwelchen Stuss erzählen.
 
Zuletzt bearbeitet:
Bin nur ich der Meinung, dass dieser Satz ein völliger Griff ins Klo ist ?
Ich hatte schon wieder Hoffnung, dass es mal zu einer gescheiten Diskussion hier kommt. Aber neeee, es muss ja wieder jemand kommen und irgendwelchen Stuss erzählen.

Ich denke das dein Post, sehr unüberlegt ist weil es eben so ist.
 
schonmal von den vorteilen von physX profitiert? nicht so? schade.. aber mitquatschen... *gg*

EAX ist ein altbackener aufsatz auf bestehenden mehrkanalton. physX beschleunigt spiele und verbessert in kritischen stellen die min-frames. sehr viel zuträglicher für ein flüssiges spielen, als EAX.


(..)

mfg
tobi

Ich bin sehr wohl in den genuss von Physx gekommen da ich extra ein GT240 mit 1024MB verbaut hatte und damit auch erfolgreich physx gefahren habe! Nur das was da einem geboten wird ist in keinster weise gerechtfertigt!
EAX 5.0 bietet im übriegen ein sounderlebnis welches ohne EAX einfach müll wahr!! Aber mittlerweile implementieren die spielentwickler ihren eigenen Raumklang ohne dabei EAX zu nutzen welcher sich allerdings genauso gut anhört z.B. BFBC2 mit dem setting "Kriegsband"!!
Der vorteil ist dabei das dieses feature auf jeder soundkarte wieder gegeben wird und nicht nur auf einer X-FI läuft!!!
So und genau so ist das auch mit NV+Physx. PhysX rennt nur einigermaßen in verbindung von einer NV karte (wie EAX 5.0 nur auf einer X-FI rennt wobei hier einfach kein anderer die lizens für EAX 5 bekommen hat) und Havok rennt auf jedem rechner (Wie z.B. bei BFBC2 wo auch der Raumklang per Kriegsband quasi einen Sound wie EAX 5.0 darstellt)!!!!

Also bitte erst fragen bevor du einfach behauptest ich habe noch nie PhysX genossen ;-)

Nv könnte auch einfach sagen nö ihr bekommt alle keine lizens für Physx und es rennt nur in verbindung mit einer NV GPU und basta bei allen anderen geht einfach nix kapput aber dann wird niemand mehr PhysX ins spiel einbauen da z.B Havok jeder nutzen kann und nicht einen hersteller bevorzugt!


Ich denke das dein Post, sehr unüberlegt ist weil es eben so ist.

Naja kann man so oder so sehen weil wenn PhysX an ist gehen die FPS halt stark in den keller aber im vergleich zur berechnung auf der CPU steigen diese ja allerdings nur weil NV ja die CPUs nicht voll ausreizt!! Deshalb habt ihr beide eigentlich recht!


@ LD
Ich habe in nem test zu Mafia 2 gelesen das da die empfehlung bei PhysX zu einem GTX480 gespann geht weil nur eine GTX480 für PhysX die nötige power hat konstant spielbare FPS zu bieten bei der PhysX berechnung!
Allerdings finde ich es erbärmlich wenn man eine solch teuere karte nutzen soll um diese dann als Physx karte zu nutzen wärend die CPU das locker so machen würde da sie eh fast im idle ist!
 
Zuletzt bearbeitet:
Ich denke NV kann es eigentlich drehen wie sie wollen der kunde muss dafür zahlen wenn er physx sehen will und da ist der knackpunkt!!!
Havok wird sich meiner meinung nach durchsetzen da es ja immer mehr CPU kerne geben wird und ich denke das der Bulldozer oder der sandy bridge@ 4Ghz einer GTX480 schon arg dicht auf den pelz rücken wird was dann auch dazu führt das man bei Battlefield 3 mit Havok deutlich mehr Physik sehen wird als es PhysX auf einer high end NV karte kann vorallem wenn diese auch noch die Grafische darstellung berechnen muss!

Ne, das würd ich nicht sagen, Engines per Lizensierung anderen zur Verfügung zu stellen ist eigentlich heutzutage gang und gebe. Mal ganz davon ab, das eine Engine (beispielsweise für das Spiel ansich, also 3D) auch durch die Lizensnehmer wächst. Würde jede Spieleschmiede hier ihr eigenes Ding machen, wäre das wohl in meinen Augen schlechter als beispielsweise das, was aktuell Titel aufbauend auf großen public Engines ausmacht. Siehe beispielsweise die Source Engine... 1A Teil, optimiert bis zum geht nicht mehr usw.

PhysX ansich ist auch sowas, ob da nun Lizenzgebühren fällig werden oder nicht, spielt dabei auch keine Rolle. Mit Lizenzgebühren hat NV auf jedenfall noch die Möglichkeit diese Engine/Bibliothekenansammlung weiter auszubauen und zu verbessern. Und genau das tun sie.

Wie gesagt, der Knackpunkt liegt in der aktuellen GPU Umsetzung. PhysX per CPU (wie es in 99% alle PhysX Games zum Einsatz kommt) ist eigentlich so viel anders als Havok und Co. nicht. Auch nicht von der Performance usw.

Und wie man sieht, würde man PhysX seitens NV bzw. der Spieleschmieden auch für Multicore Systeme freigeben, gehts nochmal deutlich nach oben mit der Performance (aber auch fehlt dann wohl das Kaufargument für ne NV GPU ;))

Ja das stimmt natürlich, hast vollkommen recht!
Wäre schon gut wenn PhysX für die Cpu ordentlich programmiert werden würde und alle User(egal welche GaKa) was davon hätten, denn sind wir mal ehrlich, PhysX (oder besser gesagt die Idee) ist das absolut geillste was es gibt. Ich persönlich hoffe das der Standard mal geöffnet(für Ati z.B.) und ordentlich optimiert wird.

PhysX ist ordentlich auf die CPU zugeschnitten. Einzig das setzen des Multicore Flags ist eben derzeit nicht gemacht. PhysX kann von Haus aus 1A mit Mehrkernsystemen umgehen. Das war schon vor der Übernahme seitens NV von Ageia so... Nur eben, man wird wohl bei NV ebenso festgestellt haben, das die aktuelle GPU Umsetzung noch bisschen lahmt. Sprich würden sie das ganze freischalten auf Multicore Systeme, so fällt das "kauf ne NV GPU" Argument gänzlich weg...

Ich denke aber doch das die Taktraten ordentlich was ausmachen. Stell dir mal vor du könntest die Shader mit 3.3Ghz laufen lassen, ich kann mir gut vorstellen das da noch einiges mehr gehen würde. Aber stimmt, angesichts der Rohleistung einer GraKa ist das Ergebnis schon ziemlich erbärmlich.

Zumindest im Fluidmark fallen die Taktraten sehr wenig ins Gewicht. Weit weniger, als aktuelle NV GPUs mit dem Takt bei der 3D Berechnung skallieren. Siehe dazu Bench oben.
Ich denke das lässt sich fast 1:1 auf alle PhysX Anwendungen übertragen.
Man sollte auch nicht vergessen, das eben eine GPU deutlich mehr Auführungseinheiten hat als eine aktuelle CPU. Sprich deutlich mehr Sachen gleichzeitig berechnen kann. Und da PhysX quasi 1:1 mit den Ausführungseinheiten skalliert, verstehe ich auch nicht so ganz, warum hier die GPU Umsetzung etwas lahmt...

physX beschleunigt spiele und verbessert in kritischen stellen die min-frames. sehr viel zuträglicher für ein flüssiges spielen, als EAX.


(..)

mfg
tobi

Ähm ich will ja nix sagen, aber ich denke mal du meinst das anders als du es geschrieben hast...
PhysX ansich kann gar nicht das Spiel beschleunigen. Allenfalls kann es mehr Effekte hinzubringen, aber nie das Spiel beschleunigen... Da eben mehr Effekte für die Karte (nicht nur in der 3D Umsetzung) berechnet werden müssen, kann das ganze nur langsamer werden.
Zum Thema min. FPS, wenn man sich aktuelle Games anschaut, dann scheinen die min FPS auch deutlich niedriger zu sein, sobald PhysX angeschaltet wird...

Bin nur ich der Meinung, dass dieser Satz ein völliger Griff ins Klo ist ?
Ich hatte schon wieder Hoffnung, dass es mal zu einer gescheiten Diskussion hier kommt. Aber neeee, es muss ja wieder jemand kommen und irgendwelchen Stuss erzählen.

Ich denke eher, er wollte was anderes damit ausdrücken, siehe ein Kommentar über dir ;) Denn so stimmts defintiv nicht.


@SoftwareFuxx
ruhig Blut bei die Fische... Klärt sowas bitte per PN, hier hat eine derartige Anfeindung nix verloren...

Nv könnte auch einfach sagen nö ihr bekommt alle keine lizens für Physx und es rennt nur in verbindung mit einer NV GPU und basta bei allen anderen geht einfach nix kapput aber dann wird niemand mehr PhysX ins spiel einbauen da z.B Havok jeder nutzen kann!

Bitte ganz klar die Unterscheidung wahren zwischen GPU PhysX und CPU PhysX...
Auf CPU Basis gibt es eine ganze Menge Spiele die dies aktuell (und auch in der Vergangenheit) nutzten.

Und genau diese CPU basierte Lösung läuft uneingeschränkt auf allen PCs, ebenso wie wohl auf den Konsolen. Eine NV GPU als Hauptkarte oder kleine NV GPU als Zweitkarte bringt absolut keine Vorteile.

Aber der GPU Part von PhysX ist da etwas anders, da eben genau dieser an NV Hardware gebunden ist.
Man kann es aber NV auch nicht verübeln, das nur auf ihren Karten bzw. nur anderen per Lizenz zur Verfügung zu stellen. Für eine breite Marktdurchdringung (also das was der Endkunde eigentlich will) ist diese Politik zumindest beim GPU Part aber nicht förderlich.

Unterm Strich kann man sagen, PhysX (GPU) und PhysX (CPU) sind zwei paar Schuhe und werden auch anders vermarktet. Man sollte also ganz klar dazwischen unterscheiden...
 
Zuletzt bearbeitet:
Wie gesagt, der Knackpunkt liegt in der aktuellen GPU Umsetzung. PhysX per CPU (wie es in 99% alle PhysX Games zum Einsatz kommt) ist eigentlich so viel anders als Havok und Co. nicht. Auch nicht von der Performance usw.

Und wie man sieht, würde man PhysX seitens NV bzw. der Spieleschmieden auch für Multicore Systeme freigeben, gehts nochmal deutlich nach oben mit der Performance (aber auch fehlt dann wohl das Kaufargument für ne NV GPU ;))



PhysX ist ordentlich auf die CPU zugeschnitten. Einzig das setzen des Multicore Flags ist eben derzeit nicht gemacht. PhysX kann von Haus aus 1A mit Mehrkernsystemen umgehen. Das war schon vor der Übernahme seitens NV von Ageia so... Nur eben, man wird wohl bei NV ebenso festgestellt haben, das die aktuelle GPU Umsetzung noch bisschen lahmt. Sprich würden sie das ganze freischalten auf Multicore Systeme, so fällt das "kauf ne NV GPU" Argument gänzlich weg...

Ja das meine ich doch auch das NV durch PhysX ihre karten vermarkten will und deshalb die CPU nicht voll arbeiten lässt da sonst die GPU nicht mehr so gut da steht wie gewollt und wenn es 8kerner mit 16threads gibt wird es wohl so kommen das Havok davon fährt da man da mehr sehen wird weil PhysX seitens NV gebremst wird!
DIe GTX480 wird ca 4x schneller als mein Phenom2 X4 sein was die Physik berechnung angeht wenn sie nix anderes macht und der bulldozer wird sicherlich gut 4x schneller sein als meine CPU da er etwas effizienter sein wird und auch 4x so viele threads abarbeiten kann deshalb meine ich das man über kurz oder lang mit havok davon fahren wird oder kann!

EDIT: Ich hätte kein problem eine extra Physik karte zu kaufen wenn die Games dadurch enorm mehr details zeigen würden und die CPUs absolut nicht in der lage wären so etwas zu berechnen aber dann sollte das gesehene auch wirklich einen WOW effekt haben nur zur zeit siehts ja echt mau aus was dabei rum kommt deshalb ist die GT240 für PhysX auch nicht mehr drin ;)
 
Zuletzt bearbeitet:
Dann bau sie mal wieder schnell ein :-)
zb. in Mass2, JC2 rennt die auch mit..und vorallem geht es ja nicht nur ums darzustellen von PhysX sondern um Unterstützung und Entlastung der "dicken" wenn du solche Berechnungen egal was für eine zb. Cuda<>JC2 :-) etc.pp. auf die kleine abwälzen kannst und die schafft das locker, da kannste der Dicken zb. mehr AA geben oder die kackt nicht mehr so ab, usw.
Mal etwas von dem "nur" PhysX Denken weggehen.....
 
Ähm ich will ja nix sagen, aber ich denke mal du meinst das anders als du es geschrieben hast...
PhysX ansich kann gar nicht das Spiel beschleunigen. Allenfalls kann es mehr Effekte hinzubringen, aber nie das Spiel beschleunigen... Da eben mehr Effekte für die Karte (nicht nur in der 3D Umsetzung) berechnet werden müssen, kann das ganze nur langsamer werden.

ich habe es getestet, als ich metro2033 und die GTX460 grad neu auf dem schreibtisch liegen hatte. spiel in 720p aufm projektor mit max-details + 4xMSAA. mit per forceware erzwungener CPU-physik in extremsituationen 9-10fps (frapsmessung). mit aktivem physX per GPU verdopplung auf 20-22fps.

dieses spiel spiele ich nie wieder ohne physX.

was synthetische messungen ausspucken finde ich unerheblich. AFAIR verdreifacht sich der CPU-wert im schnullermark vantage durch das aktivieren von physX.

das ist ähnlich wie die AVC-HD-beschleunigung über CUDA. der eine braucht es nicht, weil das system stark genug ist oder weil er kein geld für coreAVC ausgeben möchte; der andere empfindet die verlagerung von CPU auf GPU als segen.. etwa ich bei meinem notebook oder auch am desktop mit massiv CPU-lastigen avisynth-scripten, die nie genug CPU-luft haben können.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
ich habe es getestet, als ich metro2033 und die GTX460 grad neu auf dem schreibtisch liegen hatte. spiel in 720p aufm projektor mit max-details + 4xMSAA. mit per forceware erzwungener CPU-physik in extremsituationen 9-10fps (frapsmessung). mit aktivem physX per GPU verdopplung auf 20-22fps.

dieses spiel spiele ich nie wieder ohne physX.

Damit bestätigst du direkt das was ich oben vermutet habe, denn du willst was anderes ausdrücken als du oben geschrieben hast.
Hier in dem diesem Vergleichst sprichst du von PhysX per CPU vs. PhysX per GPU. PhysX ansich ist bei beiden Messungen aber aktiv.

Zu deinem oben genannten Argument, nämlich PhysX würde Spiele beschleunigen passt eigentlich nur ein Vergleich zwischen PhysX on (egal ob nun CPU oder GPU) vs. PhysX off.
Und genau an dem Punkt kann PhysX ein Game nicht beschleunigen, eben weil mehr Berechnungen hinzukommen, es kann also nur langsamer werden...

Und das die CPU Umsetzung langsamer ist als die GPU Umsetzung ist nicht zuletzt dem fehlenden Multicore Feature gewittmet. Ich will gar nicht wissen, wie die Performance dann für den CPU Test ausgesehen hätte... Gemessen an der Tatsache, das aktuelle Quadcores in den Games wenn überhaupt nur halb ausgelastet sind, dürfte sich im allermindestens die FPS Rate wohl verdoppeln bei vollem Multicore Support.

Im übrigen würde ich 20-22FPS durchaus als nicht wirklich flüssig ansehen ;) Super gut läuft also auch das nicht... Man kann also sagen, die GPU ist maßlos überfordert...


Zumal wie oben schon erwähnt, man hat bei aktuellem Einsatz per CPU in allen Games den Multicore Support abgeschalten. PhysX von Haus aus kann das aber, und das schon lange vor NV das gekauft hat.
 
Im übrigen würde ich 20-22FPS durchaus als nicht wirklich flüssig ansehen ;) Super gut läuft also auch das nicht... Man kann also sagen, die GPU ist maßlos überfordert...

mit framedrops auf 20fps lässt sich so ein titel aber wunderbar spielen. mit drops auf 10fps wird es unspielbar rucklig. auch wenn es nur 1-2 sekunden betrifft, sind das die drops, die man als nervig wahrnimmt.

die mittlere framerate liegt ja ungleich höher.

dass CPU-physX nicht multicore geflaggt ist, muss nicht mal an nvidia liegen. hier sind die spielentwickler gefragt, ihre physik-effekte auf mehrere threads zu verteilen. dass NVs physX-compiler auf die eigenen GPUs ausgelegt ist, würde ich denen jetzt jedenfalls nicht ankreiden.

für die spieler mit NV-hardware sollte das allerdings alles unerheblich sein, denn wenn eine einstellung im treiber die framedrops abfängt und auf höherem niveau stabilisiert, als es eine reine CPU-berechnung ermöglicht, profitiert man unmittelbar. klar ist es schön, wenn sich die situation noch ändert und verbessert, aber wer heute metro spielt fährt halt mit GPU-physik flüssiger.. und es kommt nunmal immer drauf an, was hinten rauskommt.

und wieder die analogie zu CUDA: wenn eine GPU-lösung eine wandlung schneller fertigstellt, als eine CPU-lösung, verwendet man erstere. denn man will ja fertigwerden. das heute im jetzt und hier gebotene nicht zu nutzen und das haar in der suppe zu suchen und auf evtl. nicht vorhandene optimierungen zu warten/spekulieren ist doch völliger blödsinn. entweder man nutzt es und spielt flüssiger/ rendert schneller.. oder man verzichtet drauf und ist weniger schnell unterwegs..

mir ist klar, dass viele technikverliebte, die hier unterwegs sind, diverse funktionen gar nicht brauchen (können) und sich dann an der technik aufhängen, aber es gibt halt auch die anwender, die gebotene möglichkeiten einfach nutzen und sich dran erfreuen, dass es so funktioniert, wie es ist.

heute kann mein leistungsbegrenztes multimedia-notebook auf DXVA in ffdshow zurückgreifen, um AVC-HD zu beschleunigen. heute ist aber 2010. gekauft habe ich das book allerdings schon 2008 und damals war coreAVC mit CUDA-beschleunigung die einzige probate lösung für AVC-HD. damals hätte ich also gegen CUDA wettern können, weil es ja eine proprietäre lösung ist und ich lieber was einheitliches gehabt hätte.. nur hätte ich mir dann die letzten 2 jahre AVC-HD von der backe putzen müssen. :-) was ist also in der realen nutzung sinnvoller? richtig, gebotenes zu nutzen, um einen vorteil daraus zu ziehen.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Dass physx nicht gut auf CPUs läuft liegt sehr wohl an nVidia, da ja nicht mal SSE unterstützt wird und auf der CPU x87 Befehle genutzt werden.
Auf Konsolen wird dagegen die CPU-Erweiterung genutzt.

h.264 Beschleunigung gibt es übrigens schon seit 2008 kostenlos mit dem MPC-HC (je nachdem welche Grafikkarte in deinem NB steckt).
 
[OT]
ist mir bekannt, aber drittanbieter-player interessieren mich nicht sonderlich. das ist nicht meine baustelle. auf sowas greife ich bestenfalls zurück, wenn ich am schreibtisch sitze und in file mal schnell per doppelklick hineinschauen will.

hauptsächlich verwende ich vom sofa aus das windows media center. das notebook habe ich mir seinerzeit z.b. von dem autoren-honorar gekauft, das mir c't (heise) für meinen ersten publizierten media-center-praxis-artikel gezahlt hat.
[/OT]


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh