[Sammelthread] NVidia PhysX Performance/Bildqualitäts-Thread CPU/GPU

NVidia PhysX Performance/Bildqualitäts-Thread CPU/GPU


nvidia_physxpa5j.png


Hallo Leute,
da in den letzten Tagen vermehrt über Performancemessungen und Bildqualitätsvergleiche in PhysX Anwendungen diskutiert wurde, möchte ich an dieser Stelle eine Plattform schaffen, welche allen einen möglichen Überblick über die derzeitige PhysX Umsetzung seitens NVidia gibt.

Der Thread wird von Zeit zu Zeit mit neuen Ergebnissen gefüllt.


1. Fluidmark

Als erstes möchte ich anhand des Benchmarks Fluidmark Version 1.2.0 (Downloadlink) aufzeigen, was man von aktuellen CPUs/GPUs erwarten kann.
Natürlich könnt ihr hier auch mit euren mit Sicherheit teilweise besseren Systemen Werte posten, welche ich dann auch gerne im Startpost übernehmen werde.

Fluidmark ist ein Tool, welches mithilfe des PhysX SDKs erstellt wurde. Es nutzt in der aktuellen Version 1.2.0 volle Multicore/Multi CPU Funktionalitäten. Es ist in der Lage, die Berechnungen auf aktuellen (seit dem G80) NVidia GPUs auszulagern.
Dies lässt einen sehr schönen Vergleich zwischen CPU und GPU Leistung zu.

fuildmark_demo2bt7.jpg

Fluidmark Version 1.2.0 Beispielbild​

In Fluidmark wird die Auslastung mehrerer CPU Kerne dadurch erreicht, indem man mehrere Quellen (sogenante Ermitters) für die Partikel im Bild verwendet. Soll die Berechnung in einem Thread ablaufen, so verwendet man eine Quelle. Soll sie in zweien ablaufen, so eben zwei usw.
Aktuell kann man bis zu 31 Quellen im Bild platzieren und hat somit Support für maximal 31 Threads. Selbst für aktuelle Dual Hexacore Systeme (Intel Nehalem EP) oder aktuelle AMD Dual 12 Kern Systeme steht also nix im Wege...


Ich habe auf meiner Workstation also ein paar Test laufen lassen...
Zunächst einmal die Hardware/Software:
CPUs: 2x Intel (Woodcrest) Xeon 5160 @ 3,33GHz
RAM: 10240MB DDR2-667 FBDimm
GFX: PoV NVidia Geforce 465GTX @ 470GTX @ 750/1500/1600MHz
OS: Windows Vista Business SP2 x64
Treiber: Forceware 258.96 + PhysX 9.10.0513

1.1 Fluidmark Einstellungen:

Also ich habe mal verschiedene Konstellationen durchgetestet. Alle Tests liefen mit folgenden Settings:

fuildmark_settings2heq.jpg

Fluidmark Einstellungen (nicht über den Screen wundern, der ist mit einem anderen PC geschossen)

- 1680x1050, 0xMSAA
- Fullsreen
- enable Multi-core PhysX
- disable Async mode
- benchmarking
- Time-based = 60000ms
- use particle count = 10000-120000
- # of ermitters = 1-31
- enable Force PhysX CPU (or disable for use GPU)


1.2 Messwerte und Erklärung:

fluidmark_1.2.0_physx_xfog.jpg

Messwerte - Spalten=Partikel, Zeilen=Berechnungsart​


Man erkennt sehr schön die 1A Skallierung bei steigender Anzahl der CPU Kerne. Mein System hat zwei physische CPUs mit jeweils zwei CPU Kernen. Normal müsste die Skallierung größer 4 Ermitters stark wegbrechen. Trotzdem skalliert das ganze mit steigender Anzahl der Ermitters weiter. Zwischen 4 und 31 liegen grob 40% Performancezuwachs. Die CPU Auslastung lag bei den CPU Tests idR bei 99-100% (außer eben bei den Tests mit weniger als 4 Ermitters)
Die Messwerte für einen CPU Ermitter sinken ab einem bestimmten Punkt nicht mehr. Das liegt daran, das eben ein Ermitter nicht ausreicht um die ganzen Partikel ins Bild zu bringen. So sind die Ergebnisse immer gleichbleibend. Aus Vergleichsgründen habe ich bei diesen Werten eine "0" vergeben, um die Vergleichbarkeit zu wahren, denn im Bench musste die CPU bei einem Ermitter ab 70000 Partikeln nur noch ~65000 berechnen...

Die GPU Werte sind ebenso unten angehängt.
Man erkennt sehr schön, das die GPU weniger stark einbricht, als es die CPU tut. Dennoch sinken die FPS Raten größer 110000 Partikeln unter die 25er Marke.
Mit dem letzten Punkte hatte ich versucht eine 460GTX zu simulieren. Da eine 470GTX in Schnitt ohne AA/AF in etwa 25% schneller rendert als eine 460GTX, habe ich die Taktraten für GPU und Shader im selben Verhältniss (ca. 25%) abgesenkt. Zu meinem Erstaunen musste ich feststellen, das aber die Messwerte weit weniger gesunken sind. Es scheint also so, das PhysX bzw. speziell Fluidmark deutlich mehr auf mehr Ausführungseinheiten reagiert als auf Takt derselben... Aus diesem Grund habe ich die Messwerte mit den Standard 470GTX Taktraten gleich weggelassen und nur OC vs. simulierte 460GTX getestet. Die echte 470GTX liegt so ziemlich genau zwischen den Messwerten, was ich Stichprobenartig ausgetestet hab.

Zum Schluss noch das ganze in einem Diagramm zusammengefasst:

fluidmark_1.2.0_physx_ug49.jpg

Diagramm​

1.3 Fazit Fluidmark:

Wie man anhand der Messwerte sehen kann skallieren selbst betagtere PC Systeme (mein Testsystem ist von Jan. 2007) sehr gut mit PhysX. Im Vergleich zum CPU Test gewinnt die aktuelle HighEnd GPU ca. um das 2,5 fache. Leider sind diese Werte bei weitem nicht beeindruckend in meinen Augen. Denn wenn man bedenkt, aktuelle HighEnd NVidia GPUs können bis über 1000GFlop/s liefern. CPUs schaffen da nur einen Bruchteil im Bereich 50GFlop/s. Es bleibt unterm Strich also eine extrem ineffiziente Umsetzung seitens NVidia für die GPU.
Aber, man muss ebenso erwähnen, die Werte stützen sich einzig und allein auf einen Benchmark. Im Moment fehlt es aber an weiteren Aussagekräftigen und vor allem Vergleichbaren Benchmarks um mehr Messwerte zu erziehlen.



2. BQ Vergleich Mafia II Benchmark:

Zuguter letzt in diesem Thread möchte ich noch ein kleines Vergleichsvideo vorstellen. Ich habe Mafia II einmal im CPU Modus und einmal im GPU Modus gebencht. Die Leistung soll hier in erster Linie erstmal im Hintergrund stehen. Sondern es geht einzig und allein um die Vergleichbarkeit dieser beiden Messungen.
Man erkennt sehr schön, das beide Messungen etwas unterschiedlich sind... Aber bildet euch selbst eine Meinung ;)

YouTube - Mafia_II_PhysX_Vergleich_CPU/GPU

Am besten ihr schauts in 720p an, sonst leidet die Qualität leider ein wenig ;)



letztens - Allgemeiner Hinweis

Dies ist ein Sammelthread für NVidias PhysX und dessen Umsetzung, das heißt, es darf und soll hier über die Software und auch über die Umsetzung diskutiert werden.

Was allerdings nicht hier rein gehört:
- Offtopic Beiträge (beispielsweise eine Technikdiskussion über die Architektur des RV770 a la HD 48x0), Gespamme oder "Privatkriege -> NV vs. ATi".
- Sinn und Unsinnigkeitsmeldungen über PhysX

Es ist nur im Interesse des Forums, dass es hier gesittet abläuft.

Bei Postings, die zu sehr OT sind oder etwa nur reine Provokation, am Besten gar nicht darauf eingehen, sondern durch Benutzen des "Beitrag melden-Buttons" (
report.gif
) die Moderatoren/-innen die Angelenheit regeln lassen.

Sollte es zu mehrmaligem Verstoß gegen die Regeln kommen, so können auffällige User eine Auszeit von diesem Thread erhalten.


In diesem Sinne...
fdsonne :wink:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
dass CPU-physX nicht multicore geflaggt ist, muss nicht mal an nvidia liegen. hier sind die spielentwickler gefragt, ihre physik-effekte auf mehrere threads zu verteilen. dass NVs physX-compiler auf die eigenen GPUs ausgelegt ist, würde ich denen jetzt jedenfalls nicht ankreiden.

Letzteres will wohl auch niemand ankreiden, es sollte klar sein, das NV ihr Produkt so auslegen kann wie sie möchten. (zumal PhysX kein Compiler ist ;) sondern eine Engine bzw. Ansammlung von Bibliotheken)
Aber zum Multicore Support. Ich denke hier ist ganz klar NV der Ausschlaggebende Punkt. Denn man kann die Geschichte über ein einfaches setzen einer Einstellung voll Multicore Ready machen (und das geht bei PhysX eben von Haus aus, ohne da groß Sachen auf mehrere Threads auslegen zu müssen)
Die Spieleentwickler würden einen Teufel tun, sich an eine propritäre Lösung zu binden, einfach weil man eben mal schlappe 50% des Marktes links liegen lässt. Zählt man dann noch die Onboard Intel User hinzu (die zwar wenn überhaupt nur auf niedrigen Details zocken können, aber so wenigstens PhysX Effekte hätten) bleiben nur grob 30%...
Sowas macht kein Softwareentwickler, denn die Implementation von PhysX per GPU kostet Zeit und somit Geld, welche sie in keinster Form wieder reinbekommen...

für die spieler mit NV-hardware sollte das allerdings alles unerheblich sein, denn wenn eine einstellung im treiber die framedrops abfängt und auf höherem niveau stabilisiert, als es eine reine CPU-berechnung ermöglicht, profitiert man unmittelbar. klar ist es schön, wenn sich die situation noch ändert und verbessert, aber wer heute metro spielt fährt halt mit GPU-physik flüssiger.. und es kommt nunmal immer drauf an, was hinten rauskommt.
Bedenke, nicht jeder hat ne Fermi based NV GPU... Was sagen die Leute mit G92 oder G200 Chips, oder gar G80 Karten... Ne G80 GTX reicht für heutige Games mit teils hohen bis sehr hohen Details durchaus noch aus. Aber PhysX ist damit nicht drin. Bei den G200ern und G92ern ähnlich. Bei Karten aus dem Mittelklassebereich sieht es noch schlimmer aus...
PhysX als exklusiv Feature im HighEnd Bereich anzubieten ist zwar auch keine schlechte Idee, eben um mehr Details präsentieren zu können, aber ganz ehrlich, die paar Effekte haben wohl niemanden vom Hocker gehauen... (soll jetzt kein schlechtmachen sein ;)) Und gemessen an dem, was man an Performance verliert, ist hier ganz klar Optimierungsarbeit von nöten...

mir ist klar, dass viele technikverliebte, die hier unterwegs sind, diverse funktionen gar nicht brauchen (können) und sich dann an der technik aufhängen, aber es gibt halt auch die anwender, die gebotene möglichkeiten einfach nutzen und sich dran erfreuen, dass es so funktioniert, wie es ist.

Das ist durchaus richtig, für den Endkunden zählt das, was hinten rauskommt... Aber wie gesagt, man schaue sich mal im Otto normalo PC Markt um. Da haben die wenigsten irgendwelche richtig dicken NV GPUs im PC, sondern dort geht quasi nix über die Mittelklasse... Aber man muss doch nurmal durch den Blödmarkt laufen. Sogut wie jeder PC im Preisbereich 500-700€ wird mit nem Quadcore ausgeliefert.

Was wäre also die für den Endkunden praktikablere Lösung? Seine so schon idR limitierende Grafikkarte mit noch mehr Sachen überladen oder seine wenn überhaupt nur halb ausgelastete CPU voll auszunutzen...
Wie man anhand der Fluidmarkmessung sieht, erreicht meine GF100 GPU inkl. OC auf ca. 480GTX Niveau gerade mal die 2-3 Fache Leistung meines schon 3,5Jahre alten CPU Gespanns. (Das Teil ist vergleichbar mit nem QX6800 da selbe Architektur mit 3,33GHz - 370,5MHz FSB und 9er Multi)

Gemessen an der eigentlichen Mehrleistung der NV GPU müsste am Ende normalerweise auch deutlich mehr PhysX Leistung bei rumkommen... Aber diese scheint aktuell irgendwo im Nirvana zu verpuffen ;)
 
Zuletzt bearbeitet:
[OT]
ist mir bekannt, aber drittanbieter-player interessieren mich nicht sonderlich. das ist nicht meine baustelle. auf sowas greife ich bestenfalls zurück, wenn ich am schreibtisch sitze und in file mal schnell per doppelklick hineinschauen will.

hauptsächlich verwende ich vom sofa aus das windows media center. das notebook habe ich mir seinerzeit z.b. von dem autoren-honorar gekauft, das mir c't (heise) für meinen ersten publizierten media-center-praxis-artikel gezahlt hat.
[/OT]


(..)

mfg
tobi

ebenfalls OT:

man kann auch nur die standalone-Filter nutzen
 
mal ne frage, wenn ich mir das mal genau anschaue, und mit meinen erfahrungen damals ( Physx auf 9800GT/ Physx auf 9800GT+9800GT als Physx Karte/ Physx auf 9800GT SLI / Physx auf 9800GT SLI + 8400GT als Physx karte, kann es da sein, das der Treiber fehlerhaft ist, und die zusatzkarten einfach nicht voll mit eingebunden werden, bzw. der Hauptkarte nicht die komplette Physx berechnung abnehmen, und deshalb diese mauen ergebnisse bei zusatzkarten ?
 
mal ne frage, wenn ich mir das mal genau anschaue, und mit meinen erfahrungen damals ( Physx auf 9800GT/ Physx auf 9800GT+9800GT als Physx Karte/ Physx auf 9800GT SLI / Physx auf 9800GT SLI + 8400GT als Physx karte, kann es da sein, das der Treiber fehlerhaft ist, und die zusatzkarten einfach nicht voll mit eingebunden werden, bzw. der Hauptkarte nicht die komplette Physx berechnung abnehmen, und deshalb diese mauen ergebnisse bei zusatzkarten ?

Denke ich nicht...
Aber was heist maue Ergebnisse bei Zusatzkarten?

Die PhysX Leistung auf der NV GPU ist allgemein Mau ;) Ob nun auf der Zusatzkarte oder nicht. Die Frage ist halt immer, wie viel Leistung wird zwingend benötigt um überhaupt erstmal spielbare FPS Raten zu ermöglichen. Das scheint beispielsweise bei Mafia II deutlich mehr zus ein als bei sagen wir Metro oder Batman.
Auch schwören einige ja darauf, das im SLI Gespann (wo beide Karten sowohl 3D als auch PhysX berechnen müssen) die Leistung stark wegbrechen soll und eine dedizierte Karte hier von Vorteil wäre :-)wink: an scully)
Lässt sich aber so leider nicht beweisen aus mangel an vergleichbaren Kartengespannen zu Einzelkarten usw.

Aber mir ist aufgefallen, die PhysX Leistung skalliert recht schlecht mit dem Takt der Karte. Ich hab bei grob 35% Taktreduzierung gerade mal 8-20% Leistung verloren. Im Mittel eher im Bereich 10-15%. Auffallend ist auch, um so mehr Partikel berechnet werden müssen, desto weniger skalliert das ganze mit dem Takt. Obwohl das ganze normal eigentlich genau andersrum ausschauen müsste...
Bleibt unterm Strich also, es bringt wohl für PhysX per GPU mehr, eine dicke GPU mit weniger Takt als eine schlankere GPU mit viel Takt zu nehmen. Fermi wäre hier Ideal. Viele Ausführungseinheiten bei recht wenig Takt. Der G92 hingegen das genaue Gegenteil, recht wenig Ausführungseinheiten, dafür sehr viel mehr Takt...
 
Zuletzt bearbeitet:
eine 9800GT hatte sagen wir mal 100% leistung bei Physx, wenn ich dann 2x 9800GT (im SLI ) hatte waren es 150%, wenn ich aber 9800GT + 9800GT genommen hatte, also eine 9800GT nur für Physx waren es nur 120%.
 
Zuletzt bearbeitet:
SLI und PHy ging noch nie...bei SLI >SLI aus und ein Karte für PHy zuweisen sollte ja nicht so schwer sein bei den tausenden von Games :lol: übrigens hat das Cuda Wasser in JC2 damit nix zutun :-) das Halbwissen erschlägt mich mal wieder :-)
 
eine 9800GT hatte sagen wir mal 100% leistung bei Physx, wenn ich dann 2x 9800GT (im SLI ) hatte waren es 150%, wenn ich aber 9800GT + 9800GT genommen hatte, also eine 9800GT nur für Physx waren es nur 120%.

Neja kann durchaus sein... Wenn du eine Karte für beides nutzt, wird diese wohl am Anschlag laufen. Nutzt du beide im SLI, so steht neben mehr PhysX Leistung auch mehr 3D Leistung bereit, sprich man wird bei dieser Konstellation wohl am schnellsten fahren. (Einfach weil hier die Lastzuteilung dynamisch geschiet) Verwendest du eine als PhysX Karte und eine für 3D, so bleibt die 3D Leistung identisch wie wenn du eine Karte verwendest bei PhysX aus. Die PhysX Effekte erzeugen ja zusätzlich ebenso Last für die Berechnung des Bildeffektes, sprich die Karte für die 3D Berechnung wird mehr gefordert wie bei PhysX off. Die zweite Karte welche nur die Physikberechnungen tätigt ist, wird dann halt insoweit gefordert, wie das die Anwendung für nötig hält...

SLI und PHy ging noch nie...bei SLI >SLI aus und ein Karte für PHy zuweisen sollte ja nicht so schwer sein bei den tausenden von Games :lol: übrigens hat das Cuda Wasser in JC2 damit nix zutun :-) das Halbwissen erschlägt mich mal wieder :-)

Du weist schon das es hier die ganze Zeit um PhysX geht... Auch wenn PhysX auf Cuda aufsetzt haben sonstige Cuda Späße haben hier im Thread nix verloren... Von Halbwissen kann also gar nicht die Rede sein...
 
ja?
Ich habe darauf geantwortet obs sich lohnt ne Zusatzkarte zu stecken und das lohnt, da es nicht nur PHy gibt das die Karte übernehmen kann um die "Hauptkarte zu entlasten, siehe >Mass2 etc pp. ansonsten löscht meine Beiträge einfach.
 
HALLO, ich hab grad fluidmark probiert und hab diese Einstellung "versucht":
Mit Cpu kann ich benchen über die 65000 particles (hab 90000 mal eintippt),
aber versuch mit der gpu zu benchen, verschwinden bei ca. 65000 die partikel.
Ich verwend den Rechner aus der SysInfo.
Soll ich mal die gts ausbauen?
 
Was hast du genau versucht?

Mir ist aufgefallen, das das Programm wohl noch bisschen Buggy ist. Sprich wenn du den "unlock ermitters" Haken wegnimmst, kommt nix auf der GPU ;)
Da hilft nur ein Neustart des Tools und eben den Haken rein. Die Einstellungen zwischen ein,zwei oder drei ermitters auf der GPU macht keinen Unterschied. Liegt im Messtolleranzbereich... Warum und wieso das so ist, keine Ahnung, aber bei GPU Messungen muss der Haken definitv gesetzt sein bei mir. Und wenn das nix hilft, dann einfach Tool zumachen und wieder aufmachen und danach benchen, ohne diesen Haken anzufassen...


Mich täten mal die Ergebnisse anderer Karten interessieren...
Also was im Bereich G80, G92 und G200... Und vor allem, wie sich dort der GPU/Shadertakt auf die Performance auswirkt...
 
So ich habe eben mal etwas probiert!
60000 Particle bei cpu 31 emitters
AMD X4 965@ 4,16Ghz = 160 Points -->SPS 26
Intel Core i5 750@ stock = 127 Points -->SPS 21
Nvidia GT240 1024MB = 150 Points -->SPS 25

Jetzt wäre mal nen X6 oder Intel I7 interessant!
 
Zuletzt bearbeitet:
Schreib mal lieber den SPS Wert hier rein... Diese Punkteangaben sind mir bisschen suspekt...
 
Ich wollt ausprobieren 10000-120000 particel einzustellen, so wie Am Threadanfang beschreiben zu benchen.
Also ich hab eine G92 8800gts 512mb drin, und ich weiss gar nicht mehr weiter.
hab 232 sps "glaub" ich mit der karte.
Wenn ich PHysx auf Gtx460 einstell, hab ich aber genauso 230sps
und ja mit intel core i7-930 @ 3.6ghz hab ich grad 130sps gehabt.

---------- Beitrag hinzugefügt um 09:21 ---------- Vorheriger Beitrag war um 09:20 ----------

sry hab mich verschreieben
 
Zuletzt bearbeitet:
ja wenn du nicht weiter weist, dann frag halt ;)
Wo klemmts denn genau?
 
was ich bin erst aufgestanden, der sps wert bei cpu ist 21.
was fürein wert sollt ich mit einer gtx460 haben?

---------- Beitrag hinzugefügt um 10:10 ---------- Vorheriger Beitrag war um 10:03 ----------

Ich hab mit nv syseinstellung physx auf gtx460 38sps
und wenn ich umstell auf gts8800 g92 hab ich genauso 38sps
 
So ich habe eben mal etwas probiert!
60000 Particle
AMD X4 965@ 4,16Ghz = 160 Points
Intel Core i5 750@ stock = 127 Points
Nvidia GT240 1024MB = 150 Points

Jetzt wäre mal nen X6 oder Intel I7 interessant!

Man müsste aber auch wissen wie viele Emitters du eingestellt hast, bei mehr Emitters ist die CPU schneller.
 
Man müsste aber auch wissen wie viele Emitters du eingestellt hast, bei mehr Emitters ist die CPU schneller.

Habs editiert! Es ist schön zu sehen das ein 4kerner sehr gut mit einer 96shader karte mithalten kann!
ein x6 sollte da nochmal gut mehr leisten können!
 
Habs editiert! Es ist schön zu sehen das ein 4kerner sehr gut mit einer 96shader karte mithalten kann!
ein x6 sollte da nochmal gut mehr leisten können!

Ich hatte mit 4,2Ghz i7 mit 31 emitters und 60000 Partikeln 264 punkte und 43 SPS.
 
Ich hatte mit 4,2Ghz i7 mit 31 emitters und 60000 Partikeln 264 punkte und 43 SPS.

Ja damit biste dann ca so schnell wie eine GTX470! Also wo sind denn da bitte NVs argumente geblieben??
 
Zuletzt bearbeitet:
Ja damit biste dann ca so schnell wie eine GTX470! Also wo ist dann dann bitte NVs argumente geblieben??

Naja das konnte man sich schon denken, wieso würden die sonst multicore Unterstützung und sonstige sachen sperren. Aber es sieht wirklich so aus dass mit richtige multicore Unterstützung und eine schnelle CPU wäre man wohl sogar schneller bei Spiele mit CPU Physx als GPU Physx weil die CPU weniger ausgelastet ist.
 
Ich denke im Leistungsbereich von 2 Kernen kann man im Schnitt bei heutigen Games (PC mit Quadcore) freimachen... Bei ner GPU kann man idR gar nix frei machen, denn da limitieren selbst die schnellsten Karten teils massiv bei neuen Games mit max. Details AA und AF schon...


Was mich aber wirklich interessieren würde, wohin verpufft die Leistung der NV GPU... Normal darf/kann das eigentlich nicht sein? Oder behält sich NV hier die Optimierungen für den Ernstfall vor, wenn mal Konkurenz im PhysX Markt aufkommt?
 
ich habe mir den fluidmark jetzt auch mal gezogen und auch die ergebnisse in mein preview der karte mit eingebaut (link in der signatur)

hier ein paar ergebnisse.

fluidmark standard, erzwungenes CPU-physX
physX-CPU.jpg


fluidmark standard, GPU-physX
physX-GPU.jpg


fluidmark vollbild/fullHD, erzwungenes CPU-physX
physX-CPU-19x10-4xMSAA.jpg


fluidmark vollbild/fullHD, GPU-physX
physX-GPU-19x10-4xMSAA.jpg


2x fluidmark standard, erzwungenes CPU-physX
physX-CPU-x2.jpg

physX-CPU-x2b.jpg


2x fluidmark standard, GPU-physX
physX-GPU-x2a.jpg

physX-GPU-x2b.jpg





(..)

mfg
tobi
 
Mach das gleich mal statt 2x Fluidmark mit 1xfurmark und 1xFluidmark
 
Zuletzt bearbeitet:
@TobiWahnKenobi
deine CPU Messungen musst du nochmal wiederholen ;)
Du hast bei der ermitters Einstellung Std. auf 3 gelassen, heist es waren nur drei Kerne aktiv. Dreh das auf 31 hoch und staune ;)


PS:
die MSAA Einstellung greift übrigens nicht. Das war aber bei meinen Tests auch so...
 
sry, freaks, aber ich mache da jetzt gar nichts mehr.. das hat heute schon genug zeit gekostet, die dinger laufen zu lassen und zu screenshotten respektive in die webseite einzubauen und upzuloaden.. das bindet zuviel unbezahlte zeit..

physX-CPU-4-kerne.jpg


was soll ich da staunen?


btw,
das mit dem MSAA ist mir auch aufgefallen.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Ich sagte doch 31 ermitters... ;)

Bei nem Quad steigt die PhysX Leistung für die CPU zwischen 4 und 31 ermitters um gute 40-50% obwohl nicht mehr Kerne hinzukommen. Bei Intel mit SMT dürfte das sogar noch mehr sein.

Von den 11SPS im ersten Wert oben wirst du also mit 31 ermitters gute 20-22SPS rausbekommen, vllt sogar noch mehr... das mal glatt das doppelte von der ersten Messung. ;)
 
Ich sagte doch 31 ermitters... ;)

Bei nem Quad steigt die PhysX Leistung für die CPU zwischen 4 und 31 ermitters um gute 40-50% obwohl nicht mehr Kerne hinzukommen. Bei Intel mit SMT dürfte das sogar noch mehr sein.

Von den 11SPS im ersten Wert oben wirst du also mit 31 ermitters gute 20-22SPS rausbekommen, vllt sogar noch mehr... das mal glatt das doppelte von der ersten Messung. ;)

das ergibt doch gar keinen sinn.. wenn ich etwas vergleichen will, muss ich einstellungen nehmen, die auch beide lösungen beherrschen. die letzte messung, die sowohl von GPU- als auch von CPU-physX unterstützt werden, sind 8 emitter.

und selbst da ist die GPU-leistung dreimal so hoch..

physX-CPU-8.jpg

physX-GPU-8.jpg


Bei nem Quad steigt die PhysX Leistung für die CPU zwischen 4 und 31 ermitters um gute 40-50% obwohl nicht mehr Kerne hinzukommen. Bei Intel mit SMT dürfte das sogar noch mehr sein.

das wird dir in einer spielengine aber nie begegnen.. also dass die kompletten CPU-ressourcen für eine physik-berechnung eingesetzt werden/ werden können. da bleibt unterm strich nämlich nichts für die engine und die zulieferung der daten richtung grafikkarte, KI und soundberechnung übrig. da physik nunmal nur ein teil der gleichung/ ein teil des spiels ist, wäre man damit schlechter unterwegs, als mit einer GPU-physX-lösung + komplett nahezu freier CPU, die sich um physik nicht kümmern muss..


(..)

mfg
tobi
 
Zuletzt bearbeitet:
das wird dir in einer spielengine aber nie begegnen.. also dass die kompletten CPU-ressourcen für eine physik-berechnung eingesetzt werden/ werden können. da bleibt unterm strich nämlich nichts für die engine und die zulieferung der daten richtung grafikkarte, KI und soundberechnung übrig. da physik nunmal nur ein teil der gleichung/ ein teil des spiels ist, wäre man damit schlechter unterwegs, als mit einer GPU-physX-lösung + komplett nahezu freier CPU, die sich um physik nicht kümmern muss..


(..)

mfg
tobi

Dazu wurde ja schon vorher geschrieben dass man in der regel keine eigene Physx Grafikkarte im Rechner hat. Die Karte muss also nicht nur die Grafik sondern auch das Physik rechnen obwohl es in der regel schon mit Grafikrechnung voll ausgelastet wird. Die cpu hat also weitaus mehr freie Resourcen als die GPU.
 
das lässt sich nicht pauschal sagen, weil es vom content abhängt. allerdings taugen die freien ressourcen auf der CPU einfach nicht für physX. und ob das jetzt an mangelnder thread-optimierung oder an fehlenden instruktionserweiterungen liegt, ist eigentlich banane, denn man kann es nur so nutzen, wie es im moment ist.. es gibt ja nur an oder aus.. andere alternativen bieten sich nicht.. egal wieviel man rumjammert, wettert und schimpft..

wenn ich mein spielerlebnis in metro heranziehe, können die GPU-reserven nach gpu-physX gar nicht so gering sein.. zumindest nicht beim fermi.

ich weiss nicht, wieviele rechenwerke gpu-physX in beschlag nimmt und ich weiss auch nicht, ob es da unterschiede von karte zu karte gibt.. es würde mich nichtmal wundern, wenn pauschal X rechenwerke auf grafkkarten-generation Y eingesetzt werden.

vielleicht gucke ich mir den fluidmark am nächsten we nochmal auf meinem notebook an.. die 9600M-GT ist ja wirklich stark in der leistung reduziert.. zumindest anhand der eckdaten.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh