[Sammelthread] NVidia PhysX Performance/Bildqualitäts-Thread CPU/GPU

NVidia PhysX Performance/Bildqualitäts-Thread CPU/GPU


nvidia_physxpa5j.png


Hallo Leute,
da in den letzten Tagen vermehrt über Performancemessungen und Bildqualitätsvergleiche in PhysX Anwendungen diskutiert wurde, möchte ich an dieser Stelle eine Plattform schaffen, welche allen einen möglichen Überblick über die derzeitige PhysX Umsetzung seitens NVidia gibt.

Der Thread wird von Zeit zu Zeit mit neuen Ergebnissen gefüllt.


1. Fluidmark

Als erstes möchte ich anhand des Benchmarks Fluidmark Version 1.2.0 (Downloadlink) aufzeigen, was man von aktuellen CPUs/GPUs erwarten kann.
Natürlich könnt ihr hier auch mit euren mit Sicherheit teilweise besseren Systemen Werte posten, welche ich dann auch gerne im Startpost übernehmen werde.

Fluidmark ist ein Tool, welches mithilfe des PhysX SDKs erstellt wurde. Es nutzt in der aktuellen Version 1.2.0 volle Multicore/Multi CPU Funktionalitäten. Es ist in der Lage, die Berechnungen auf aktuellen (seit dem G80) NVidia GPUs auszulagern.
Dies lässt einen sehr schönen Vergleich zwischen CPU und GPU Leistung zu.

fuildmark_demo2bt7.jpg

Fluidmark Version 1.2.0 Beispielbild​

In Fluidmark wird die Auslastung mehrerer CPU Kerne dadurch erreicht, indem man mehrere Quellen (sogenante Ermitters) für die Partikel im Bild verwendet. Soll die Berechnung in einem Thread ablaufen, so verwendet man eine Quelle. Soll sie in zweien ablaufen, so eben zwei usw.
Aktuell kann man bis zu 31 Quellen im Bild platzieren und hat somit Support für maximal 31 Threads. Selbst für aktuelle Dual Hexacore Systeme (Intel Nehalem EP) oder aktuelle AMD Dual 12 Kern Systeme steht also nix im Wege...


Ich habe auf meiner Workstation also ein paar Test laufen lassen...
Zunächst einmal die Hardware/Software:
CPUs: 2x Intel (Woodcrest) Xeon 5160 @ 3,33GHz
RAM: 10240MB DDR2-667 FBDimm
GFX: PoV NVidia Geforce 465GTX @ 470GTX @ 750/1500/1600MHz
OS: Windows Vista Business SP2 x64
Treiber: Forceware 258.96 + PhysX 9.10.0513

1.1 Fluidmark Einstellungen:

Also ich habe mal verschiedene Konstellationen durchgetestet. Alle Tests liefen mit folgenden Settings:

fuildmark_settings2heq.jpg

Fluidmark Einstellungen (nicht über den Screen wundern, der ist mit einem anderen PC geschossen)

- 1680x1050, 0xMSAA
- Fullsreen
- enable Multi-core PhysX
- disable Async mode
- benchmarking
- Time-based = 60000ms
- use particle count = 10000-120000
- # of ermitters = 1-31
- enable Force PhysX CPU (or disable for use GPU)


1.2 Messwerte und Erklärung:

fluidmark_1.2.0_physx_xfog.jpg

Messwerte - Spalten=Partikel, Zeilen=Berechnungsart​


Man erkennt sehr schön die 1A Skallierung bei steigender Anzahl der CPU Kerne. Mein System hat zwei physische CPUs mit jeweils zwei CPU Kernen. Normal müsste die Skallierung größer 4 Ermitters stark wegbrechen. Trotzdem skalliert das ganze mit steigender Anzahl der Ermitters weiter. Zwischen 4 und 31 liegen grob 40% Performancezuwachs. Die CPU Auslastung lag bei den CPU Tests idR bei 99-100% (außer eben bei den Tests mit weniger als 4 Ermitters)
Die Messwerte für einen CPU Ermitter sinken ab einem bestimmten Punkt nicht mehr. Das liegt daran, das eben ein Ermitter nicht ausreicht um die ganzen Partikel ins Bild zu bringen. So sind die Ergebnisse immer gleichbleibend. Aus Vergleichsgründen habe ich bei diesen Werten eine "0" vergeben, um die Vergleichbarkeit zu wahren, denn im Bench musste die CPU bei einem Ermitter ab 70000 Partikeln nur noch ~65000 berechnen...

Die GPU Werte sind ebenso unten angehängt.
Man erkennt sehr schön, das die GPU weniger stark einbricht, als es die CPU tut. Dennoch sinken die FPS Raten größer 110000 Partikeln unter die 25er Marke.
Mit dem letzten Punkte hatte ich versucht eine 460GTX zu simulieren. Da eine 470GTX in Schnitt ohne AA/AF in etwa 25% schneller rendert als eine 460GTX, habe ich die Taktraten für GPU und Shader im selben Verhältniss (ca. 25%) abgesenkt. Zu meinem Erstaunen musste ich feststellen, das aber die Messwerte weit weniger gesunken sind. Es scheint also so, das PhysX bzw. speziell Fluidmark deutlich mehr auf mehr Ausführungseinheiten reagiert als auf Takt derselben... Aus diesem Grund habe ich die Messwerte mit den Standard 470GTX Taktraten gleich weggelassen und nur OC vs. simulierte 460GTX getestet. Die echte 470GTX liegt so ziemlich genau zwischen den Messwerten, was ich Stichprobenartig ausgetestet hab.

Zum Schluss noch das ganze in einem Diagramm zusammengefasst:

fluidmark_1.2.0_physx_ug49.jpg

Diagramm​

1.3 Fazit Fluidmark:

Wie man anhand der Messwerte sehen kann skallieren selbst betagtere PC Systeme (mein Testsystem ist von Jan. 2007) sehr gut mit PhysX. Im Vergleich zum CPU Test gewinnt die aktuelle HighEnd GPU ca. um das 2,5 fache. Leider sind diese Werte bei weitem nicht beeindruckend in meinen Augen. Denn wenn man bedenkt, aktuelle HighEnd NVidia GPUs können bis über 1000GFlop/s liefern. CPUs schaffen da nur einen Bruchteil im Bereich 50GFlop/s. Es bleibt unterm Strich also eine extrem ineffiziente Umsetzung seitens NVidia für die GPU.
Aber, man muss ebenso erwähnen, die Werte stützen sich einzig und allein auf einen Benchmark. Im Moment fehlt es aber an weiteren Aussagekräftigen und vor allem Vergleichbaren Benchmarks um mehr Messwerte zu erziehlen.



2. BQ Vergleich Mafia II Benchmark:

Zuguter letzt in diesem Thread möchte ich noch ein kleines Vergleichsvideo vorstellen. Ich habe Mafia II einmal im CPU Modus und einmal im GPU Modus gebencht. Die Leistung soll hier in erster Linie erstmal im Hintergrund stehen. Sondern es geht einzig und allein um die Vergleichbarkeit dieser beiden Messungen.
Man erkennt sehr schön, das beide Messungen etwas unterschiedlich sind... Aber bildet euch selbst eine Meinung ;)

YouTube - Mafia_II_PhysX_Vergleich_CPU/GPU

Am besten ihr schauts in 720p an, sonst leidet die Qualität leider ein wenig ;)



letztens - Allgemeiner Hinweis

Dies ist ein Sammelthread für NVidias PhysX und dessen Umsetzung, das heißt, es darf und soll hier über die Software und auch über die Umsetzung diskutiert werden.

Was allerdings nicht hier rein gehört:
- Offtopic Beiträge (beispielsweise eine Technikdiskussion über die Architektur des RV770 a la HD 48x0), Gespamme oder "Privatkriege -> NV vs. ATi".
- Sinn und Unsinnigkeitsmeldungen über PhysX

Es ist nur im Interesse des Forums, dass es hier gesittet abläuft.

Bei Postings, die zu sehr OT sind oder etwa nur reine Provokation, am Besten gar nicht darauf eingehen, sondern durch Benutzen des "Beitrag melden-Buttons" (
report.gif
) die Moderatoren/-innen die Angelenheit regeln lassen.

Sollte es zu mehrmaligem Verstoß gegen die Regeln kommen, so können auffällige User eine Auszeit von diesem Thread erhalten.


In diesem Sinne...
fdsonne :wink:
 
das lässt sich nicht pauschal sagen, weil es vom content abhängt. allerdings taugen die freien ressourcen auf der CPU einfach nicht für physX. und ob das jetzt an mangelnder thread-optimierung oder an fehlenden instruktionserweiterungen liegt, ist eigentlich banane, denn man kann es nur so nutzen, wie es im moment ist.. es gibt ja nur an oder aus.. andere alternativen bieten sich nicht.. egal wieviel man rumjammert, wettert und schimpft..

wenn ich mein spielerlebnis in metro heranziehe, können die GPU-reserven nach gpu-physX gar nicht so gering sein.. zumindest nicht beim fermi.

ich weiss nicht, wieviele rechenwerke gpu-physX in beschlag nimmt und ich weiss auch nicht, ob es da unterschiede von karte zu karte gibt.. es würde mich nichtmal wundern, wenn pauschal X rechenwerke auf grafkkarten-generation Y eingesetzt werden.

vielleicht gucke ich mir den fluidmark am nächsten we nochmal auf meinem notebook an.. die 9600M-GT ist ja wirklich stark in der leistung reduziert.. zumindest anhand der eckdaten.


(..)

mfg
tobi

Du gehst an die Sache falsch ran...
Erstens darfst du nicht davon ausgehen, das jeder hier ne Fermi 480GTX im PC hat, welche viele Reserven in diesem Bereich bietet. (aber auch mit dieser Karte gibt es Spiele, welche voll am Limit laufen, weil die Karte zu lahm ist)
Zweitens ist wie schon angesprochen gerade im Bereich kleineren Karten (ala Mittelklasse, oder G92, G80, G200er) die GPU bei aktuellen Spielen permanent auf Volllast, das geht soweit, das selbst der User schon Details reduzieren muss um überhaupt flüssige FPS Raten zu bekommen. Mit großen Auflösungen wirds da immer schwerer. Ebenso sind bei älteren Karten Hohe AA Modi idR gar nicht drin...
Punkt drei, es spricht auch niemand davon, die CPU exklusiv nur für PhysX zu verwenden. Sondern das was an Ressourcen übrig ist (weil ungenutzt in Games) dafür abzustellen. Wenn man sich ansieht, sogut wie jeder aktuelle PC, vom kleinen Preisbereich ab 400-500€ bis hoch ins HighEnd hat sogut wie immer einen Quadcore oder eben bei mehr Geld auch nen Hexacore drin. Aktuelle Spiele lasten eine CPU wenn überhaupt mit zwei Kernen aus. (Ausnahmen auch hier vorhanden, aber sehr sehr wenige)

Was wäre also unterm Strich die bessere Methode für uns Endkunden ohne durch eine Fanboy Brille zu sehen? (ist jetzt keine Unterstellung)
Dem User PhysX Effekte mit einer NV GPU versprechen, welche akut ineffizient arbeiten (sieht man ja am Furmark bei völlig freier GPU (470GTX+OC) gibts grob 2-3x der CPU Leistung eines 3,5 Jahre alten Dual Dualcore Gespanns) und welche sowieso gerade außerhalb derartiger Foren wie diesem hier total überfordert sind? Oder die vorhandenen und idR ungenutzte CPU Ressourcen zu verwenden?

Wie gesagt, man schaue auf die Werte, welche eine total freie GPU erreicht im Gegensatz zu dem, was diese GPU theoretischerweise erreichen müsste, aufgrund der Rohleistung. Und man schaue im Vergleich dazu, um wie wenige Prozenz eine in der Rohleistung nur ein bruchteil so schnelle CPU doch ist...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
bei alter hardware würde ich keinen anspruch auf hohe auflösungen und viel eyecandy erheben.. im grunde ist alles <fermi veraltet.

die anpassung an diverse freie CPU-ressourcen wird mittelfristig nicht stattfinden. das gros der spiele sind mulitplatformtitel und eine anpassung kostet zeit (und geld). das lohnt für den rückläufigen PC-spiele-markt eigentlich nicht. angepasst wird für konsolen.

ich glaube auch nicht, dass quadcore (oder größer) schon verbreitet genug sind.. denke der verbreitete standard liegt bei dualcore-systemen.. und das loadballancing kriegt windows7 doch schon ganz gut hin.. programme, die an einem kern hängen habe ich gar keine.. ausser aquamark.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
bei alter hardware würde ich keinen anspruch auf hohe auflösungen und viel eyecandy erheben.. im grunde ist alles <fermi veraltet.
Da magst du recht habe... Aber man verkauft ja PhysX exklusiv als NV Feature... Zumindest wird es so beworben. Und mal ganz davon ab das es gerade mal zwei Karten gibt, die auch nur ansatzweise dieses Feature im halbwegs akzeptablen Maße nutzen können wäre eine andere Ausrichtung (eben auf andere brachliegende Ressourcen) durchaus angebrach(er) eben weil man dadurch viel mehr Leute erreichen kann...

die anpassung an diverse freie CPU-ressourcen wird mittelfristig nicht stattfinden. das gros der spiele sind mulitplatformtitel und eine anpassung kostet zeit (und geld). das lohnt für den rückläufigen PC-spiele-markt eigentlich nicht. angepasst wird für konsolen.

Das ist absolut gar kein Problem, denn PhysX ist von Haus aus massiv Multicore optimiert, das einzige was man machen muss, ist das Multicore Flag setzen... Und das wird scheinbar nicht getan.
Das man für den letzten HighEnd Touch dann von mir aus die GPU ranziehen kann und dieses Feature dann nochmals einen enormen Optikzuwachs bietet, ist ja nicht verkehrt.
Aber so wird für minimal mehr optische Elemente massiv mit Ressourcen geschludert, welche im Bereich 3D Berechnungen doch viel besser aufgehoben währen.

Und um mal beim Beispiel Mafia II zu bleiben, auf der Konsole gibts ebenso kein PhysX, oder nur in extremst abgespeckter Form, sprich die Implementierung von PhysX ist hier und auch in ein paar der anderen PhysX per GPU Titel sowieso dem PC vorenthalten... Also wieso kann man hier nicht gleich sauber arbeiten und das nutzen, was der PC kann?

Ich hab so bisschen das Gefühl, NV will hier versuchen über alle Mittel und Wege ihre Karten zu pushen. In meinen Augen ja kein Problem, aber wenn das zu Lasten der Endkunden geht, dann halte ich diese Richtung für nicht gerade förderlich... ;)
 
Ich bau mal die gts aus... und da schau her, hab 69sps mit der gtx460 allein, also hat dass mitn switchen unter nv systemsteuerung nicht funktioniert.
Aber jetzt zum Spiele Test Mafia 2: 460gtx/8800gts @ physx 42fps, ohne 8800gts 34fps.

---------- Beitrag hinzugefügt um 17:40 ---------- Vorheriger Beitrag war um 17:13 ----------

Mit Unlock emiters hab ich auf cpu only 42sps
 
Da magst du recht habe... Aber man verkauft ja PhysX exklusiv als NV Feature... Zumindest wird es so beworben. Und mal ganz davon ab das es gerade mal zwei Karten gibt, die auch nur ansatzweise dieses Feature im halbwegs akzeptablen Maße nutzen können wäre eine andere Ausrichtung (eben auf andere brachliegende Ressourcen) durchaus angebrach(er) eben weil man dadurch viel mehr Leute erreichen kann...

das ist sehr ähnlich den ersten SM3 karten und dem ersten HDRr (far cry).. das konnte neuere karten in späteren titeln auch sehr viel besser als NV40. ich erinnere mich noch gut dran, dass ich nur dem HDRr zuliebe zwei dieser karten im SLi zusammengeschaltet hatte. auch die SLi-effizienz wurde erst nach dieser generation besser.. ich hatte noch mittlere zuwächse von 50-70% oder gar 0%. heute sind steigerungen von 70-90% möglich.

Das ist absolut gar kein Problem, denn PhysX ist von Haus aus massiv Multicore optimiert, das einzige was man machen muss, ist das Multicore Flag setzen... Und das wird scheinbar nicht getan.
Das man für den letzten HighEnd Touch dann von mir aus die GPU ranziehen kann und dieses Feature dann nochmals einen enormen Optikzuwachs bietet, ist ja nicht verkehrt.
Aber so wird für minimal mehr optische Elemente massiv mit Ressourcen geschludert, welche im Bereich 3D Berechnungen doch viel besser aufgehoben währen.

soweit ich das bisher mitbekommen habe, ist physX ein bestandteil des treibers, der sich abschalten lässt. wie auch der stereo-3D-support. das kann man nutzen, muss es aber nicht.

bei mafia2 kann ich nicht mitquatschen, da ich diesen titel nur auf der xbox360 spielen werde und nicht vorhabe, das spiel doppelt zu erwerben. und ausser im fluidmark und in metro2033 habe ich von physX auf meiner kiste noch nicht viel gesehen. ich komme allerdings auch nicht sonderlich viel zum spielen in letzter zeit, sonst hätte ich mir bc2 auch schon längt mal vorgenommen.. runtergeladen hab ichs mir schon vor 2 wochen.. *gg*
Und um mal beim Beispiel Mafia II zu bleiben, auf der Konsole gibts ebenso kein PhysX, oder nur in extremst abgespeckter Form, sprich die Implementierung von PhysX ist hier und auch in ein paar der anderen PhysX per GPU Titel sowieso dem PC vorenthalten... Also wieso kann man hier nicht gleich sauber arbeiten und das nutzen, was der PC kann?
diese frage kommt doch von den pc-spielern immer wieder auf, wenn es um potenziale und konsolenports geht. die antwort ist immer die gleiche.. der markt ist zu klein, anpassungen sind teuer und die pc-systeme sind zu individuell und zu verschieden.
Ich hab so bisschen das Gefühl, NV will hier versuchen über alle Mittel und Wege ihre Karten zu pushen. In meinen Augen ja kein Problem, aber wenn das zu Lasten der Endkunden geht, dann halte ich diese Richtung für nicht gerade förderlich... ;)
das würde ich jetzt zwar nicht unterstellen, weil ich echt nicht das haar in deren suppe suche und auch nicht das gefühl habe, dass technische innovationen, die eig. immer von NV-seite ausgingen, was böses sind.. aber aus sicht eines börsenorientierten unternehmens ist es natürlich denkbar, dass man die eigenen produkte pushen möchte. wobei ein push bei einer karte wie der GTX460 eigenltich nicht nötig ist - die regelt ihre beliebtheit über den preis..

-----
unterm strich ist sich jeder selbst der nächste und mit blick auf mein system und die ergebnisse von metro und fluidmark profitiere ich enorm von NVs push-feature "physX".

für mich als kunden sehe ich da echt keinen nachteil.. *kopfkratz* ich habe auch nicht das gefühl, dass mir der teil der GPU, der für physX genutzt wird, beim 3D-rendering fehlt.. kein stück.


edit:

btw,
dass ein hochgezüchteter übertakteter core i7 oder ähnlich "besser" für physX geeignet ist, als die CUDA-cores einer GPU ist doch eher raten, hoffen und schönreden der eigenen monster-CPU als technisch bewiesen. keiner hier im forum steckt so tief drin, dass er wirklich etwas nachvollziehbares beisteuern kann.. man kann nur gucken, beobachten und weiss hinterher trotzdem nix, weil man nciht hinter die kulissen schauen kann. liegt das resultat jetzt am treiber, an der software, einer in kompatiblität, einem bug, einer fehleinschätzung, am schlechten wetter?

edit2:
im P3D-forum wird auch drüber palavert: http://www.planet3dnow.de/vbulletin/showthread.php?p=4279780#post4279780


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Mich würd immer noch interessieren,warum bei meiner GT240 kein Cuda aktiviert ist laut GPU-z
 
Zuletzt bearbeitet:
das ist sehr ähnlich den ersten SM3 karten und dem ersten HDRr (far cry).. das konnte neuere karten in späteren titeln auch sehr viel besser als NV40. ich erinnere mich noch gut dran, dass ich nur dem HDRr zuliebe zwei dieser karten im SLi zusammengeschaltet hatte. auch die SLi-effizienz wurde erst nach dieser generation besser.. ich hatte noch mittlere zuwächse von 50-70% oder gar 0%. heute sind steigerungen von 70-90% möglich.
Neja so kann man das nicht sagen... Du magst mit der Aussage zwar erstmal recht haben, aber PhysX geht da einen ganz anderen Weg... Du bist quasi nicht Hardwaregebunden. Sondern PhysX kann bequem auch in Software berechnet werden.
Also ob du nun die CPU hernimmst, oder ne GPU, spielt keine Rolle. Bei den GPUs ist das etwas anders, Softwarerendering kann man zwar auch erzwingen, aber ansonsten brauchst du für das genannte Feature eben Hardwaresupport. Das dort die ersten Karten mit immer neuer werdenden Games teils stark überfordert sind, sollte klar sein...

soweit ich das bisher mitbekommen habe, ist physX ein bestandteil des treibers, der sich abschalten lässt. wie auch der stereo-3D-support. das kann man nutzen, muss es aber nicht.
Jein... PhysX kommt zwar mit dem Treiber mit, aber ist so erstmal kein Bestandteil. Klar kann man es abschalten bzw. man kann es nutzen oder eben nicht.
Aber mir gings bei der Aussage ja um den Multicore Support. Hier hat der Programmierer die Möglichkeit einfach in seiner Anwendung zu sagen, ich will Multicore Support haben. Und schon gibts Multicore Support. Ich gehe stark davon aus, das NV hier über ihr TWIMTBP Programm hart den Finger drauf hat und dann sagt, hier ihr nutzt das nicht, weil...

bei mafia2 kann ich nicht mitquatschen, da ich diesen titel nur auf der xbox360 spielen werde und nicht vorhabe, das spiel doppelt zu erwerben. und ausser im fluidmark und in metro2033 habe ich von physX auf meiner kiste noch nicht viel gesehen.
PhysX Games gibts wie Sand am Meer ;) Aber Games, welche GPU PhysX nutzen eben nur eine Hand voll... Du wirst sicher in einigen anderen Games schon PhysX in Aktion gesichtet haben, da gehe ich stark von aus, es sei denn, du spielst nur Metro ;)

diese frage kommt doch von den pc-spielern immer wieder auf, wenn es um potenziale und konsolenports geht. die antwort ist immer die gleiche.. der markt ist zu klein, anpassungen sind teuer und die pc-systeme sind zu individuell und zu verschieden.
Nein, wie gesagt, man passt ja schon aufwendigerweise bei einem Konsolenport PhysX für die PC User an... Da wäre das Setzen des Multicore Flags quasi eine Sekundensache nebenbei... Und das gesetzte Flag tut der GPU PhysX Geschichten keinen Abbruch, dadurch wird es ja nicht langsamer oder schlechter... Aber es wäre für den Endkunden eben deutlich flexibler...

das würde ich jetzt zwar nicht unterstellen, weil ich echt nicht das haar in deren suppe suche und auch nicht das gefühl habe, dass technische innovationen, die eig. immer von NV-seite ausgingen, was böses sind.. aber aus sicht eines börsenorientierten unternehmens ist es natürlich denkbar, dass man die eigenen produkte pushen möchte. wobei ein push bei einer karte wie der GTX460 eigenltich nicht nötig ist - die regelt ihre beliebtheit über den preis..
Was heist technische Innovationen bei dir?
AMD hat mindestens genau so viele technische Innovationen gebracht... Das fängt bei echter DX8 und DX9 kompatibilität an (mal ausgenommen hier SM3, das hat NV zuerst gebracht) Geht bei DX10.1 und DX11 weiter.
Auch hat AMD zuerst Tesselation gebracht usw.
PhysX in der Form aktuell sehe ich bei weitem auch nicht als Innovation an...

Zur 460GTX magst du recht haben, aber bedenke aufgrund der im Vergleich riesigen Chipfläche wird der Gewinn den NV einstreichen kann mit der Karte deutlich geringer liegen...
 
Ja und da wird genauso geschrieben das es einfach lächerlich ist was da zu sehen ist im vergleich zu anderen games bei den keine dezidierte Physik karte benötig wird weil das was PhysX an optik bietet einfach nur ein müdes gähnen verursacht im vergleich zu havok!

Hört man da einen ATI jünger, der traurig ist dass er nicht Physx verwenden kann ?

Oder ist es einfach nur sachen schlecht reden ;)
 
Hört man da einen ATI jünger, der traurig ist dass er nicht Physx verwenden kann ?

Oder ist es einfach nur sachen schlecht reden ;)

Man man labert doch nicht so einen dreck!!!
Ich habe sehr wohl PhysX getestet sonst würde ich das nicht sagen also nicht rum labern sonder vorher fragen :grrr:

Echt traurig das es immer wieder solche BOBs gibt die meinen einen Thread in NV VS ATI VS sonst was umdrehen zu müßen sowas ist armselig!

Wenn NV in sachen PhysX was gescheites zu bieten hätte würde ich sofort eine PhysX karte nutzen aber sie mit nix gebracht daher kam sie raus kapische??
 
Zuletzt bearbeitet:
Man man labert doch nicht so einen dreck!!!
Ich habe sehr wohl PhysX getestet sonst würde ich das nicht sagen also nicht rum labern sonder vorher fragen :grrr:

Echt traurig das es immer wieder solche BOBs gibt die meinen einen Thread in NV VS ATI VS sonst was umdrehen zu müßen sowas ist armselig!

LOL :bigok:

Hört man da ein mimimimi :d
 
Hört man da einen ATI jünger, der traurig ist dass er nicht Physx verwenden kann ?

Oder ist es einfach nur sachen schlecht reden ;)

und hört man da einen nicht kritikfähigen nv jünger?

natürlich stehen ati nutzer der physx sache deutlich kritischer gegenüber, aber wo kritik berechtigt ist sollte man sie auch anbringen können, oder?

wenn physx so gut ist, sollten dir deutlich mehr argumente einfallen, als jeden kritiker nur zum ati jünger und schlechtreder abzustempeln.
 
und hört man da einen nicht kritikfähigen nv jünger?

Bin nicht befugt mich darüber zu äußern ;)

natürlich stehen ati nutzer der physx sache deutlich kritischer gegenüber, aber wo kritik berechtigt ist sollte man sie auch anbringen können, oder?

wenn physx so gut ist, sollten dir deutlich mehr argumente einfallen, als jeden kritiker nur zum ati jünger und schlechtreder abzustempeln.



Geht nur darum, das viel sagen "aaah Physx ist so schlecht braucht doch keiner" und in einem anderen Thread, schreiben die gleichen, "Böse NV verhindern dass wir Physx nutzen können"

WTF :fresse2: Na wos jetzt :rolleyes:
 
Zuletzt bearbeitet:
Tagus zusammen,
wollte mal kurz die Frage reinschmeissen, wie ich bei meiner 6 Kerne CPU z.B. 4 Kerne fest für PhysX zuweisen kann.....bzw. CPU für PhysX ? THX
 
Gar nicht, da Nvidia in seinen Treibern ja nur einen CPU-Thread erlaubt :-)
 
und wenn sie es erlauben würden, könnte der user trotzdem nicht reinpfuschen. man sollte auch nicht threads mit kernen verwechseln. für die verteilung von threads auf vorhandene CPU-kerne ist im schlimmsten fall das betriebssystem verantwortlich.

ich denke, dass physX heute ist wie es ist, liegt daran, dass es zugekauft und nicht eigen-entwickelt wurde. das ist wahrscheinlich noch der selbe core, den wir auch schon bei ageia-physik hatten.

@fdsonne
als innovation sehe ich funktionen, aus denen der user einen nutzen zieht. CUDA ist da ein ganz gutes beispiel. aber wie ich schon xmal erwähnte, ziehe ich auch direkten nutzen aus GPU-physX.. ganz ohne dedizierten physikbeschleuniger. und ich ziehe auch direkten nutzen aus SLi und ich weiss es seit jahren zu schätzen, dass ich selbst die freie hand über die texturfilterung habe.. dass ich hybride und supersampling AA-modi verwenden kann, wann und wo immer ich will und auch die spielprofile sind direkt für den nutzer von vorteil und für niemanden anders. "während man auf NV-hardware schon in guter optik spielt, benennt man bei ATI/AMD noch die .exen um"

amd hatte in der tat zuerst tesselation.. schon sehr früh sogar.. lange bevor es bestandteil von directX wurde. entsprungen ist es microsoft und die planung hat schon lange vor dem jahr 2005 stattgefunden, weil die xbox eine tesselationseinheit brauchte.

dass sich lager spalten, wenn ein hersteller nicht bereit ist, lizenzkostesten für eine technik eines anderen herstellers auszugeben, erscheint mir logisch. AMD hätte physX auch haben können; sie wollten aber nicht.

mir erscheint es, als rudert AMD immer hinterher und hat eine miese softwareabteilung.. so zumindest mein eindruck, bei nicht in directX/openGL -stein gemeißelten funktionen. das einzig positive, was ich seinerzeit an ATI habe finden können, war die X1900er serie, wo ich mit chuck-treiber HDRr mit MSAA kombinieren konnte.. *schulterzuck*

Ja und da wird genauso geschrieben das es einfach lächerlich ist was da zu sehen ist im vergleich zu anderen games bei den keine dezidierte Physik karte benötig wird weil das was PhysX an optik bietet einfach nur ein müdes gähnen verursacht im vergleich zu havok!

dann hast du wohl nicht richtig gelesen..

"Hier wird wieder mit aller Macht versucht etwas schlecht zu machen was es gar nicht ist. Dann wird noch nen böser gesucht, in diesem Fall nVidia die an allem Schuld sind. Zeigt man dann ein Programm das all die beschriehenden Nachteile gar nicht hat. Kommen weitere haltlose Kommentare.
Ist jetzt nVidia schuld das Millionenschwere Game Studios nicht das schaffen was ein paar Freaks in einen kostenlosen Benchmark realisieren? Soll nVidia die Spiele etwa alle selber schreiben? "


und noch was zum thema:

MAFIA-II-19.jpg


Mafia II: Perfection for NVIDIA’s Graphics Plus Technologies?


(..)

mfg
tobi
 
Zuletzt bearbeitet:
und wenn sie es erlauben würden, könnte der user trotzdem nicht reinpfuschen. man sollte auch nicht threads mit kernen verwechseln. für die verteilung von threads auf vorhandene CPU-kerne ist im schlimmsten fall das betriebssystem verantwortlich.

ich denke, dass physX heute ist wie es ist, liegt daran, dass es zugekauft und nicht eigen-entwickelt wurde. das ist wahrscheinlich noch der selbe core, den wir auch schon bei ageia-physik hatten.
Nochmal, PhysX ist seit Jahr und Tag Multicore optimiert. Sprich die Berechnung ansich läuft sowieso in mehreren Threads eben um die ganzen Cores auslasten zu können. Das war bei Ageia lange vor NV schon Standard und wurde auch so beworben wie verkauft.
Da gab es teilweise kostenfreie kleinere Games und Demos, wo man PhysX bestaunen konnte. Aber der CPU lief das damals recht mies, weil niemand 4 und mehr CPU Kerne hatte. Aber auf den dedizierten PhysX Beschleunigern ging es ganz brauchbar...

@fdsonne
als innovation sehe ich funktionen, aus denen der user einen nutzen zieht. CUDA ist da ein ganz gutes beispiel. aber wie ich schon xmal erwähnte, ziehe ich auch direkten nutzen aus GPU-physX.. ganz ohne dedizierten physikbeschleuniger. und ich ziehe auch direkten nutzen aus SLi und ich weiss es seit jahren zu schätzen, dass ich selbst die freie hand über die texturfilterung habe.. dass ich hybride und supersampling AA-modi verwenden kann, wann und wo immer ich will und auch die spielprofile sind direkt für den nutzer von vorteil und für niemanden anders. "während man auf NV-hardware schon in guter optik spielt, benennt man bei ATI/AMD noch die .exen um"
Was ziehst du denn für direkten Nutzen aus Cuda?
Also ich hab auch ne NV Karte, das einzige Cuda Tool was ich mir besorgt habe ist Badaboom... Und das habe ich bereut, weil es nicht das kann, was ich will. Nämlich unkomprimierte VHS Aufnahmen zu digitalisieren, die schon seit Monaten enormen Speicherplatz auf meinen HDDs wegnehmen. --> kommt die Meldung, Quellformat wird nicht unterstützt.

Zum Thema Profile, sowas hat AMD aber auch schon lange... Aber derartige Aussagen haben hier im Thread nix verloren da OT.

dass sich lager spalten, wenn ein hersteller nicht bereit ist, lizenzkostesten für eine technik eines anderen herstellers auszugeben, erscheint mir logisch. AMD hätte physX auch haben können; sie wollten aber nicht.
Du denkst zu kurzsichtig... Warum will AMD wohl kein PhysX?
Richtig, weil es im Moment keine Marktdurchdringung besitzt. Gemessen an den Games seit PhysX Release setzen vllt 0,xx% aller Spiele auf GPU PhysX, vllt sogar 0,0xx%. AMD würde also quasi für nix Geld zahlen...
Ebenso würde man sich so an den Konkurenten binden, was wirtschaftlich totaler quatsch wäre. Zumal AMD keinen Einfluss drauf hätte, wie sehr NV eben die PhysX Software auf AMD Karten optimieren würde. Im schlimmsten Fall tut man da seitens NV alles andere, aber nicht optimieren.
Würde PhysX nicht von NV kommen, wäre die Situation allerdings ganz anders... So könnten beide an einem Strang ziehen.

mir erscheint es, als rudert AMD immer hinterher und hat eine miese softwareabteilung.. so zumindest mein eindruck, bei nicht in directX/openGL -stein gemeißelten funktionen.

Ebenso OT, und dazu wieder zu kurzsichtig...
Beispiel Eyefinity, Beispiel Sound via HDMI/DP usw. Dergleichen Sachen gibt es viele. Beide Firmen nehmen sich da überhaupt nix. Kommt halt auf die Auslegung an...



EDIT:
und zu dem Bild...
Das kräftigt doch nur meine Argumente hier...
Aber warum bringst du hier den i5 Test?
http://www.hardwarecanucks.com/foru...on-nvidia-s-graphics-plus-technologies-7.html
Der ist mindestens genau so gut...
Wenn der i7 bei fehlender Multicore Unterstützung im CPU PhysX schon so viele FPS schafft wie die 460GTX mit GPU PhysX, wo würde man dann sein, wenn alle freien CPU Ressourcen verwedet werden würde?
 
Zuletzt bearbeitet:
Wenn ich jetzt meine Ati und die Nvidia drinnen habe und alles läuft mit den effekten,kann ich dann,weil ich einen alten Nvidia treiber benutze,einfach den aktuellen drüberbugeln?
 
Testen... ;) Du wirst aber wohl den Mod neuanwenden müssen...
 
Was ziehst du denn für direkten Nutzen aus Cuda?

adobe premiere CS5 unterstützt mit CUDA-fähiger grafikkarte videoediting mit bis zu 10 AVC-HD bzw. 18 mpeg2-HD-spuren in echtzeit! (btw, CS5 ist übrigens der einzige grund, warum ich parallel ein 64bit windows pflege). ohne CUDA wirds ab 4 AVC-HD-spuren rucklig.
im alltag mache ich bei der AVC-dekodierung CPU-ressourcen frei, indem ich über coreAVC das video von der GPU dekodieren lasse. so lässt sich die CPU für andere dinge einsetzen. etwa für postprozess via avisynth und/oder skalierung via ffdshow-tryouts und das system bleibt ansprechbar. das ist gerade in media center pcs sinnvoll, die in aller regel nicht 16 cores + hyperthreading und 700W NT besitzen -> meine media center seite lesen!
Also ich hab auch ne NV Karte, das einzige Cuda Tool was ich mir besorgt habe ist Badaboom... Und das habe ich bereut, weil es nicht das kann, was ich will. Nämlich unkomprimierte VHS Aufnahmen zu digitalisieren, die schon seit Monaten enormen Speicherplatz auf meinen HDDs wegnehmen. --> kommt die Meldung, Quellformat wird nicht unterstützt.
da käme eh nur schrott bei raus. VHS wertig zu digitalisieren ist eine kunst.. übrigens eine, die ich bravorös beherrsche. -> meine harlock restauration bestaunen!
Zum Thema Profile, sowas hat AMD aber auch schon lange... Aber derartige Aussagen haben hier im Thread nix verloren da OT.
mitnichten, freund sonne, mitnichten. dass es profile gibt ist ein uralter hut, aus dem jeder anwender seit jeher in der useability nutzen zieht. und du fragtest, was ich mir unter innovation vorstelle bzw. was ich darunter verstehe. die antwort war "alles woraus ich als anwender einen nutzen ziehe" und die profile gehören nunmal maßgeblich dazu, wie auch SSAA und hybridmodi, die es bei NV seit äonen gibt. für mich sind die einfach näher am anwender.

Du denkst zu kurzsichtig... Warum will AMD wohl kein PhysX?
weil AMD kein geld mehr investieren will, als gerade so notwendig ist. hinter vorgehaltener hand wird schon länger gemunkelt, dass die selbst an der software-entwicklung sparen.

Ebenso OT, und dazu wieder zu kurzsichtig...
Beispiel Eyefinity, Beispiel Sound via HDMI/DP usw. Dergleichen Sachen gibt es viele. Beide Firmen nehmen sich da überhaupt nix. Kommt halt auf die Auslegung an...
das sind aber keine innovationen, die AMD erfunden hat. das sind notwendige für alle hersteller gleiche EINZIGE gangbare lösungen, um HD *hust* bluray ready und kompatible zum jeweils aktuellen HDMI-standard zu sein. eyefinity ist (für viele) schrott, den die welt nicht braucht. nochmal *hust* - zum zocken unbrauchbar und in der useabiltiy schlecht, weil zwingend displayport mit von der partie der angeschlossenen geräte sein muss. bei einigen karten sind sogar teure aktive adapter optional zu erwerben. zum thema spiele unter eyefinity gabs vor einiger zeit auch einen c't artikel, weiss nur grad aus dem stehgreif nicht mehr, welche ausgabe das war. ich meine mich aber zu erinnern, dass sich das fazit mit meiner meinung deckt.



Das kräftigt doch nur meine Argumente hier...
Aber warum bringst du hier den i5 Test?
Mafia II: Perfection for NVIDIA’s Graphics Plus Technologies? - Page 7
Der ist mindestens genau so gut...
ich werde beide nicht innig lesen, weil es mir nicht weiterhilft.. ich habe die nur überflogen, weil es hier zum thema passt (quergelesen) -> GPU-physX an oder aus.. je nachdem, was mir bessere frames auf die leinwand wirft. das ist meine lösung. aber ich muss auch nicht wettern, weil es ja sichtbar was bringt und vorhanden ist.. *schulterzuck*
Wenn der i7 bei fehlender Multicore Unterstützung im CPU PhysX schon so viele FPS schafft wie die 460GTX mit GPU PhysX, wo würde man dann sein, wenn alle freien CPU Ressourcen verwedet werden würde?
auch der hat nur 100% ressourcen und wenn er 30% seiner ressourcen für physik aufwendet, 15% für das OS und 55% für den code des spiels, dann wird sich die gleichung nicht ändern, wenn sich die verteilung der prozente verändert.. oder willste 2 coreI7 einbauen? einen für physik und einen für den rest?
oder soll sich jeder eine 800 euro CPU einbauen, statt auf die features (s)einer grafikkarte auszuweichen, die ungleich billiger ist/ die vorhanden ist? selbst ne dedizierte kleine gefrosch kostet nur sehr kleines geld. vielleicht wäre es die beste lösung, wenn AMD/ATI und NVidia einfach eigene spiele rausbrächten.. *kopfkratz*


(..)

mfg
tobi
 
Zuletzt bearbeitet:
hab jetzt den neuen treiber drauf,physx software neu aufgespielt,aber er übernimmt es nach einem neustart nicht
 
mitnichten, freund sonne, mitnichten. dass es profile gibt ist ein uralter hut, aus dem jeder anwender seit jeher in der useability nutzen zieht. und du fragtest, was ich mir unter innovation vorstelle bzw. was ich darunter verstehe. die antwort war "alles woraus ich als anwender einen nutzen ziehe" und die profile gehören nunmal maßgeblich dazu, wie auch SSAA und hybridmodi, die es bei NV seit äonen gibt. für mich sind die einfach näher am anwender.
Dein Blickwinkel ist viel zu begrenzt, du musst endlich mal über den Tellerand blicken...
Diese ganze AA Mischmodi Sache, genau so wie SSAA usw. bringen dir nur was, wenn du die neuesten vom neuesten GPUs hat... Sonst kannst das vergessen bei neuen Games.
AMD bietet wie schon gesagt ebenso CF Profile, die funktionieren idR auch sehr gut. Skallierung geht 1A. Was will man also als Anwender mehr?
Anwendungsspezifische Profile kannst du ebenso im CCC einstellen. Wo ist das Problem? Für das Game den AA Modi, für das eben diesen... usw.

weil AMD kein geld mehr investieren will, als gerade so notwendig ist. hinter vorgehaltener hand wird schon länger gemunkelt, dass die selbst an der software-entwicklung sparen.
Man kann sich eine Sache auch schönreden ;)
OK Dann frag ich weiter... Und warum will AMD NV kein Geld in den Rachen werfen - für ein Produkt, was quasi am Markt nicht vertreten ist, was trotzdem unsummen von Lizenzgebühren kostet, wo man sich an den Konkurenten binden müsste, und wo man keinen direkten Einfluss auf die Umsetzung der lizensierten Funktion auf die eigene Hardware hat?
Richtig, weil es unwirtschaftlich ist. Nicht mehr und nicht weniger...
Man arbeitet seitens AMD mit anderen zusammen um hier einen offenen Standard zu schaffen. Wobei Standard vllt bisschen das falsche Wort ist. Aber das Produkt soll nicht an einen Hardwarehersteller gebunden sein.
So und jetzt erklär mir mal bitte, was PhysX dann noch für eine Rolle spielen würde, wenn NV die Politik wie aktuell weiter fährt?


das sind aber keine innovationen, die AMD erfunden hat. das sind notwendige für alle hersteller gleiche EINZIGE gangbare lösungen, um HD *hust* bluray ready und kompatible zum jeweils aktuellen HDMI-standard zu sein. eyefinity ist (für viele) schrott, den die welt nicht braucht. nochmal *hust* - zum zocken unbrauchbar und in der useabiltiy schlecht, weil zwingend displayport mit von der partie der angeschlossenen geräte sein muss. bei einigen karten sind sogar teure aktive adapter optional zu erwerben. zum thema spiele unter eyefinity gabs vor einiger zeit auch einen c't artikel, weiss nur grad aus dem stehgreif nicht mehr, welche ausgabe das war. ich meine mich aber zu erinnern, dass sich das fazit mit meiner meinung deckt.
Ich weis ja nicht was du als Innovation verstehst, aber das eine AMD Karte quasi Sound selbst produziert um diesen über HDMI/DP auszugeben, ist dir wohl entgangen? Das ist nicht ein nötiges Feature für eine Funktion, sondern das ist was ganz neues, nie vorher auf dem Markt gewesenes.
Ebenso Eyefinity... Komisch kommen Gegenargumente nur von Leuten, die scheinbar nie was mit mehr wie einem Monitor zu tun hatten...

Ebenso ist mir unverständlich, was du gegen Displayport hast... Displayport bietet auch einige Vorteile gegenüber HDMI. Im übrigen, wenn das der vorhandene Monitor nicht kann, dann ists eben der falsche und es muss ein neuer her. Wer exklusiv Features nutzen will, darf halt nicht mit alter Hardware kommen. (Sinngemäß dein Argument von oben zu PhysX auf meine Aussage, das es nur brauchbar fix auf aktuellen Karten läuft)


ich werde beide nicht innig lesen, weil es mir nicht weiterhilft.. ich habe die nur überflogen, weil es hier zum thema passt (quergelesen) -> GPU-physX an oder aus.. je nachdem, was mir bessere frames auf die leinwand wirft. das ist meine lösung. aber ich muss auch nicht wettern, weil es ja sichtbar was bringt und vorhanden ist.. *schulterzuck*
vllt hättest du mal doch deutlicher gelesen, denn dort im Test schafft der i7 gleichviele FPS wie die GPU. Also warum die GPU nutzen? Welche obendrein noch ein vielfaches mehr Strom verballert.

auch der hat nur 100% ressourcen und wenn er 30% seiner ressourcen für physik aufwendet, 15% für das OS und 55% für den code des spiels, dann wird sich die gleichung nicht ändern, wenn sich die verteilung der prozente verändert.. oder willste 2 coreI7 einbauen? einen für physik und einen für den rest?
oder soll sich jeder eine 800 euro CPU einbauen, statt auf die features (s)einer grafikkarte auszuweichen, die ungleich billiger ist/ die vorhanden ist?

Das jetzt nicht dein Ernst diese Rechnung oder?
Wenn du gelesen hättest, was ich und andere hier vorher geschrieben haben, dann hättest du mitbekommen, das bei aktuellen Games, wo PhysX eingesetzt wird idR ca. 50% und mehr aller vorhandenen CPU Ressourcen (bei nem Quad) bzw. ca. 66% und mehr (bei nem Hexacore) brachliegen...
Und jetzt nochmal deine Rechnung mit den bestehenden Fakten bitte...

Von 800€ kann auch nicht die Rede sein für ne CPU... Ich sehe nen AMD Hexacore für unter 200€. Gleichsam gibts schnelle Intel Quads für ähnliche Preise.
Eine wirklich brauchbar schnelle GPU kostet im mindesten aktuell 250€... (470GTX) und ist bei einigen Spielen aktuell schon nicht zu gebrauchen, aufgrund der massiven PhysX Anforderungen...
 
Dein Blickwinkel ist viel zu begrenzt, du musst endlich mal über den Tellerand blicken...
Diese ganze AA Mischmodi Sache, genau so wie SSAA usw. bringen dir nur was, wenn du die neuesten vom neuesten GPUs hat... Sonst kannst das vergessen bei neuen Games.

*hust* wie flach ist denn dein tellerrand gerade? *kopfkratz* es ist normal, dass man AA nur da reindrückt, wo man es sich leisten kann und also zumindest mein freundeskreis spielt nicht nur die neuesten spiele.. und die, die ich kenne, die legal kaufen, kaufen nichtmal immer das neueste..

Man kann sich eine Sache auch schönreden ;)
OK Dann frag ich weiter... Und warum will AMD NV kein Geld in den Rachen werfen - für ein Produkt, was quasi am Markt nicht vertreten ist, was trotzdem unsummen von Lizenzgebühren kostet, wo man sich an den Konkurenten binden müsste, und wo man keinen direkten Einfluss auf die Umsetzung der lizensierten Funktion auf die eigene Hardware hat?
Richtig, weil es unwirtschaftlich ist. Nicht mehr und nicht weniger...
hehe.. dann liegts wenigstens nicht daran, dass physX zu schlecht ist.. *gg* woher willst du wissen, ob die lizenzgebüren nicht peanuts waren?
eigene suppe kochen ist toll.. dauert ewig und machts für die spieleentwickler noch einfacher, sich zu entscheiden. der dumme ist dann übrigens der AMD-kunde, der die 56xx/57xx/58xx gekauft hat, sie neben einen C2D oder C2Q steckt und mit CPU-physX dann schlechte laune entwickelt, weil die eigene suppe noch nicht fertig ist oder weil das spiel mafia oder metro heisst.

Man arbeitet seitens AMD mit anderen zusammen um hier einen offenen Standard zu schaffen. Wobei Standard vllt bisschen das falsche Wort ist. Aber das Produkt soll nicht an einen Hardwarehersteller gebunden sein.
So und jetzt erklär mir mal bitte, was PhysX dann noch für eine Rolle spielen würde, wenn NV die Politik wie aktuell weiter fährt?
mir gehts bei der grafikkarte um den anwendungswert im jetzt und hier und nicht um politik, was mal irgendwann kommen wird. ich bin anwender und nicht der sponsor für zukünftiges. bis es einen einheitlichen standard gibt, der sich am markt etabliert, wird es eh jeder IHV untestützen und ich habe weitere 800 euro für CS6-upgrade ausgegeben.. bis dahin tuts physX (zumindest in metro) (und auch CUDA in professionellem umfeld) sehr gut. meinem kleinen notebook bescheinigt der fluidmark ebenfalls 3x höhere werte als auf der CPU, auch wenn beides bescheiden ist.

Ich weis ja nicht was du als Innovation verstehst, aber das eine AMD Karte quasi Sound selbst produziert um diesen über HDMI/DP auszugeben, ist dir wohl entgangen? Das ist nicht ein nötiges Feature für eine Funktion, sondern das ist was ganz neues, nie vorher auf dem Markt gewesenes.
da sitzt genauso ein codec-dsp drauf, wie neuerdings auch auf NV-desktop-karten. notebooks mit NV-grafik +hdmi haben das auch schon länger. mein book gibts seit über 2 jahren und da ist das usus.
Ebenso Eyefinity... Komisch kommen Gegenargumente nur von Leuten, die scheinbar nie was mit mehr wie einem Monitor zu tun hatten...
keine ahnung wen du damit ansprichst.
Ebenso ist mir unverständlich, was du gegen Displayport hast...
..
Displayport bietet auch einige Vorteile gegenüber HDMI. Im übrigen, wenn das der vorhandene Monitor nicht kann, dann ists eben der falsche und es muss ein neuer her. Wer exklusiv Features nutzen will, darf halt nicht mit alter Hardware kommen. (Sinngemäß dein Argument von oben zu PhysX auf meine Aussage, das es nur brauchbar fix auf aktuellen Karten läuft)
gegen displayport habe ich gar nicht - wie kommst du darauf? ich habe etwas gegen die augenwischerei, dass blumig versprochen wird, dass man jetzt erstmals 3 displays gleichzeitig an einer karte aktivieren kann und im kleingedruckten steht dann, dass das dritte display zwingend über displayport angeschlossen werden muss. in meinem flachen suppenteller sind sowohl beamer als auch schreibtischdisplay baujahr 2010 und haben keinen displayport.. ärgerlich..

beim zocken ist meine einstellung konservativ. ein großes bild ist immer besser, als ein mosaik und für jedes genre taugt ein auf 3 oder 6 schirme aufgespanntes bild auch nicht - von dem performancehit bei auflösungen oberhalb von 3x fullHD ganz zu schweigen.

vllt hättest du mal doch deutlicher gelesen, denn dort im Test schafft der i7 gleichviele FPS wie die GPU. Also warum die GPU nutzen? Welche obendrein noch ein vielfaches mehr Strom verballert.
willst du mir jetzt was in den mund legen? es ist doch klar, dass jeder ausprobieren kann, ob der eigene prozessor oder die eigene grafikkarte die bessere lösung für das spiel der wahl ist.. *kopfkratz*

Das jetzt nicht dein Ernst diese Rechnung oder?
ob diese rechnung oder eine andere - es hat nicht jeder bock auf ein AMD-system, nur weil es billig ist und es hat auch nicht jeder, der kein bock auf AMD-system hat, auch automatisch geld für ein high-end-intel-system aus der jeweils aktuellen generation. und selbst wenn ich das geld jetzt mal ausklammere, macht es nicht für jeden sinn, einen schnellen C2Q gegen einen i7 auszutauschen, nur weil der genausoschnell in irgendwelchen benchmarks mit physik handtiert, wie die grafikkarte, die zur zeit den C2Q entlastet.

Eine wirklich brauchbar schnelle GPU kostet im mindesten aktuell 250€... (470GTX) und ist bei einigen Spielen aktuell schon nicht zu gebrauchen, aufgrund der massiven PhysX Anforderungen...
eine aktuelle fermi-karte und eine GT240 für 80 euro sollten völlig reichen - mit nahezu jeder noch brauchbaren CPU.

mit physX 3.0 wird im übrigen auch der multi-core-cpu-teil verbessert..

http://www.geeks3d.com/20100121/nvidia-multi-core-cpu-support-is-not-disabled-in-physx/
http://www.geeks3d.com/20100222/preview-multi-core-cpu-physx-on-a-quad-core-cpu/
http://www.geeks3d.com/20100526/physx-fluidmark-how-to-get-you-multi-core-cpu-busy-at-100/
http://physxinfo.com/news/2390/new-physx-fluidmark-1-2-first-tests/
http://www.pcgameshardware.de/aid,7...te-Physx-doch-multithreaded/Grafikkarte/News/
PhysX unterstützt jetzt schon multithreading auf CPUs aber nicht automatisch.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Ich werde heute abend nochmal die GT240 einbauen und nochmal testen was da dann so bei rum kommt bei mafia 2!
Allerdings glaube ich nicht das die GT240 lange drin bleibt weil da wurde ich zu oft von dem gesehenem entäuscht so das es für mich keinen wert hatte sie drin zu lassen!!
Naja ich melde mich hier dann nochmal mit dem fazit ob sichs lohnt ne 70€ karte zu nutzen@ mafia 2!
 
Hir sind ein paar Test die ich heute noch gemacht habe mit einer 4870 und eine GTX470er

Hauptkarte ist die ATi 4870 1024 MB und als PhysX ist die GTX 470er drin.
Einmal nur den Benchmark mit der CPU Phenom 9850 2,5 Ghz


Dan Zwei mit einer Einstellung
1650x1050 und 7 emitters



den anderen mit 1920x 1080 und 8 emitters


zum schluss habe ich noch einen gemacht und zwar einen mit 4 emitters
und 1920x1080


ich hoffe das euch weiter helfen kann :)

MfG Joker X

So eben mal den Mafia 2 Bench gemacht. nur weiss ich nich ob der auch mit PhysX gelaufen ist hir das Bild.

 
Zuletzt bearbeitet:
Hir sind ein paar Test die ich heute noch gemacht habe mit einer 4870 und eine GTX470er

Hauptkarte ist die ATi 4870 1024 MB und als PhysX ist die GTX 470er drin.
Kannst du bitte die GPU-Auslastung der PhysX Graka beim benchen beobachten (zB mit MSI-Afterburner) und die Erfahrung mitteilen. Meine PhysX-Graka wird nämlich stur bloss zu 50% belastet :(
So eben mal den Mafia 2 Bench gemacht. nur weiss ich nich ob der auch mit PhysX gelaufen ist hir das Bild.
Man kann doch die PhysX-Anzeige im Treiber aktivieren - dann siehst ob die CPU oder GPU die PhysX-Berechnungen macht... :) Bin mir aber nicht sicher obs auch bei einem Hybrid-Setup funzt...:confused:
 
@massaker
Ich hab in einem Game noch nie mehr als 60% gesehen (Mafia2), aber Fluidmark schafft ganze 80% :-)



Leider nur eine GT240, eine GTX280 wurde ähnlich ausgelastet.
 
Zuletzt bearbeitet:
Man kann doch die PhysX-Anzeige im Treiber aktivieren - dann siehst ob die CPU oder GPU die PhysX-Berechnungen macht... :) Bin mir aber nicht sicher obs auch bei einem Hybrid-Setup funzt...:confused:

Dat funkt nur im NV Setup. Verwendet man den Treibermod um auch bei ner AMD Hauptkarte GPU PhysX zu bekommen, geht die Anzeige nicht.

Sollte demnächst möglich sein,da ein paar Werte beizusteuern im direkten Vergleich mit einer 480GTX;)

Jupp, lass mal krachen... 4GHz bei 12 Cores. Ich denke da sieht ne einzell 480GTX ziemlich wenig Land. Bzw. wird nur noch wenig schneller sein...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh