NVIDIA verneint Vorwurf, Spieleentwickler für den Einsatz von PhysX zu bestechen

verstehe die logik da auch nicht, ich kauf mir doch keine physic karte obwohl meine cpu nicht mal halb ausgelastet ist... da kann das ding 3mal schneller sein.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich kann mir nicht vorstellen das selbst die stärkste Intel Core CPU mit einer komplexen Physikberechnung in Echtzeit klar kommen würde.

Es ging mir jetzt eher um die Praxis und da ist es bei games so.

Und was bei dir Komplex , man kann auch was so komplex gestallten das sicher auch 4x Fermis im SLI keine echtzeit hinbekommen.
 
Ich kann mir nicht vorstellen das selbst die stärkste Intel Core CPU mit einer komplexen Physikberechnung in Echtzeit klar kommen würde.

welche komplexen berechnnungen, von welchem spiel reden wir den ;) ?

fakt ist alles was man aktuell mit den nv physic karten zu sehen bekommt kann auch jede cpu berechnen. daher sind die karten einfach unnötig.
 
Ich kann mir nicht vorstellen das selbst die stärkste Intel Core CPU mit einer komplexen Physikberechnung(z.B 500000 physikalisch berechnete Fragmente) in Echtzeit klar kommen würde.

Also von Langeweile kann bei CPUs da nicht die Rede sein

Nenn mir ein Spiel wo ich das nutzen kann und die CPU in die knie geht und sag nicht Batman AA mit PhysX , denn da langweilt sich meine CPU auch obwohl die Frames net über 20 gehen :d (hoch lebe die 1 kern beschrenkung :d )
 
fakt ist alles was man aktuell mit den nv physic karten zu sehen bekommt kann auch jede cpu berechnen. daher sind die karten einfach unnötig.

Na dann möchte ich gerne mal die Rocket Sleed Demo mit 1 Millionen Partikeln auf der CPU berechnet sehen wird bestimmt ne lustige Diashow;)

Es ging hier im allgemeinen um die Aussage das die GPU nicht performanter mit Physik rechnet wie die CPU und das ist nunmal der Fall
 
Zuletzt bearbeitet:
Na dann möchte ich gerne mal die Rocket Sleed Demo mit 1 Millionen Partikeln auf der CPU berechnet sehen wird bestimmt ne lustige Diashow;)

Wusst garnicht das Fermi ne aktuelle NV karte ist die ich mir kaufen kann :P


ne , sone tolle techdemo für ne kartze die es noch net gibt ;)


Aber was bleibt von so einer Demo in der Praxis?
 
Wusst garnicht das Fermi ne aktuelle NV karte ist die ich mir kaufen kann :P


ne , sone tolle techdemo für ne kartze die es noch net gibt ;)


Aber was bleibt von so einer Demo in der Praxis?


Trotz allem ändert es an der Tatsache nichts das die GPU dafür besser geeignet ist als ein derzeitiger 2,4 oder 6 Kern Intel/AMD Prozessor
 
Trotz allem ändert es an der Tatsache nichts das die GPU dafür besser geeignet ist als ein derzeitiger 2,4 oder 6 Kern Intel/AMD Prozessor

Ich hab nie gesagt das die GPU langsamer ist oder wär;)

Nur das sich heutie CPUs bei games langweilen , sogar wenn die Physik auf der CPU berechnet wird.

Und das die effekte die uns NV hier als GPU PhysX verkauft in spielen auch mit der CPU laufen würden.

(und damit mein ich keine extra demos von NV , sondern echte spiele ;) )
 
Ich hab nie gesagt das die GPU langsamer ist oder wär;)

;) )

Du warst ja auch nicht der auf dessen Beitrag ich geantwortet habe wenn ich mich recht entsinne

Das war der Beginn

Das ist aber genauso Unfug,wenn du die CPU der GPU gegenüberstellst

Ich glaube nicht das man noch erwähnen muss das die Vielzahl an Shaderprozessoren bei solchen Anwendungen,den maximal 8 Cores(Mit HT) einer CPU weit überlegen sind
 
Zuletzt bearbeitet:
Nach ein paar edits :d

Aber das ganze ändert immernoch nichts daran das NV uns bisher was verkaufen will was auch eine CPU schaffen würde ;)
 
Trotz allem ändert es an der Tatsache nichts das die GPU dafür besser geeignet ist als ein derzeitiger 2,4 oder 6 Kern Intel/AMD Prozessor

Das ganze hängt doch auch stark von der Anwendung ab. Wenn ich eine PhysX Bench Demo vergleiche, wo ausschließlich die Leistungsfähigkeit von PhysX geprüft wird, ist der Unterschied gewaltig.

Vergleicht man aber alltags Game Settings, wo die GPU teils schon aus dem letzten Loch pfeift um überhaupt brauchbar flüssige FPS Raten auf den Schirm zu zaubern, wo soll da noch Leistung für PhysX herkommen?

Der Ansatz ansich mit Physikberechnungen auf der GPU ist zwar ein recht brauchbarer. Aber die GPU entwickelt sich zunehmend zu dem, was die CPU aktuell ist --> die Eierlegende Wollmilchsau.
Ich frage mich ernsthaft, wie lange das noch gut gehen wird... Wenn man sich anschaut, die Shadereinheiten der GPUs werden mittlerweile schon für haufenweise Zeug missbraucht. Aber kommt alles zusammen, besteht durchaus die Gefahr, das für das eigentliche (nämlich die Berechnung des Bildes) nicht mehr genug Leistung übrig bleibt. Und genau an dem Punkt nutzt einem die theoretische Leistung bei beispielsweise PhysX via GPU gar nix mehr...

Wie waren die letzten Meldungen von Metro 2033? Fermi als Empfohlene Karte + G200er Karte für PhysX only?
Das nenne ich mal voll an der Realität vorbei...
 
dark void schreibt auch eine GTX260 als PhysX karten, neben der eigentlichen GPU, vor.

Und das für son bissel rauch und funken :d
 
Vergleicht man aber alltags Game Settings, wo die GPU teils schon aus dem letzten Loch pfeift um überhaupt brauchbar flüssige FPS Raten auf den Schirm zu zaubern, wo soll da noch Leistung für PhysX herkommen?

...

Sehe es doch mal anderst herum wenn eine aktuelle Grafikkarte schon "auf dem letzten Loch pfeift"um sämtliche Berechnungen auszuführen wieviel Recourcen werden dann wohl noch bei der CPU abgezweigt werden können um diese Physik Hausaufgabe zu erledigen;)
 
Sehe es doch mal anderst herum wenn eine aktuelle Grafikkarte schon "auf dem letzten Loch pfeift"um sämtliche Berechnungen auszuführen wieviel Recourcen werden dann wohl noch bei der CPU abgezweigt werden können um diese Physik Hausaufgabe zu erledigen;)

Das sind ja jetzt mal 2 paar schuhe, es gibt auch spiele die total GPU limitieren , da langweilt sich die CPU und hat noch genug luft, wobei die GPU bei 100% auslastung ist.
 
Das sind ja jetzt mal 2 paar schuhe, es gibt auch spiele die total GPU limitieren , da langweilt sich die CPU und hat noch genug luft, wobei die GPU bei 100% auslastung ist.

Ich hab noch kein aktuelles Spiel gesehen wo die CPU bei 5% rumdümpelt und eine aktuelle Grafikkarte am Anschlag arbeitet,nichtmal bei dafür ausgelegten Grafikbenchmarks

Die Auslagerung der Physikberechnung auf einen Grafik Prozessor der mit mehreren Threads besser umgehen kann ist einfach die logischte Entscheidung als sie einem maximal 6 Kern Prozessor zu überlassen
 
Zuletzt bearbeitet:
Ich hab noch kein aktuelles Spiel gesehen wo die CPU bei 5% rumdümpelt und eine aktuelle Grafikkarte am Anschlag arbeitet

wer spricht denn hier von 5% :hmm::stupid:

Und wenn du dicke Physik effekte haben willst spielst sicher auch nocht auf 800x600 , das die GPU nichts zu tun hat.

Spiel mal ein paar neue spiele auf ein Quad, der ist seltenst mit allen kernen auf 100% , die grakka bekommt man da schnell mal hin , mit bisl AA und AF

---------- Beitrag hinzugefügt um 23:17 ---------- Vorheriger Beitrag war um 23:15 ----------

Ich hab noch kein aktuelles Spiel gesehen wo die CPU bei 5% rumdümpelt und eine aktuelle Grafikkarte am Anschlag arbeitet,nichtmal bei dafür ausgelegten Grafikbenchmarks

Und nochmal für dein Edit ;)

Schau dir Heaven an , da ist bei mir net mal 1!!! Kern bei 100% , die andern 3 machen nüscht, und die grakka ist bei 100% ;) so viel zu deinem benchmarks ;)
 
Zuletzt bearbeitet:
Sehe es doch mal anderst herum wenn eine aktuelle Grafikkarte schon "auf dem letzten Loch pfeift"um sämtliche Berechnungen auszuführen wieviel Recourcen werden dann wohl noch bei der CPU abgezweigt werden können um diese Physik Hausaufgabe zu erledigen;)

Was bringt es mir das anders rum zu betrachten?
IdR ist die GPU das limitierende Stück Hardware... Und das ist nicht zuletzt deswegen so, weil sich im Moment der Trend zu Full HD Auflösung und AA/AF am Durchsetzen ist...

Packst du da noch extrem aufwendige Physikberechnung oben drauf, funkt das eben nicht. Es bringt also nichts über Dinge zu Diskutieren, die so überhaupt nicht praktikabel sind. Wenn die GPU Leistungsmäßig am Ende ist, kann auf ihr noch so viel Physik potentiell berechenbar sein, es nutzt dem Kunden aber nichts...
Und das bisschen was man vllt abzweigen kann, wodurch die FPS im Schnitt nicht so arg gedrückt werden würden, das kann mit Sicherheit eine CPU auch ähnlich schnell berechnen.

Das wäre dann eine praxisnahe Betrachtung der Dinge. Nicht irgendwelche Techdemos, die nur dafür da sind zu zeigen, was alles machbar wäre...

Mal ganz davon ab, hat nich jeder hier ne 285er GTX im Rechner am werkeln. Um so kleiner die GPU, desto größer wird das genannte Problem. Und schon sind wir wieder an dem Punkt, das es wenig Sinn für den Endkunden macht, GPUs noch weiter zu belasten.
Zumahl es ja auch Games gibt, die nichmal auf den aktuellen HighEnd Karten mit max. Details und FullHD Auflösung (selbst ohne Physikberechnungen zusätzlich) derart Flüssig laufen, das man noch viel Luft für Physik hätte...

Die Auslagerung der Physikberechnung auf einen Grafik Prozessor der mit mehreren Threads besser umgehen kann ist einfach die logischte Entscheidung als sie einem maximal 6 Kern Prozessor zu überlassen

Die Aussage ist doch Murks... Eine CPU kann mit mehreren Threads genau so gut umgehen wie eine GPU. Die Sache ist eher eine Frage der Geschwindigkeit, sprich wie viele Anweisungen kann die CPU und wie viele Anweisungen kann die GPU berechnen...
Wenn man eine CPU hat (sagen wir 4 Kerne) die in Games mit sagen wir 25-40% (durchaus in den meisten Games so anzutreffen) belastet wird, dann bleiben da immernoch gut 60-75% der Zeiteinheit, die die CPU nix macht.
Eine GPU, die aufgrund von hohen Detaileinstellungen, hohen Auflösungen und AA/AF und anderen Schmankerln aber vollständig ausgelastet ist, wäre in dem Fall ohne Leistungseinbußen nicht in der Lage, überhaupt Berechnungen durchzuführen...

Das erinnert mich gerade an Tokio Drift. Wo Han sagte, 50% von etwas, sind besser wie 100% von nichts ;)


Mal ganz davon ab muss die GPU in dem Fall nicht nur die Physik berechnen, sondern es bedarf auchnoch (je nach Effekt) einen nicht immer nur sehr kleinen Anteil an Leistung um den Effekt auchnoch Grafikmäßig ins Bild zu bringen. Sprich Physik berechnet auf der GPU bedarf sogar eigentlich doppeltem Aufwand ;)
 
Zuletzt bearbeitet:
Packst du da noch extrem aufwendige Physikberechnung oben drauf, funkt das eben nicht. ...

Das funktioniert ebensowenig bei extrem aufwendigen (mit vielen Rechenprozessen) Physikberechnungen auf der CPU,es ist doch nicht so das die CPU schlafen tut bei der Darstellung eines Games.Und die CPU hat nunmal nur ein paar wenige Kerne für Berechnungen zur Verfügung.

Und das sehe ich nicht als Murks an
 
Zuletzt bearbeitet:
Das funktioniert ebensowenig bei extrem aufwendigen (mit vielen Rechenprozessen) Physikberechnungen auf der CPU,es ist doch nicht so das die CPU schlafen tut bei der Darstellung eines Games.Und die CPU hat nunmal nur ein paar wenige Kerne für Berechnungen zur Verfügung.

Und das sehe ich nicht als Murks an

ok also lieber etwas was zu 100% ausgelastet ist mehr auslasten als etwas langsameres was sich langweilt ganz auszulassen, jetzt hab ich dich verstanden :d
 
Das funktioniert ebensowenig bei extrem aufwendigen (mit vielen Rechenprozessen) Physikberechnungen auf der CPU,es ist doch nicht so das die CPU schlafen tut bei der Darstellung eines Games.Und die CPU hat nunmal nur ein paar wenige Kerne für Berechnungen zur Verfügung.

Das spielt doch keine Rolle... Du hängst dich hier an absoluten Zahlen auf. Das ist der Fehler bei der Sache.

Es spielt absolut keine Rolle wie aufwendig der Effekt ist... Wie man es von den "Anhängern" von PhysX immer zu lesen bekommt ist der Vorteil eben der, das eine GPU extrem viel schneller als eine CPU agieren kann. Das stimmt auch, aber nur soweit, wie die GPU halt "frei" dafür ist! Führt sie aber ihre eigentliche Aufgaben aus, sprich berechnet sie die Frames, bleibt von der eigentlichen theoretsichen Mehrleistung nicht mehr sonderlich viel über, wenn überhaupt...

Eine Quadcore CPU hingegen ist bei heutigen Games idR zu 60-75% frei, mittlerweile vllt auch bisschen weniger, je nach Spiel und Situation... Die kommenen Hexacores im Desktop Markt bringen nochmal 2 Cores mehr mit, die nicht wirklich genutzt werden. Und so wird das weiter gehen...
 
ok also lieber etwas was zu 100% ausgelastet ist mehr auslasten als etwas langsameres was sich langweilt ganz auszulassen, jetzt hab ich dich verstanden :d

So und jetzt sag mir mal bei wie vielen Spielen??? in welcher Auflösung??? du gnadenlos ins GPU Limit läufst das ist doch Humbug davon auszugehen das bei 50% der Spiele (und das ist schon hochgegriffen),bei heutig gängigen Auflösungen(24") dies der Fall wird:cool:

Und nein bitte nicht mit dem Spiel Crysis
 
Zuletzt bearbeitet:
So und jetzt sag mir mal bei wie vielen Spielen??? in welcher Auflösung??? du gnadenlos ins GPU Limit läufst das ist doch Humbug davon auszugehen das bei 50% der Spiele (und das ist schon hochgegriffen),bei heutig gängigen Auflösungen dies der Fall wird:cool:

Und nein bitte nicht mit dem Spiel Crysis

Also ich spiele in 1920x1200 und nimm gern AA und AF mit und wenn ich dann Stalker CoP anschauen oder CoD:MW2 oder Borderlands , dann muss ich feststellen das die GPU eher bei 100% ist als meine CPU ( die bei den titeln nicht annähernt ausgelastet ist )


Und wenn du schon mit gängig anfängst dann ist eine GTX285 nicht gängig und eine 5870 erst recht nicht , wenn man die GPUs der masse anschaut , dann ist die GPU schon ohne AA oder AF meist bei 100% und das bei 1680 ;)
 
Zuletzt bearbeitet:
So und jetzt sag mir mal bei wie vielen Spielen??? in welcher Auflösung??? du gnadenlos ins GPU Limit läufst das ist doch Humbug davon auszugehen das bei 50% der Spiele (und das ist schon hochgegriffen),bei heutig gängigen Auflösungen dies der Fall wird:cool:

Und nein bitte nicht mit dem Spiel Crysis

Schau dir doch die Benchcharts der gängigen Reviewseiten an...
Du gewinnst mit stärkeren Karten auch gut an FPS. Das es nicht immer 100% GPU Limitiert ist, sollte klar sein. Aber der Trend geht eindeutig zu FullHD + AA/AF. Und das macht die Sache sicher nicht einfacher...
Man erkennt anhand der Games sehr schön, das das was an GPU Leistung theoretisch hinzukommt auch nahezu komplett in der Praxis umgesetzt werden kann. Und das Band zieht sich von der unteren Mittelklasse bis hin zum HighEnd Bereich.

Wenn ich mir da ansehe, was eine aktuelle Mittelklasse Karte in den neueren Games für FPS bei 1920x1080 und 4xAA/16xAF an FPS bietet, dann will ich nicht wissen, was da bei zusätzlicher Physikberechnung noch bei rum kommt...

Und nein, dabei meine ich nicht Crysis, sondern Games, ala Dirt, CoD6 usw.

Man kann also mit nichten sagen, das die GPUs noch soo viel Luft hätten um Physikberechnungen spielend auf einer Arschbacke mit abzudrücken...
 
ganz erlich keiner braucht PhysX, Crysis hat z.b. die beste Grafik aller spiele

Ich hab z.b. kein PhysX, das hilft sowieso nichts!

Crysis Very High 1680x1050 @4AA, 64 Bit, DX10, Map Outpost

62,9 AVG FPS




Online habe ich immer 60-80 FPS.

Und für alle meine anderen Spiele brauche ich auch kein Physx

Meine Karte haut jede GTX295 mit 20% vorsprung weg!!!
 
Zuletzt bearbeitet:
So und jetzt sag mir mal bei wie vielen Spielen??? in welcher Auflösung??? du gnadenlos ins GPU Limit läufst das ist doch Humbug davon auszugehen das bei 50% der Spiele (und das ist schon hochgegriffen),bei heutig gängigen Auflösungen(24") dies der Fall wird:cool:

Und nein bitte nicht mit dem Spiel Crysis

Wenn ich will krieg ich jedes aktuelle Game das nicht gerade auf Source- oder Unreal-3-Basis läuft ins GPU-Limit. Erstrecht in Full-HD-Auflösungen.

Was das ganze PhysX-Thema angeht:

Ich finde die Idee das ganze auf der GPU zu machen durchaus klug und praktikabel. Solange die Grafikkarten genug Leistungsreserven hat, um ein flüssiges Bild zu berechnen dessen Qualitätseinstellungen mich zufrieden stellen. Die Frames stehen immer an erster Stelle.
Das Problem dabei ist, dass die allermeisten Games bei entsprechenden Qualitätssettings absolut GPU-limitiert sind. Full-HD-Auflösungen mit AA über 4x, am besten noch in Qualitätssettings bzw. in der Super Sampling Variante und jede aktuelle Karte pfeift aus dem letzten Loch. Wo ist da noch die Leistung über um Physik-Effekte zu berechnen. Ich hab einige PhysX-Games gespielt und war sehr angetan von dem was man zu sehen bekommt, aber mir nützt es nichts wenn die Wand physikalisch korrekt kollabiert aber dabei meine Frames in den Keller sinken.
Solange aktuelle Game-Engines derartig wenig auf Multi-Core getrimmt sind wie derzeit ist ne Menge Luft auf den Quad-Core-CPUs um Physikberechnungen durchzuführen.
 
der gag an physx ist doch das du dir eine zweite graka zu kaufen hast.
am besten eine 3 jahre alte & 3 mal umgelabelte. mit dem alten zores kann man richtig schön reibach machen.
darum gehts um nicht mehr.

es gibt aktuell kein game das physx effekte bietet die nicht auch von einem mehrkerner locker berechnet werden könnten.
 
es gibt aktuell kein game das physx effekte bietet die nicht auch von einem mehrkerner locker berechnet werden könnten.

dann zeig mal vergleichbare benchmarkt ergebnisse oder Besser alle die behaupten PhysX Effekte könnten von CPU's locker übernommen werden und umgekehrt. Weil sagen das das eine schlechter ist als das andere kann jeder. Ich bezihe mich wenigstens sogut es geht noch auf quellen.
 
wieviele spiueler haben einen quad oder gar 6kerner und wieviele spieler haben eine alte karte die physix-fähig ist?
was kann man günstiger beschaffen? nen highend-prozessor oder ne gebrauchte graka der ehemaligen mittelklasse?

eure großen cpus mögen vielleicht nicht zu 100%ausgelastet sein, aber der große teil der doppelkernbesitzer ist auchn och ganz gut bei neueren spielen dabei und die muss man nun nicht um physikeffekte bringen, indem man einfach vorraussetzt, dass man ne 4 kernige cpu hat, wo 2kerne nur zu 50% ausgelastet sind und einen hauch von dem, was eine physik-graka schaffen kann, mitmachen müssen...
ich finde auch, es spricht verdammt wenig dafür alles auf die cpu zu schieben, man kann es wesentlich einfacher und für kunden günstiger auf grakas machen.
und wehe, jetzt kommt einer mit dem beispiel:fetten 6kerner auf miniboard, dass nur 1 pcie-anschluß hatt... pech gehabt, gibt auch genug bretter, die keinen 6kerner vertragen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh