An dieser Stelle möchten wir Ihnen ein Youtube-Video zeigen. Ihre Daten zu schützen, liegt uns aber am Herzen: Youtube setzt durch das Einbinden und Abspielen Cookies auf ihrem Rechner, mit welchen sie eventuell getracked werden können. Wenn Sie dies zulassen möchten, klicken Sie einfach auf den Play-Button. Das Video wird anschließend geladen und danach abgespielt.
Youtube Videos ab jetzt direkt anzeigen
Fps drops sind schon heftig
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei mir gestern in der Cryostasis Tech-Demo: Von 280 FPS auf 8-14 FPS, sobald Wasser berechnet werden musste.
Man darf da die normalen FPS, die das Spiel läuft, nicht mit der PhysX-Berechnung durcheinander bringen. Letztere war immer schon mega hart für die CPU, deswegen wurde sie ja auf die GPU ausgelagert.
Alle genannten alten Spiele würden auf aktuellen CPUs mehr als genug Frames haben, nur sobald PhysX berechnet werden soll, brechen die FPS brachial ein. Falls sich PhysX abstellen lässt, okay, kannste die Games wenigstens spielen, nur sehen sie dann eben nicht so gut aus. In Mafia 2 z.B. waren die zig Scherben oder Mauerteile, die auf dem Boden herumlagen, eine Pracht. Blöd isses halt, wenn das Spiel nicht zulässt, dass PhysX abgestellt wird. Dann ist das Game - zumindest zum jetzigen Stand - mit den RTX 5xxx-er Karten nicht mehr spielbar.
An dieser Stelle möchten wir Ihnen ein Youtube-Video zeigen. Ihre Daten zu schützen, liegt uns aber am Herzen: Youtube setzt durch das Einbinden und Abspielen Cookies auf ihrem Rechner, mit welchen sie eventuell getracked werden können. Wenn Sie dies zulassen möchten, klicken Sie einfach auf den Play-Button. Das Video wird anschließend geladen und danach abgespielt.
Das denke ich auch, weil PhysX stammt ja auch uralten Zeiten. Ich weis nach das ganz früher mal PhysX Karten für PCI verkauft wurden zur Kombination mit Nvidia Riva, ATI Rage und Matrox Grafikkarten. Erst die Nvidia GeForce 256 war dann die erste Grafikkarte die es integriert hatte. Aber selbst damals ging es ohne. Und die häufigen Pentium 4 CPUs damals hatten ja nur einen einzigen Kern.
Ja in Spielen mit 32bit Engine/.exe kann bei RTX 5000 Karten PhysX zwar aktiviert werden, wird dann aber zu 100% von der CPU berechnet. Das führt bei jeder aktuell erhältlichen top Gaming CPU inkl. 9800X3d (bei mir 5800X3D) zu Einbrüchen weit unter 20 manchmal sogar unter 10 fps in PhysX intensiven Scenen. Da reicht es Batman Arkham Asylum zu starten und in der ersten Scene mit den Wärtern und dem Joker auf seinem Bollerwagen durch den Flur mit Dampf zu gehen. Mit nem 5800X3D und ner RTX 5070 Ti rutscht man dann bei aktivem PhysX auf weit unter 20fps runter. In vielen Titel wie Batman Arkham Reihe (Asylum, City, Knight & Origins), Metro 2033 & Last Light, Borderlands 2, Cryostatis, Mafia 2 (classic), Ghost Recon Advanced Warfighter 2 und einigen weiteren Perlen rutscht man regelmäßig in den 10-15 fps Bereich runter, womit man diese Spiele mit aktiviertem PhysX als unspielbar betrachten kann. Ja bei all diesen Spielen kann man PhysX abschalten. Dann laufen die natürlich super. Aber wenn man High End unterwegs ist, will man ja gerade bei Klassikern auf nichts verzichten. Aber eine Lösung gibt es. Lest euch mal hier rein. https://www.reddit.com/r/nvidia/com...a_gt_1030_as_a_dedicated_physx_card/?sort=new
Ich selbst habe genau wie dort vorgemacht eine GT 1030 zu meiner RTX 5070 Ti dazu gepackt. Die habe ich für 15€ auf Kleinanzeigen geschossen. Die Karte hat ne TDP von 30w und zieht unter PhysX Last nur ca. 9w. Aber so hat man mit ner 5000er Karte mehr FPS als mit ner 4000er Karte standalone. Allgemein läuft und lief PhysX schon immer erst mit ner dedizierten PhysX Karte so richtig gut. Im Mafia 2 (Classic) Benchmark auf Preset Otimal mit AA in 4K erreicht mein System (5800X3D, 32gb DDR4 3800mhz, RTX 5070 Ti +400mhz GPU & GT 1030 im Control Panel als dedizierte PhysX Beschleuniger festgelegt) 125,7 fps Durschnitt .
Da ich ein Mini-ITX Build in einem NZXT H1 V2 habe, wo's naturbedingt nur einen PCIe Slot gibt, habe ich die GT 1030 bei mir sogar mit einem M.2 zu PCIe x16 Adapter (der nur mit x1 angebunden ist) an meinen 2. NVMe Slot angeschlossen =D reicht dicke und stellt keinerlei Bottleneck dar. Ich kann nun alles in voller Pracht zocken.
Das denke ich auch, weil PhysX stammt ja auch uralten Zeiten. Ich weis nach das ganz früher mal PhysX Karten für PCI verkauft wurden zur Kombination mit Nvidia Riva, ATI Rage und Matrox Grafikkarten. Erst die Nvidia GeForce 256 war dann die erste Grafikkarte die es integriert hatte. Aber selbst damals ging es ohne. Und die häufigen Pentium 4 CPUs damals hatten ja nur einen einzigen Kern.
Blödsinn. Kein PhysX spiel lief mit aktivierten PhysX auf nem Pentium 4 mit einer AMD Grafikkarte jemals flüssig... außer man hatte gehackte Nvidia Treiber die es kurzzeitig ermöglichten PhysX mit einer AMD Karte zu beschleuningen. PhysX lief schon immer nur mit ganz früher PCI Ageia PhysX Beschleuniger Karten und dann nur noch mit Nvidia GPUs die eben Hardwareseitige PhysX Beschleunigung beherrschten. Das waren quasi alle Nvdia Geforce GPUs bis hin zur RTX 4000 Reihe. Seit 5000 ist Schluss mit 32bit PhysX bzw. 32bit Cuda. Jetzt muss es der CPU berechnen, wenn keine kompatible PhysX beschleunigerkarte verbaut ist. Und da kann dein CPU der jetzt Zeit noch so dick sein, es wird ruckeln wie hölle. Und wenn irgendwer ohne Nvidia GPU damals PhysX Spiele flüssig auf einem Pentium 4 gespielt hat, dann nur mit deaktivierten PhysX. Dieses musste man schließlich in jedem Spiel in den Settings gezielt aktivieren. Bei Systemen ohne Nvidia GPU ging das dann zwar, wurde aber mit definitv unterirtischer Performance belohnt. Keine Change für nen Pentium 4 und allem was danach kam bis zu den heutigen top CPUs.
Das denke ich auch, weil PhysX stammt ja auch uralten Zeiten. Ich weis nach das ganz früher mal PhysX Karten für PCI verkauft wurden zur Kombination mit Nvidia Riva, ATI Rage und Matrox Grafikkarten. Erst die Nvidia GeForce 256 war dann die erste Grafikkarte die es integriert hatte. Aber selbst damals ging es ohne. Und die häufigen Pentium 4 CPUs damals hatten ja nur einen einzigen Kern.
Ähh...ich glaube du verwechselst das mit T&L (Transforming & Lightning) was die erste GeForce in Hardware integriert hatte. Davor gab es nur Software T&L oder ganz wenige exoten-Karten mit dedizierter T&L Einheit.
PhysX gabs von Ageia als PCI zusatzkarte, glaube 2004 rum war das. 2008 hatte Nvidia die ja aufgekauft und integrierten diese Funktion später über den Treiber für GeForce karten ab der 8er Serie, weil diese erstmalig CUDA Unterstützung bzw. auch UnifiedShader boten worauf das PhysX zeugs eben umgeschrieben wurde.
Kann sein das ich das verwechselt hab, der name Ageia kommt mir jetzt auch wieder in Erinnerung. Hab davon öfter mal in den PC-Zeitschriften gelesen. Aber ich kannte in meinem Umfeld niemanden der so eine Karte wirklich besessen hätte.
Ich hatte damals so eine PhysX Karte. War eine nette Spielerei aber soo viel Support gab es dafür jetzt auch nicht. Hat sich für mich eig kaum gelohnt aber es war Hardware die ich mir leisten konnte als Schüler Für ne neue GPU hat es nicht gereicht aber so ein Ding konnte ich mir einbauen