GeForce-RTX-50-Serie: Unterstützung für 32 Bit PhysX beendet


Fps drops sind schon heftig :unsure:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Spieler berichten von "stark eingebrochenen FPS". Von 600 auf 400?
Bei mir gestern in der Cryostasis Tech-Demo: Von 280 FPS auf 8-14 FPS, sobald Wasser berechnet werden musste.
Man darf da die normalen FPS, die das Spiel läuft, nicht mit der PhysX-Berechnung durcheinander bringen. Letztere war immer schon mega hart für die CPU, deswegen wurde sie ja auf die GPU ausgelagert.

Alle genannten alten Spiele würden auf aktuellen CPUs mehr als genug Frames haben, nur sobald PhysX berechnet werden soll, brechen die FPS brachial ein. Falls sich PhysX abstellen lässt, okay, kannste die Games wenigstens spielen, nur sehen sie dann eben nicht so gut aus. In Mafia 2 z.B. waren die zig Scherben oder Mauerteile, die auf dem Boden herumlagen, eine Pracht. Blöd isses halt, wenn das Spiel nicht zulässt, dass PhysX abgestellt wird. Dann ist das Game - zumindest zum jetzigen Stand - mit den RTX 5xxx-er Karten nicht mehr spielbar.
 
 
Ganz ehrlich, in zeiten von 8-16 Kern CPU's (16-32 mit HT) wird das kaum in's Gewicht fallen.
Das denke ich auch, weil PhysX stammt ja auch uralten Zeiten. Ich weis nach das ganz früher mal PhysX Karten für PCI verkauft wurden zur Kombination mit Nvidia Riva, ATI Rage und Matrox Grafikkarten. Erst die Nvidia GeForce 256 war dann die erste Grafikkarte die es integriert hatte. Aber selbst damals ging es ohne. Und die häufigen Pentium 4 CPUs damals hatten ja nur einen einzigen Kern.
 
Ja in Spielen mit 32bit Engine/.exe kann bei RTX 5000 Karten PhysX zwar aktiviert werden, wird dann aber zu 100% von der CPU berechnet. Das führt bei jeder aktuell erhältlichen top Gaming CPU inkl. 9800X3d (bei mir 5800X3D) zu Einbrüchen weit unter 20 manchmal sogar unter 10 fps in PhysX intensiven Scenen. Da reicht es Batman Arkham Asylum zu starten und in der ersten Scene mit den Wärtern und dem Joker auf seinem Bollerwagen durch den Flur mit Dampf zu gehen. Mit nem 5800X3D und ner RTX 5070 Ti rutscht man dann bei aktivem PhysX auf weit unter 20fps runter. In vielen Titel wie Batman Arkham Reihe (Asylum, City, Knight & Origins), Metro 2033 & Last Light, Borderlands 2, Cryostatis, Mafia 2 (classic), Ghost Recon Advanced Warfighter 2 und einigen weiteren Perlen rutscht man regelmäßig in den 10-15 fps Bereich runter, womit man diese Spiele mit aktiviertem PhysX als unspielbar betrachten kann. Ja bei all diesen Spielen kann man PhysX abschalten. Dann laufen die natürlich super. Aber wenn man High End unterwegs ist, will man ja gerade bei Klassikern auf nichts verzichten. Aber eine Lösung gibt es. Lest euch mal hier rein. https://www.reddit.com/r/nvidia/com...a_gt_1030_as_a_dedicated_physx_card/?sort=new

Ich selbst habe genau wie dort vorgemacht eine GT 1030 zu meiner RTX 5070 Ti dazu gepackt. Die habe ich für 15€ auf Kleinanzeigen geschossen. Die Karte hat ne TDP von 30w und zieht unter PhysX Last nur ca. 9w. Aber so hat man mit ner 5000er Karte mehr FPS als mit ner 4000er Karte standalone. Allgemein läuft und lief PhysX schon immer erst mit ner dedizierten PhysX Karte so richtig gut. Im Mafia 2 (Classic) Benchmark auf Preset Otimal mit AA in 4K erreicht mein System (5800X3D, 32gb DDR4 3800mhz, RTX 5070 Ti +400mhz GPU & GT 1030 im Control Panel als dedizierte PhysX Beschleuniger festgelegt) 125,7 fps Durschnitt :).

Da ich ein Mini-ITX Build in einem NZXT H1 V2 habe, wo's naturbedingt nur einen PCIe Slot gibt, habe ich die GT 1030 bei mir sogar mit einem M.2 zu PCIe x16 Adapter (der nur mit x1 angebunden ist) an meinen 2. NVMe Slot angeschlossen =D reicht dicke und stellt keinerlei Bottleneck dar. Ich kann nun alles in voller Pracht zocken.
Beitrag automatisch zusammengeführt:

Das denke ich auch, weil PhysX stammt ja auch uralten Zeiten. Ich weis nach das ganz früher mal PhysX Karten für PCI verkauft wurden zur Kombination mit Nvidia Riva, ATI Rage und Matrox Grafikkarten. Erst die Nvidia GeForce 256 war dann die erste Grafikkarte die es integriert hatte. Aber selbst damals ging es ohne. Und die häufigen Pentium 4 CPUs damals hatten ja nur einen einzigen Kern.
Blödsinn. Kein PhysX spiel lief mit aktivierten PhysX auf nem Pentium 4 mit einer AMD Grafikkarte jemals flüssig... außer man hatte gehackte Nvidia Treiber die es kurzzeitig ermöglichten PhysX mit einer AMD Karte zu beschleuningen. PhysX lief schon immer nur mit ganz früher PCI Ageia PhysX Beschleuniger Karten und dann nur noch mit Nvidia GPUs die eben Hardwareseitige PhysX Beschleunigung beherrschten. Das waren quasi alle Nvdia Geforce GPUs bis hin zur RTX 4000 Reihe. Seit 5000 ist Schluss mit 32bit PhysX bzw. 32bit Cuda. Jetzt muss es der CPU berechnen, wenn keine kompatible PhysX beschleunigerkarte verbaut ist. Und da kann dein CPU der jetzt Zeit noch so dick sein, es wird ruckeln wie hölle. Und wenn irgendwer ohne Nvidia GPU damals PhysX Spiele flüssig auf einem Pentium 4 gespielt hat, dann nur mit deaktivierten PhysX. Dieses musste man schließlich in jedem Spiel in den Settings gezielt aktivieren. Bei Systemen ohne Nvidia GPU ging das dann zwar, wurde aber mit definitv unterirtischer Performance belohnt. Keine Change für nen Pentium 4 und allem was danach kam bis zu den heutigen top CPUs.
 
Zuletzt bearbeitet:
Das denke ich auch, weil PhysX stammt ja auch uralten Zeiten. Ich weis nach das ganz früher mal PhysX Karten für PCI verkauft wurden zur Kombination mit Nvidia Riva, ATI Rage und Matrox Grafikkarten. Erst die Nvidia GeForce 256 war dann die erste Grafikkarte die es integriert hatte. Aber selbst damals ging es ohne. Und die häufigen Pentium 4 CPUs damals hatten ja nur einen einzigen Kern.
Ähh...ich glaube du verwechselst das mit T&L (Transforming & Lightning) was die erste GeForce in Hardware integriert hatte. Davor gab es nur Software T&L oder ganz wenige exoten-Karten mit dedizierter T&L Einheit.
PhysX gabs von Ageia als PCI zusatzkarte, glaube 2004 rum war das. 2008 hatte Nvidia die ja aufgekauft und integrierten diese Funktion später über den Treiber für GeForce karten ab der 8er Serie, weil diese erstmalig CUDA Unterstützung bzw. auch UnifiedShader boten worauf das PhysX zeugs eben umgeschrieben wurde.
 
Kann sein das ich das verwechselt hab, der name Ageia kommt mir jetzt auch wieder in Erinnerung. Hab davon öfter mal in den PC-Zeitschriften gelesen. Aber ich kannte in meinem Umfeld niemanden der so eine Karte wirklich besessen hätte.
 
Ich hatte damals so eine PhysX Karte. War eine nette Spielerei aber soo viel Support gab es dafür jetzt auch nicht. Hat sich für mich eig kaum gelohnt aber es war Hardware die ich mir leisten konnte als Schüler :fresse2: Für ne neue GPU hat es nicht gereicht aber so ein Ding konnte ich mir einbauen
 
Nettes Update der News.
Mal schauen ob da was kommt.
 
Das denke ich auch, weil PhysX stammt ja auch uralten Zeiten. Ich weis nach das ganz früher mal PhysX Karten für PCI verkauft wurden zur Kombination mit Nvidia Riva, ATI Rage und Matrox Grafikkarten. Erst die Nvidia GeForce 256 war dann die erste Grafikkarte die es integriert hatte. Aber selbst damals ging es ohne. Und die häufigen Pentium 4 CPUs damals hatten ja nur einen einzigen Kern.
Da bist du aber zeitlich komplett daneben. Die erste nVidia Grafikkarte mit PhsyX war die 9000 Serie
Der erste PhysX Beschleuniger von Ageia kam ca. 2004 raus. Und 2004 waren wir schon bei GeForce FX und Radeon 9000
 
Da bist du aber zeitlich komplett daneben. Die erste nVidia Grafikkarte mit PhsyX war die 9000 Serie
Der erste PhysX Beschleuniger von Ageia kam ca. 2004 raus. Und 2004 waren wir schon bei GeForce FX und Radeon 9000
Der Bot wurde bereits gesperrt. ;)
 
Sind diese alten Spiele dann nicht schon so alt, dass sie trotzdem ohne Probleme mit "more than enough" FPS laufen?

Frage nur bevor deswegen ein Fass aufgemacht wird. Weiß gar nicht welches das letzte Game war, dass PhysiX genutzt hat bzw. jetzt ohne diesen Support man nicht so gut läuft. Bei Mafia 2 gab es damals glaube ich weniger Bewegung beim Mantel wenn man das nicht hatte. Aber im remaster ist das ja auch egal. In Mirrors Edge gibt es kein Setting, dass das Resultat im Video provoziert?

Spieler berichten von "stark eingebrochenen FPS". Von 600 auf 400?
Das Problem ist, das jene alten Schinken nur 1-2 Core optimiert waren und Physix eben über Grafikkarte lief.
Wenn du das jetzt wegnimmst und auf die CPU schiebst, schafft das 1 CPU Kern nicht zu substituieren. Die Engine lässt alles auf 1 Kern laufen, vielleicht auch 2 Kerne.
Eine moderne 6 Kerne CPU schafft das locker, wenn die Software die Rechenoperationen schön aufteilen kann also mehrere Kerne arbeiten können.
Das macht die alte Software aber nicht, deshalb sind selbst moderne Prozessoren überfordert.

Vielleicht macht sich ja einer Mühe Physix per Software zu emulieren und das auf die CPU Last zu legen. Das wäre dann ein annehmbarer Kompromiss, aber trotzdem nicht so nice.
Beitrag automatisch zusammengeführt:

Bei mir gestern in der Cryostasis Tech-Demo: Von 280 FPS auf 8-14 FPS, sobald Wasser berechnet werden musste.
Man darf da die normalen FPS, die das Spiel läuft, nicht mit der PhysX-Berechnung durcheinander bringen. Letztere war immer schon mega hart für die CPU, deswegen wurde sie ja auf die GPU ausgelagert.

Alle genannten alten Spiele würden auf aktuellen CPUs mehr als genug Frames haben, nur sobald PhysX berechnet werden soll, brechen die FPS brachial ein. Falls sich PhysX abstellen lässt, okay, kannste die Games wenigstens spielen, nur sehen sie dann eben nicht so gut aus. In Mafia 2 z.B. waren die zig Scherben oder Mauerteile, die auf dem Boden herumlagen, eine Pracht. Blöd isses halt, wenn das Spiel nicht zulässt, dass PhysX abgestellt wird. Dann ist das Game - zumindest zum jetzigen Stand - mit den RTX 5xxx-er Karten nicht mehr spielbar.
Wie ist denn deine CPU gesamt Auslastung? Ist die gesamte CPU ausgelastet oder nur wenige Kerne?
 
Zuletzt bearbeitet:
Fände es Sinnvoll via Cpu das man diese "Etwas" nptzlicher machen kann mit den kernen z.b.
auf smt zu legen z.b. oder den nicht x3d genutzten Kernen z.b.
via software oder im Treiber implementiert
 
Fände es Sinnvoll via Cpu das man diese "Etwas" nptzlicher machen kann mit den kernen z.b.
auf smt zu legen z.b. oder den nicht x3d genutzten Kernen z.b.
via software oder im Treiber implementiert
Du kannst gerne ungenutzte Rechenkapazitäten in offene wissenschaftliche Forschung zur Verfügung stellen Boinc als Beispiel https://boinc.berkeley.edu/ darunter das SETI-Projekt(aktuell angehalten) uvm.
 
Zuletzt bearbeitet:
Physx zu streichen, besonders wenn es seit Jahren keinen Aufwand mehr verursacht ist schon schade.
Ich kann verstehen das es nervt, aber "alte Zöpfe abschneiden" macht in der Hinsicht nur begrenzt Sinn bei Spielen.
Diese Features sind dann verloren und darauf basierende und angewiesene Spiele(r) haben das Nachsehen.

Hoffen wir mal das Nvidia nicht in ein paar Jahren andere Features streicht die grade groß als Vorteil beworben werden.
 
Hoffen wir mal das Nvidia nicht in ein paar Jahren andere Features streicht die grade groß als Vorteil beworben werden.
PhysX ist nicht das erste und wird auch nicht das letzte Feature sein. Gamestream vor gar nicht allzu langer Zeit erst.

Alte Zöpfe abschneiden ist richtig und wichtig. Natürlich sollte man da auch immer so ein bisschen schauen, wie relevant diese Zöpfe sind. Bei PhysX sehe ich die große Relevanz jetzt auch nicht. Es gibt zwar einige Spiele, die das Feature implementiert haben. Aber wirklich große Spiele mit riesiger Spielerbasis in 2025 sind es halt auch nicht.
Im Gegenteil: Das der Source ist offen ist, kann sogar eher Vorteil sein, dass PhysX auch ohne NV-Hardware funktioniert. Wenn man PhysX unbedingt noch verwenden möchte.
 
Klar kann man alte Zöpfe abschneiden und Produktpaletten straffen, besonders wenn diese nicht vermisst werden.

Aber Featuresets? Unglücklich, besonders wenn es Größen wie Fallout oder Witcher trifft.
Die Begründung dahinter? Außer Marketingsprech wird man da nichts hören und ich bin mir fast sicher:
Die Entwickler werden entschieden protestiert haben, nur damit es jemand, der nicht damit vertraut ist, einstampfen lässt.
 
Naja halb so wild, der geneigte 5090 Käufer kann doch seine alte 4090 als PhysX Beschleuniger mit dazu bauen :d

Korrekt. Wenn die 5090 Hof da ist, bleibt die 4090 Hof zusätzlich für PhysX drin!

GALAX-RTX4090-HOF-1-pcgh.jpg
 
Was ich nicht so ganz verstanden habe? Das ist alles eine Treiberseitige Geschichte, richtig?
Was hindert Nvidia daran in einem späteren Treiberupgrade dieses Feature auch bei älteren Karten zu deaktivieren?
 
Wie ist denn deine CPU gesamt Auslastung? Ist die gesamte CPU ausgelastet oder nur wenige Kerne?
Physx läuft seitens Nvidia nur auf einem Kern auf der CPU um damals ihre GPU pushen zu können mit Physx.
 
Ganz großes Kino, die RTX 5070 ist unterwegs und ich zocke Borderlands 2. :fresse: Hoffentlich übernimmt wer die 32-Bit PhysX Sparte und lässt das ganze nicht untergehen.
 
Die müssten halt das ganze open source machen, dass es irgendwie mit 64bit auf 32bit angesteuert werden kann.
Finde das ehrlich gesagt auch nicht so gut entschieden seitens nV.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh