Star Wars Jedi Survivor: Schlechte Performance zum Start

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wobei ich sagen muss, dass bei mir die 4090 fast die ganze Zeit auf 100% läuft und nicht wie im Video gezeigt nur auf 30-50% (mit 12900K). Hab aber auch nicht lange gespielt.
 
Habe 11 Std bis jetzt gespielt, bis auf die Performance an sich ganz ok.

Aber: Ab der 3 Karte Jedha bekomme ich jetzt immer an den gleichen Stellen Crashes. In den Levels davor nicht ein einzigen Crash gehabt bzw nach 11 Std.
Aber im Wüstengebiet kann ich nun nicht mehr weiterspielen, ist jetzt der 4. Absturz innerhalb 10 Minuten...........naja gekauft hätte ich mir das Spiel eh nicht. Aber wenn man es zur Cpu bekommt,
kann man es ja mal ausprobieren.

Aber wenn es so verbuggt ist das es im Wüstengebiet nur abstürzt, dann ist es nicht mehr feierlich.
 
early access für fullprize
Ja, so siehts aus!

Edit: Falls es bei euch auch in diesem Lvl zu den gleichen Problemen kommen sollte, hier die Lösung: Raytracing ausschalten! Kein Absturz mehr.
Hatten welche auf Steam geschrieben, die das gleiche Problem auf dieser Map hatten
 
Zuletzt bearbeitet:
Teilweise wenn Raytracing an ist, ist es nichtmal aktiv. Man muss es im Spiel dann erst reaktivieren.
Performance ist ok für 4k episch, FSR2.0 Quality no RT.
Und das mit einer 6900XT, die ja jetzt schon nen Jahr alt ist.
Es hat die netten Stotterer und seltsamen Ruckler in diversen Blickrichtungen an bestimmten Plätzen.

Ist ein AMD sponsored Title, richtig?
Vielleicht hängt hier das Problem da ja viele die das Problem betrachten nVidia Karten nutzen?
Das es aber die Hardware nicht nutzt ist ersichtlich.
5950X hier und die Auslastung ist lächerlich niedrig.
GPU hab ich nicht überprüft fällt mir gerade auf... muss ich mal gucken.
Das Spiel ist nett, Konsolen "Plattformer" in modern halt. Mit semi offenen Karten. Grafik ist ok bis gut.
Aber definitiv nicht optimiert und/oder fertig. Schade...
 
Ich habe heute noch mehr gespielt und dabei folgendes festgestellt.

Grafik-Presets sind nicht nur Presets
Die Grafik-Presets haben bei mir massive Auswirkung auf Leistung und Bildqualität. Stelle ich zum Beispiel das Preset Episch und danach ändere ich jede einzelne Einstellung auf Niedrig, dann ändert sich das Preset auf "Benutzerdefiniert" und die die Performance ist immernoch vieeeeeel schlechter, als wenn ich direkt das Preset Low auswähle. Die Voreinstellung bei "Grafik-Qualität" betrifft also nicht nur die dargestellten Optionen, sondern scheinbar versteckte Einstellungen obendrein. Daher macht die Auswahl einzelner Optionen, mit Ausnahme von ggf. Texturdetails, keinen Sinn. Man hat mehr oder weniger nur die Wahl zwischen den Voreinstellungen plus den Texturdetails (Textur-Empfehlung: 16GB = Epic / 12GB = High / 8GB = Medium)

4K FSR Quality ist 4K nativ optisch deutlich überlegen
Das normale Anti-Aliasing im Spiel ist eine Katastrophe und zeichnet das ganze Bild weich. Schaue ich mir das Gesicht von Cal auf 4K in egal welcher Grafikeinstellung an ist alles komplett verschwommen, einfach nur hässlich. Benutze ich dagegen FSR 2.0 Quality sieht das Bild gestochen scharf aus, weil FSR das Anti Aliasing übernimmt und dann nicht das katastrophale Ingame-AntiAliasing greift. Die Bildqualität von FSR Quality in 4K ist in meinen subjektiven Augen wirklich gut gelungen. Die FSR Schärfe ist relativ hoch, wodurch das Bild bei manchen Objekten leicht flimmert, mir persönlich gefällt die scharfe Optik aber besser als ein weichgezeichnetes ruhiges Bild.

Ray Tracing ist unbenutzbar
Ray Tracing macht in der aktuellen Implementierung überhaupt keinen Sinn, weil es das 1Core CPU-Bottleneck um 30-50% nach unten drückt für marginale optische Veränderungen. Ohne Ray Tracing wären viele der Performance-Reviews deutlich positiver ausgefallen.

Zusammenfassung
Nachdem man ohnehin durch das grauenhafte AntiAliasing gezwungen ist FSR zu aktivieren, am besten in der Quality Einstellung, und gleichzeitig das Game schwer 1Core CPU-Limitiert ist, kann man eigentlich fast immer auf Epic-Preset mit angepassten Texturdetails je nach VRAM und FSR Quality spielen. RT immer aus. A und O ist eine starke Singlecore Performance und viel RAM/VRAM, wer also mit 5800X3D, AM5 oder LGA1700 gepaart mit 32GB RAM und 12GB+ GPU unterwegs ist, kann das Game mit einer erwarteten Performance zwischen 60-100FPS spielen, mit Drops hier und da je nach System. Besitzer eines Ryzen 3000 oder Intel 10Gen CPUs sollten von einem Kauf absehen, weil die Singlecore CPU Performance nichtmal für stabile 40FPS reichen wird.
 
Zuletzt bearbeitet:
FSR macht dafür alles Bewegliche mit feinen Konturen zu Matsch. Schärfer ist es höchstens wenn sich im Bild möglichst wenig bewegt. Das kann FSR 2 leider generell nicht gut. Schau mal das Digital Foundry Video was hier verlinkt wurde ab 2:10. Da gibt es den Side by Side Vergleich und FSR kommt da nicht gut bei weg gegen nativ TAA.

Was RT angeht trifft aber wohl zu. Ist dasselbe wie in Plague Tale Requiem. Auch ein UE4 Titel, wo RT die CPU Performance extrem niederdrückt.
 
rt drückt allgemein auf die cpu. ist bei cyberpunk auch so. das problem ist dass die grundperformance hier schon mies ist.
 
Ich spiele alles auf Episch, 4K, RT on und es geht so Lala würde ich sagen. Es gibt definitiv Stellen da gibts massive Probleme und andere Gebiete da läuft es ganz ok.
Aber das Spiel ist ein Vram-Fresser, 23GB von 24GB ist schon ne Hausnummer. Ich muss dann zwischendurch am Meditations-Punkt speichern und Spiel neu starten, weil wenn der Vram so voll ist, würde ich sagen, dann wird das Spiel anfälliger für Lags.
 
Egal auf welcher Config ich das Spiel laufen lasse:

Drei bis vier CPU Kerne sind am Rödeln, takten am Anschlag und der Rest des Prozessors dreht Däumchen.

Die GPU (sowohl Intel als auch AMD) wartet bei 60-80% (Arc 770 @ FHD) bzw 40-50% (7900XT @ 1440p) Auslastung auf Daten, welche allerdings nicht schnell genug kommen.

Hatte jetzt bereits versucht Hyperthreading abzuschalten, bringt nix.
Das einzige, was ich gegenwärtig auf der Intel Plattform als verbessernd deklarieren würde, war es der non K CPU auf Z490 im PL1 mehr Budget einzuräumen, damit die Kerne etwas höher takten können, was gleich Mal 4-5 fps in jeder Situation dauerhaft draufpackt.

Jetzt falle ich auch beim "kleinen" Setup nicht mehr unter 60 fps und kann meinen Frieden damit machen, Fallen Order lief seinerzeit auch nicht viel besser und dropt heute noch massiv, auch auf Konsole.
Da das Spiel inhaltlich sehr viel bietet und ein wunderbarer "Ich will Soulslike Gameplay ohne dauernd auf die Fresse" Titel ist, mache ich jetzt erstmal so weiter.
 
rt drückt allgemein auf die cpu. ist bei cyberpunk auch so. das problem ist dass die grundperformance hier schon mies ist.
Das stimmt, dass RT auf die CPU auch geht. Aber in Games, die sowieso nur sehr wenig Multithreading betreiben, ist es der absolute Performancetod. Cyberpunk hat eine gute Implementierung von RT bzw. kann generell die ganze CPU gut auslasten. Bei Plague Tale und Star Wars ist das aber anders. Die haben sowieso schon eine sehr schwache CPU Leistung und laufen quasi nur auf 1-2 Kernen. Wenn dann noch RT dazu kommt, hat man nicht mal mit topaktuellen Highend CPUs eine Chance. Callisto Protocol und Hogwarts scheinen auch dasselbe Problem zu haben, die habe ich aber nicht gespielt. Deutet alles auf die UE4 Problem mit Raytracing hin. Hoffe die UE4 Zeit ist bald vorbei und UE5 wird wieder PC freundlicher.
 
Ich werde das Gefühl nicht los, das die GPU Hersteller, insbesondere NVidia, die Entwickler dazu anhalten, vielleicht auch mit finanziellen Anreiße, es mit der Optimierung der Spiele nicht mehr zu genau zunehmen und möglichst viele Funktionen in Spiele einzubauen unter Umständen mit direkter Hilfe von NVidia/AMD Teams die dann auch im Code negativ rumfuchteln, um ihren Absatz an besonders leistungsfähigen und bei NVidia auch mit reichhaltigen VRAM bestückten Grafikkarten anzukurbeln. Es sollte NVidia und AMD verboten werden direkt mit den Entwicklerfirmen zu arbeiten. API zu Verfügung stellen und gut ist.
 
glaub ich kaum denn aktuell würde das die leute eher zu amd treiben. :d

das problem was immer deutlicher wird sind titel, die cpu seitig einfach nicht ordentlich laufen.

sei es TLOU, Star wars, Hogwarts, spidermann,.... alle diese spiele laufen cpu seitig wie ein sack nüsse...
 
Nee, AMD verhindert DLSS, so siehts nämlich aus. AMD ist so richtig krass "for the players"
Hier sieht man was DLSS und FG bringen könnte, falls das Video kein Fake ist, was es nicht zu sein scheint:


Alle Nvidia User sollten mal kräftig Stress bei EA und AMD machen, vielleicht hören die dann mal mit diesem Exclusive-Bullshit auf, das ist hier zB. nur ein Nachteil und ist mal richtig "against the player"

Bei Steam sind die auch schon dran 😂 (y)

 
Zuletzt bearbeitet:
FG ist halt FG. für solche games ok. aber ich hätte gerne dass es native auf ner 500€ cpu mal mit mehr als 90fps rennt. zumindest auf low settings^^
 
Grafik-Presets sind nicht nur Presets
Die Grafik-Presets haben bei mir massive Auswirkung auf Leistung und Bildqualität. Stelle ich zum Beispiel das Preset Episch und danach ändere ich jede einzelne Einstellung auf Niedrig, dann ändert sich das Preset auf "Benutzerdefiniert" und die die Performance ist immernoch vieeeeeel schlechter, als wenn ich direkt das Preset Low auswähle. Die Voreinstellung bei "Grafik-Qualität" betrifft also nicht nur die dargestellten Optionen, sondern scheinbar versteckte Einstellungen obendrein. Daher macht die Auswahl einzelner Optionen, mit Ausnahme von ggf. Texturdetails, keinen Sinn. Man hat mehr oder weniger nur die Wahl zwischen den Voreinstellungen plus den Texturdetails (Textur-Empfehlung: 16GB = Epic / 12GB = High / 8GB = Medium)

Update: Meine Beobachtung wurde bestätigt. Das Grafik-Preset ändert unsichtbar automatisch die Render-Skalierung.
  • Epic = 100%
  • High = 87%
  • Medium = 71%
  • Low = 50%

Wer weiß, was abseits davon noch irgendwo hardcoded hinterlegt ist. Das ganze dürfte sich mit FSR auch noch multiplizieren. WQHD "Hoch" entspricht dann 2227x1258 Renderauflösung und FSR 2.0 Q macht daraus dann upscaled 1492x843 - das kann ja nur unterirdisch aussehen. So eine Scheiße kann man sich echt nicht ausdenken. Mein ursprünglich neutraler Eindruck ist nun auch im Keller, das Game auf dem PC ist eine Frechheit.
 
presets sind eh immer fürn eimer ^^

das renderauflösungen an die presets gekoppelt sind, ist natürlich ein witz
 
Zuletzt bearbeitet:
Erinnert iwie an den Release von Ultima IX damals. Kam ja auch von EA :bigok:
 
 
Hilft nur leider alles nix, wenn es am Stuttern ist wie blöd. Habe gestern reingeschaut und hatte den Eindruck, dass das Stuttering sogar noch schlechter geworden ist. Vermutlich weil die avg Frames höher sind.
 
Jo, hab es jetzt auch und muss sagen, dass RT aktuell keinen Sinn macht. Hab es aus gestellt und FSR ebenfalls. Läuft mit ca. 80-90 fps spielbar. Karte wird etwas gefordert. Warum wurde kein DLSS implementiert? Kommt da noch was?
 
Kein DLSS, da es ein AMD-gesponsertes Game ist. ;)
 
was soll das eigentlich bewirken? nvidia karte können FSR ja nutzen. das ergibt so wenig sinn. ist eigentlich nur ein negativer punkt für das spiel
 
FSR an oder aus bringt bei mir nix. RT aus bringt ca. 50 % mehr Frames bei mMn gleicher Optik... Bin noch nicht im Außenbereich angekommen. Sollte DLSS 2.0 oder 3.0 nicht mehr Leistung für NVIDIA Karten als FRS bringen, speziell 40xx???
 
was soll das eigentlich bewirken? nvidia karte können FSR ja nutzen. das ergibt so wenig sinn. ist eigentlich nur ein negativer punkt für das spiel
Ich würde auch viel lieber DLSS nutzen, da mir die Bildqualität von DLSS im Schnitt ein gutes Stück besser gefällt. Wichtiger finde ich jedoch, dass das Game an anderen Stellen gefixt wird. Gestern hatte ich neben teilweise schlechter Performance auch einen Crash to Desktop gehabt.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh