Ich spiele jetzt auf 4k/60hz mit allem auf Ultra, Raytracing Spiegelungen Ultra, Filmgrain usw. aus, DLSS Qualität
mit durchgehend 60Fps@Vsync und in den letzten 4 Std gab es keinen CtD mehr.
Für mich war die Lösung im Nvidia Treiber "Maximale Leistung bevorzugen" einzustellen. Keine Ahnung warum
nun gerade dies hilft, aber hab den Tipp von mehreren Usern, u.a. mit 4070 (Super) GPUs, im Steam Forum ge-
lesen und es funktioniert.
Bei mir ist auch definitiv nicht der Vram das Problem, das Spiel lief zwischendurch ne Stunde ohne Cutscenes mit
11,5 gb Vram Verbrauch stabil und wärend der nächsten Cutscene geht es bei 9 gb Auslastung back 2 desktop.
Im Steam Forum und auf Reddit sind auch einige 3090/4080/4090 Besitzer betroffen und da sollte der Vram ja
noch weniger ein Problem werden. Passt auch irgendwie nicht dazu, dass es wirklich ausschließlich wärend
Cutscenes auftritt.
Jetzt ballert meine "Palit Dual OC RTX 4070 Super" dafür mit durchgehend 2780mhz bei 1,05v und 180w
Power, trotz maximal 70-80% Auslastung. Ansonsten wuppt die Karte das Game tatsächlich mit ~1800mhz und
120w auf 60Fps...
...hoffe das schadet der GPU nicht!? Der Boosttakt ist schon ganz schön hoch, im Timespy Extrem schafft die
Karte average nur 2600mhz, aber bei maximal 70° GPU Temp (80° Hotspot) sollte der hohe Takt doch eigentlich
kein Problem sein, bis auf den 50% höheren Strombedarf, oder?
mit durchgehend 60Fps@Vsync und in den letzten 4 Std gab es keinen CtD mehr.
Für mich war die Lösung im Nvidia Treiber "Maximale Leistung bevorzugen" einzustellen. Keine Ahnung warum
nun gerade dies hilft, aber hab den Tipp von mehreren Usern, u.a. mit 4070 (Super) GPUs, im Steam Forum ge-
lesen und es funktioniert.
Bei mir ist auch definitiv nicht der Vram das Problem, das Spiel lief zwischendurch ne Stunde ohne Cutscenes mit
11,5 gb Vram Verbrauch stabil und wärend der nächsten Cutscene geht es bei 9 gb Auslastung back 2 desktop.
Im Steam Forum und auf Reddit sind auch einige 3090/4080/4090 Besitzer betroffen und da sollte der Vram ja
noch weniger ein Problem werden. Passt auch irgendwie nicht dazu, dass es wirklich ausschließlich wärend
Cutscenes auftritt.
Jetzt ballert meine "Palit Dual OC RTX 4070 Super" dafür mit durchgehend 2780mhz bei 1,05v und 180w
Power, trotz maximal 70-80% Auslastung. Ansonsten wuppt die Karte das Game tatsächlich mit ~1800mhz und
120w auf 60Fps...
...hoffe das schadet der GPU nicht!? Der Boosttakt ist schon ganz schön hoch, im Timespy Extrem schafft die
Karte average nur 2600mhz, aber bei maximal 70° GPU Temp (80° Hotspot) sollte der hohe Takt doch eigentlich
kein Problem sein, bis auf den 50% höheren Strombedarf, oder?