Sepl
Enthusiast
- Mitglied seit
- 19.11.2008
- Beiträge
- 6.060
- Ort
- nähe Köln
- Laptop
- ThinkPad T14 Gen1
- Prozessor
- AMD 7800x3D
- Mainboard
- MSI MAG B650 TOMAHAWK WIFI
- Kühler
- Noctuah NH-D15
- Speicher
- 32GB G.Skill Flare x5 - DDR5-6000 - CL-30
- Grafikprozessor
- AMD 7900XTX
- SSD
- 1TB WD Black Nvme; 2TB SanDisk Ultra 3D SATA
- Gehäuse
- Fractal Design Define 7 XL
- Keyboard
- Wooting 80he
- Mouse
- Steelseries Aerox Wireless 5
- Betriebssystem
- Win 11
- Internet
- ▼1000Mbit ▲50Mbit
Was wären denn ideale Frametimes bei der CPU und GPU?
naja, ideale frametimes sind in der regel "glatt" also stabil und gleichbleibend. Je nach fps sind das dann halt unterschiedliche Zahlen.
Frametimes berechnen sich ja einfach daraus, wie lange ein frame zum berechnen braucht.
also 1 sekunde/fps
da frametimes üblicherweise in ms (Millisekunden) angegeben werden wird einfach 1000/fps gerechnet. (Eine sekunde hat 1000 ms).
Das ergibt z.b. bei 60 fps: 1000ms/60fps = 16,6666ms.
Im Idealfall braucht also jeder frame genau 16,6666ms zum berechnen.
Eklig bzw ruckelig wirds halt, wenn die frametimes stark schwanken. wenn also ein frame schon in 3,3333ms berechnet ist, der nächste aber 30ms braucht. Sind unterm schnitt genau so viel fps wie wenn beide frames jeweils 16,6666ms brauchen. Der fps wert ändert sich also nicht, es fühlt sich aber deutlich schlechter an.
in battlefiled kannst du über die konsole mein ich mit PerfOverlay.DrawGraph 1 den graphen für frametimes anschalten. Wenn da die striche fröhlich hin und her hüpfen, fühlt es sich kacke an^^