Phantomias88
Banned
- Mitglied seit
- 19.04.2008
- Beiträge
- 8.457
- Ort
- StuggiTown
- Prozessor
- AMD Ryzen 9 3900XT
- Mainboard
- Taichi 570X P4.0
- Speicher
- 2x 16 GiB Kingstone DDR4-3200 CL20 DR (Multi-Bit ECC)
- Grafikprozessor
- Vega64
Es gibt zwei Möglichkeiten die Frametimes auszulesen:Wie werden denn die Frametimes ermittelt? Link usw. würde reichen, Google spuckt mir ziemlich viel Unnützes Zeug dazu aus.
Wie ist das gemeint?
Vorausgesetzt man würde die exakt gleiche Szene/Spielablauf rendern lassen, und beim zweiten Durchlauf die Details erhöhen, was den Rechenaufwand mindestens bei der Grafikkarte und vielleicht auch bei der CPU erhöht, MÜSSEN die Frametimes steigen! Die CPU muss ja von Medium zu Ultra nicht weniger rechnen, eigentlich, oder?
Ich könnte mir vorstellen, dass:
A. Ich weiß nicht wie man in Battlefield 1 die FPS/Frametimes misst, wenn es keinen integrierten immer gleich bleibenden Benchmark gibt, sondern man jedes mal eine Spiel starten muss, kann es natürlich zu stark unterschiedlichen Szenen führen, erst recht in einem Online/-Multiplayerspiel. Für Tester wäre das ziemlich ätzend.
B. Battlefield 1 tauscht diverse Effekte/Features, welche zuvor in Medium mit der CPU berechnet werden, gegen "bessere" Effekte, die mit der GPU berechnet werden. Vielleicht das was Performer impliziert.
1. von der Spiel Engine über user.config oder Befehls Console im Spiel.
2. Mit den Riva Tuner Statistik Server (das ist z.B. beim MSI Afterburner dabei)
FPS sind grobe 1000ms Abfrage Intervalle von Frametimes (Zeit die vergeht bis das nächste Bild komplett berechnet ist)