nyctalus
Experte
- Mitglied seit
- 07.04.2015
- Beiträge
- 90
- Prozessor
- Ryzen 7 7800X3D
- Mainboard
- Gigabyte B650 Aorus Pro AX
- Kühler
- Noctua NH-D15S
- Speicher
- 32 GB DDR5-6000 CL32
- Grafikprozessor
- Asus TUF RTX 4090
- Display
- Lenovo Legion Y34wz-30
- SSD
- 1 TB WD Black SN750 + 2 TB Crucial MX500
- Gehäuse
- Fractal Meshify 2
- Netzteil
- bequiet Straight Power 11 1000W 80+
- Keyboard
- Logitech G915
- Mouse
- Logitech Pro Wireless
- Betriebssystem
- Windows 11
Ich denke es kommt auf die Art des Puffers an, der Tripple Buffer kann die Maximalfrequenz in drei Teile aufteilen. Wenn Du 2 von 3 Frames rendern kannst, dann kann das so auch ausgeben werden, sprich bei 120Hz und bei 93 Frames wäre die effektive Ausgabe 80 Frames. Wäre zumindest ein Ansatz der Erklärung.
Bei Tripple Buffer ist der Delay natürlich noch größer als beim Double Buffer.
Hm ja, ich muss zugeben, mit Triple Buffering ist es tatsächlich nicht so einfach, wie ich es zuerst dargestellt hab
Das ist allerdings immer noch keine Erklärung für die Stufen 30-60-90-120, aber ok... Eigentlich ist die Grafikkarte bei Triple Buffering doch permanent ausgelastet, die effektive Framerate die man bekommt, müsste damit exakt der entsprechen, die die Grafikkarte auch liefern kann. Unabhängig von der Frequenz des Monitors... oder nicht? Wo ist hier mein Denkfehler?
Also zum einfacheren Rechnen, gehen wir mal von einem Monitor mit 100 Hz aus, also 10 Millisekunden pro Frame.
Angenommen die Grafikkarte liefert jetzt aber nur 90 fps, dann kann der Monitor doch immer noch bei 9 von 10 Refreshes ein neues Bild zeichnen, oder nicht? Nur jedes zehnte Frame muss der Monitor für 20 statt 10 ms anzeigen, damit die Grafikkarte "aufholen" kann.
Das heißt, wir haben am Ende eine effektive Framerate von exakt 90 fps... oder habe ich hier einen Denkfehler?
Der Bildschirm kann schließlich nicht die Bildwiederholrate an die 90 FPS anpassen.
Mit FreeSync bzw. G-Sync kann er genau das.
Zuletzt bearbeitet: