Nein, die Hertz passen sich den FPS an. Es läuft im Prinzip so, wie es laufen sollte. Kommt ein Bild wird es sofort dargestellt, es gibt keine fixe Aktualisierungsrate des Monitors die meistens gar nicht zur Framerate passt.
Neja schon klar... Nur hast du dann eben auch nur 33Hz/33FPS wie im von mir konstruierten Beispiel. Jeder der schonmal bei 24Hz versucht hat zu spielen, wird denke ich erkennen, das das schlicht nicht taugt.
Das ganze Konstrukt verhindert also einfach das Tearing. Das Bild wird somit in einem Guss auf den Schirm wandern und nicht non VSync like irgendwie teils zerhackstückelt dargestellt. Das ist auch durchaus verständlich und aus dem ganzen Text rauszulesen.
Mir gings eher um was anderes. Nämlich das der ganze Aufwand imho teilweise irgendwie nicht lohnt, wenn durch low GPU Power eben die Hz soweit runter müssen, das das ganze Bild nicht mehr flüssig ankommt...
Ich persönlich merke definitiv einen Unterschied bei 60Hz und VSync aktiv zwischen FPS Raten 30 und 60(+)
Sprich in ersterem Fall ist das Bild zwar syncron zur Hz Zahl (zwar 2:1 aber egal), also nicht "geteart", aber es ist halt alles andere als flüssig...
Bei vollen 60(+) FPS im VSync habe ich ein deutlich besseres Spielgefühl. Da das Bild flüssiger rüberkommt. Und dank VSync eben auch nicht zerhackstückelt.
Es gibt also irgendwie einen subjektiven Punkt, der A) weniger flüssig erscheinen lässt als B)
Und den kann G-Sync doch in keinster Weise verändern!? Oder steh ich auf dem Schlauch? Im Beispiel genannte 33 FPS/33 Hz gesynct sind immernoch weniger "flüssig" als 60 FPS/60 Hz ebenso ge(V)synct.
Wo ist da der Vorteil?
Ich hab doch nur die Wahl zwischen nicht flüssigen FPS Raten unter 60 FPS/60 Hz (die dann halt gesynct sind) oder zwischen halbwegs flüssigen "fixen" 60 FPS/60 Hz im VSync!?
Ich vermisse da irgendwie den Vorteil für den Endkunden!?
Woher kommt die Vermutung, es ginge nur mit 60 Hz Monitoren? Das erste Modell soll der ASUS VG248QE mit 144 Hz sein, oder meint ihr Displayport schafft nicht mehr? Das sollte eigentlich von der Bandbreite her kein Problem sein, denn selbst 4K geht doch über Displayport?
Keine Ahnung, ich glaube laut Spezifikationen sollte DP1.2 4k bei 60Hz liefern können... Aber das machts halt imho doch nicht besser...
Ja, du hast dann nur mehr 33 Hz, aber das ist ja kein Problem, weil wenn du ihn normal mit 60 Hz fahren würdest, würde einfach öfter das gleiche Bild angezeigt werden, was erstens sinnlos ist und zweitens eben zu Tearing oder Stuttering führt.
Das Problem ist, das 33 FPS gesynct ohne Tearing weniger flüssig sind als 60 FPS gesynct ohne Tearing, wie ich sie heute schon bei aktivem VSync erhalte. Genau so kann ich heute schon bei nem 120 Hz+ Monitor die Hz Zahl irgendwo fixe. 85, 90, 100 und weis der Teufel noch was... Kann gleichsam VSync aktivieren wenn meine GPU Hardware die FPS halten kann und habe kein Tearing bei vollen FPS.
Wo ist jetzt der Vorteil für mich durch G-Sync?
Ich sehe den einzigen Vorteil klar darin, das das ganze auch bei Hz Zahlen unter 60 funktionieren wird... Das erkauft man sich aber gleichsam mit dem Nachteil, das eben unter 60 Hz (je nachdem wie weit drunter) das Bild nicht mehr flüssig ist.
Das heute schon einige Leute vermehrt nach größer 60 Hz "schreien", gibt mir das dazu auch die Bestätigung, das weniger als 60 Hz, also dort, wo der Vorteil durch G-Sync liegt, gar nicht wirklich viel Bedeutung haben wird!? Zumal das ganze scheinbar recht teuer werden wird (das Modul in Sachen Kaufpreis)