wenn das wirklich so wäre und die gpu dem monitor sagen würde, jetzt ist es soweit, gib sofort das nächste aus, egal ob du mit dem letzten fertig bist oder nicht... überleg doch mal was dann passieren würde -> tearing unter umständen
der moni erkennt wann das bild fertig ausgegeben wurde und fordert erst dann das nächste an. das automatische und logische resultat ist, das sich die hz des monitors an die fps anpassen.
sag mal steht du auf einem schlauch oder so?! die technik, die gegen tearing wirkt, besteht aus dem zusammenspiel und der kommunikation zwischen monitor und GPU... das thema adaptive sync ist sowohl im monitor bereich als auch im gpu bereich zu suchen. nun hast du es hier gepostet, wenn interessiert das eigtl?! mich nicht.
BBT, freesync hat gegenüber gsync auch vorteile, denn es ist zumindest in der theorie schneller. es muss nicht wie gsync ständig abfragen, ob das bild schon fertig ausgegeben wurde -> weniger latenz (wie gesagt, zumindest in der theorie)
Nochmal für webmi:
Wird V-Sync aktiviert, stellt die Grafikkarte dem Monitor ein fertiges Bild immer dann zur Verfügung, wenn er ein neues Bild darstellen muss. Bei einem 60-Hz-Monitor liefert die Grafikkarte also maximal 60 Bilder pro Sekunde. Alle 16 Millisekunden genau ein Bild, das der Monitor daraufhin vollständig darstellt. Braucht die Grafikkarte weniger als 16 Millisekunden für das nächste Bild, hält sie es so lange zurück, bis der Monitor wieder bereit ist. Braucht sie länger, stellt der Monitor das letzte Bild noch einmal dar. Das fertige Bild wird einen Zyklus später ausgegeben. Sollte die Grafikkarte bis dahin ein neues erstellt haben, verfällt es. Wird V-Sync deaktiviert, gibt es keine Synchronisation zwischen der Bildwiederholfrequenz des Bildschirms und der Auslieferung der Bilder durch die Grafikkarte mehr. Die Grafikkarte erstellt Bilder, so schnell sie kann. Sobald ein neues Bild fertig ist, geht es an den Monitor. Ist der gerade dabei, den Bildschirminhalt mit einem Bild zu erneuern und erhält er währenddessen das nächste Bild, stellt er dieses noch im selben Aktualisierungsvorgang dar. Ohne V-Sync können so innerhalb einer Aktualisierung des Bildschirms mehrere Teilbilder gleichzeitig auf den Monitor gezeichnet werden.
Nvidias G-Sync soll wie aktiviertes V-Sync „Tearing“ verhindern, ohne den Input Lag durch das Verzögern oder mehrfache Darstellen von Bildern zu erhöhen.
Der Trick: G-Sync-Monitore arbeiten nicht mehr mit einer festen, sondern mit einer variablen Bildwiederholfrequenz,
die sich nach der Grafikkarte richtet: wenn die Grafikkarte 50 Bilder pro Sekunde liefert, läuft der Monitor mit 50 Hertz. Sind es 40 FPS, liegen beim Display 40 Hz an.
In der Praxis bedeutet das:
die Grafikkarte stellt einen Frame fertig, danach sendet sie das Bild an den Monitor und teilt zugleich mit, dass es dargestellt werden kann. Erst auf diesen Befehl hin leitet der Monitor einen Refresh-Zyklus ein. Danach pausiert das Panel und wartet, bis das nächste Frame von der Grafikkarte kommt – und erst dann findet der nächste Refresh statt.
Tearing durch das gleichzeitige Darstellen mehrerer Bilder in einem Refresh-Zyklus und Stottern durch das Aufschieben von Bildern werden durch G-Sync effektiv verhindert. Auch der Input-Lag sinkt. Allerdings ist er höher als bei abgeschaltetem V-Sync, da die Frames nicht immer sofort nach der Fertigstellung dargestellt werden können. Denn ist der Monitor gerade noch damit beschäftigt, den letzten Frame zu zeichnen, lässt er die Ausgabe eines weiteren nicht zu – andernfalls würden sich Konditionen wie bei V-Sync aus einstellen, inklusive Tearing.
G-Sync funktioniert nicht unterhalb von 30 FPS. Liegt die Geschwindigkeit oberhalb der Bildwiederholfrequenz des Monitors, arbeitet G-Sync identisch zu V-Sync.
Die untere Grenze ist eine manuell gesetzte. Würde G-Sync auch unterhalb funktionieren, würde der Monitor in Szenen, in denen weniger als 30 Bilder pro Sekunde berechnet werden, seltener als 30 Mal pro Sekunde den Bildschirm aktualisieren. Der Bildschirm würde zu flimmern beginnen. Bei unter 30 FPS liefert ein G-Sync-Rechner alle 1/30 s = 32 ms ein Bild an den Monitor – bei unter 30 FPS mitunter dasselbe Bild wie vorher –, das daraufhin sofort dargestellt wird, während der Monitor weiterhin mit 30 Hz betrieben wird. Bei einem Rechner mit V-Sync arbeitet der Monitor hingegen weiterhin mit 60 Hz und die Grafikkarte sendet alle 16,7 ms ein Bild an den Monitor – häufiger als bei G-Sync dasselbe Bild wie das vorherige. Kommt der 3D-Beschleuniger über die Grenze von 30 FPS, wird bei G-Sync die Bildwiederholfrequenz wieder angepasst.
Die obere Grenze ist technisch bedingt. Liefert die Grafikkarte mehr FPS als der Monitor Hertz aufweist, limitiert der Monitor. Die Aufforderungen der Grafikkarte, ein fertiges Bild sofort auszuliefern, kann er nicht mehr nachkommen, da die Abfolge zu eng getaktet ist. Die Grafikkarte muss – wie bei V-Sync an – mit der Aussage warten und rendert zwischenzeitlich bereits am nächsten Frame. Sie wird bei FPS = Hertz gedeckelt.
Quelle
BBT, freesync hat gegenüber gsync auch vorteile, denn es ist zumindest in der theorie schneller. es muss nicht wie gsync ständig abfragen, ob das bild schon fertig ausgegeben wurde
Das wird auch nicht abgefragt, da der Monitor ja exakt die fertigen Frames ausgibt. Die Graka muss nicht auf den Monitor warten. Siehe Beschreibung oben.