[Guide] Mythos V-Sync kostet Leistung, mit 3DMark wiederlegt

Dennis50300

Banned
Thread Starter
Mitglied seit
11.03.2012
Beiträge
3.701
Ort
Braunschweig
Also ich sehe im Gegenzug zu NVidia Standardeinstellungen mal eben 100 Punkte mehr, soviel zu dem Stuss den einige Verbreiten V-Sync würde Leistung kosten :-)
Screenshots von Ergebnissen im Vergleich und die richtigen Settings im NVidia Control Panel einfach mal gezeigt
Geniesst beste Reaktionszeiten und zudem höchstmögliche Effizienz eures Rechners, im Gegenteil ist es nämlich sogar so, wenn die Bude nur die passende Bildanzahl raushaut
für euren Bildschirm dann kostet es keine Leistung sondern die Kiste zieht eben nur das was Sie dazu benötigt.
Mir reichen beispielsweise 60, den Unterschied zu 75 den mein Monitor könnte, da seh ich absolut keinen Unterschied egal ob competitive FPS (First Person Shooter) oder eben nicht.

1.jpg2.jpg3.jpg
4.jpg5.jpg6.jpg

Gruss Dennis
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Öhm... Warum sollte vsync Leistung kosten? :unsure:
Es ist doch allgemein bekannt, daß es wenn dann nur Frames kostet da dann nur noch soviel Bilder berechnet werden, wie der Bildschirm pro Sekunde ausgeben kann (also an Hz hat). Das wiederrum kann InputLag verursachen wenn man nur einen 60Hz Monitor hat. Dennoch wird es die Hardware entlasten da nicht mehr die maximal möglichen FPS berechnet werden müssen sondern wie gesagt nur soviel wie der Bildschirm auch wiedergeben kann, sofern die GPU/das System überhaupt wenigstens die 60hz schafft. Wenn man keine 60FPS schafft (eben am beispiel mit nem 60Hz Monitor) fährt vsync auf 30FPS runter wenn mich nicht alles täuscht - es sei den man hat noch tripple Buffering aktiviert
 
@AssassinWarlord:
Auch einen "InputLag" wirst du dadurch nicht haben.
Du schaust so oder so immer nur zeitverzögert in die virtuelle Welt, die sich tatsächlich in deinem Rechner Abspielt, merken wirst du den nur ebenso nicht wie im Tonstudio die zeitliche Verzögerung mit Asio.

Was das Hardware entlasten angeht, liegst du aber vollkommen richtig, logisch ist es zudem ja auch das die leistungsaufnahme sinkt.
Das war allerdings als die GTX 1000er Serie noch UptoDate war, also Pascal erst auch noch nicht so.
Ich hatte das mal gemessen gehabt und später nochmals mit der RTX 2060 und deutlich aktuelleren Treibern, VSync brauchte mal tatsächlich genausoviel Leistungsaufnahme als hätte du es abgeschalten und kein FPS-Limit konfiguriert.

Am Besten Funktioniert VSync im übrigen über den Treiber anstelle der Games selbst, deshalb zeig ich es hier ja auch exakt so.

Triple Buffer hab ich grundsätzlich aus, kann ich auch nicht empfehlen, denn das bedeutet das die Games auch 3fach Grafikkartenspeicher brauchen :-)

Dann kann die Shadow Warrior 2 schonmal schnell in Limit laufen wenn deine Graka nur 3GB hat, beispielsweise mit einer GTX 1060, is ärgerlich denn Performance wäre ausreichend da (bei gewissen Details) aber das vom RAM immer nachgeschoben wird, reisst halt dummerweise die Performance voll in den Keller dann.
Dann kannste damit hin und herschalten, zwischen läuft kacke und läuft wunderbar :d

Gruss Dennis
Beitrag automatisch zusammengeführt:

Zudem @AssassinWarlord
Unbenannt.jpg

Das was die Reaktionszeit verbessert ist sogar explizit für VSync/GSync(-compatible) gedacht :-)
Das ist im übrigen dieselbe Option wie zuvor "Pre Rendered..." also von der CPU vorbereitete Bilder, Ein ist gleich 1 mit Ultra will man möglichst 0 Aufzwingen
Was wiederum für weniger CPU-Limit sorgt, weil weniger Last auf der CPU, was folglich auch zu weniger Leistungsaufnahme auf der Bude führt, Standard war/ist oft ja "3" gewesen, oder das wurde zwischen Treiber und Game so ausgehandelt auf 3
Das des natürlich mehr Last auf der CPU produziert hat, erklärt sich von selbst.

Gruss Dennis
 
Zuletzt bearbeitet:
Du schaust so oder so immer nur zeitverzögert in die virtuelle Welt,
Jap, aber mit V-Sync auf 60Hz kriegst du nur alle 32ms ein Bild. Du hast also mit V-Sync immer ein Lag zwischen >0 bis 32ms. Ohne V-Sync mit (angenommen konstanten) 100fps hast du immer nur 10ms Inputlag, weil eben alle 10ms ein Bild kommt.

Ob du +-20ms Inputlag überhaupt bemerkst oder nicht ist eine andere Frage, aber 32ms ist mehr als 10ms und damit hat man mit V-Sync eben nunmal höheres Inputlag (generell hat jede niedrigere Framerate höheres Inputlag).

Deine Erkenntnis ist sowieso... hmmm... Wenn einem 60fps reichen, stört V-Sync nicht... ja WENN. Ist selbstverständlich das ein auf 60fps begrenztes System halt nunmal 60fps liefert, wenn die Graka Leistung für mehr hat.

Du landest am Ende wieder bei der Geschmacksfrage ob einem denn nun 60fps ausreichen, oder ob jemand 120fps haben will, was am Ende nicht wirklich mehr was mit V-Sync zu tun hat.
Ich drossel meine FPS idR auch, weil ich eben auch keine 120fps brauche und mich das Inputlag absolut nicht stört. Inputlag ist aber nicht weg, nur weil du es nicht merkst oder es dich nicht stört.
 
@Liesel Weppen :

Nochmal, Timing, Zeit, dein Bildschirm liefert X Bilder pro Sekunde, dein Rechner muss dasselbe liefer, dann hast du die beste Reaktionszeit.
Die Reaktionszeit deines Rechners schon alleine wird ja nicht besser nur weil er mehr Bilder produziert und einem völlig falschen Timing....

10,20, 32ms gemessen, wann, womit, von -> bis ?
Das ist schlichtweg unsinniger Unfug ja :-)

Man kann ja nur einen Inputlag haben wenn man den spürt und das ist niemals der Fall wenn der Rechner deinen Bildschirm im richtigen Timing bespeist
Es heisst nunmal low Latency und nicht No Latency, nichtmal bei Asio in einem Tonstudio.... :d

Gruss Dennis
Beitrag automatisch zusammengeführt:

Angenommen 120fps, also frames pro Sekunde, auf 60Hz, ist jedes 2. Bild futsch, wie gut dann deine Treffsicherheit ist, kannste dir ausmalen, weil jede zweite Sekunde pro Sekunde komplett für die Tonne is, da passt einfach garnichts.
Denn es ist ja Frames pro Sekunde, nicht plötzlich doppelt soviel Frames pro Sekunde, tja, gemeine Mathematik
 
Das ist schlichtweg unsinniger Unfug ja :-)
Nein.

Man fängt bei 0ms an. Die Graka berechnet das Bild z.B. in 10ms. Danach tut sie 22ms (bei V-Sync 60Hz) nichts. Erst nach 32ms zeigt der Monitor das schon 22ms alte Bild an. Ist also 22ms verzögert.
Ohne V-Sync hätte die Grafikkarte in der Zeit gleich 3 Bilder berechnet, die ersten beiden Bilder wären überhaupt nicht zum Monitor gekommen, aber das dritte, das erst bei 30ms fertig war wäre somit nur 2ms verzögert am Monitor gelandet.

Die Graka berechnet das Bild nicht am Ende des Intervalls so das es synchron zum Monitorrefresh fertig ist, sondern die Graka berechnet nach dem Monitorrefresh mit dem aktuellen Bildes das nächste Bild. Bis zum nächsten Refresh ist das Bild dann aber halt schon "alt".
 
dann hast du die beste Reaktionszeit.
Die beste Reaktionszeit habe ich, wenn nach meiner Eingabe schnellstmöglich ein Bild von der GPU an den Monitor kommt, das diese Eingabe visuell umsetzt. Das ist mit Vsync nicht möglich, weil die GPU auf den nächsten Framebuffer Swap warten muss. Daher kann die zusätzliche Latenz durch Vsync von +0 bis +x Millisekunden variieren, x hängt dann von der Hertzzahl ab.

PS: Und natürlich auch von der Framerate. 30 FPS mit 60 Hz Vsync können diesen Effekt natürlich nochmal merklich verschlimmern. Da sich im worst case zwei Verzögerungen aufaddieren.

PS2: Tiple Buffering entschäft diesen Effekt dann natürlich wieder etwas, aber ein gewisser Latenzmalus bleibt immer.
 
Zuletzt bearbeitet:
Doch, mein Bildschirm kann Freesync (Gsync compatible)
20220504113029_1.jpg
Ist dieselbe Reaktionszeit wie 75 oder auch 60, weil die Bilder pro Sekunde "gleich verzögert" ausgegeben werden, ganz einfach.

Eben mal ausprobiert, noch keine Settings optimiert, kommt noch...

Die Frage ist, ist die Verzögerung spürbar durch die andere Methode, oder nicht, nach der Grafikkarte ist da jedenfalls nichts schneller oder langsamer, die Kiste schafft was die schafft innerhalb der Range die der Bildschirm kann, was bei mir 30 bis 75 frames pro Sekunde sind.
Und die Zeit ist da schon festgelegt, in Bild pro Sekunde

Gruss Dennis
Beitrag automatisch zusammengeführt:

Die beste Reaktionszeit habe ich, wenn nach meiner Eingabe schnellstmöglich ein Bild von der GPU an den Monitor kommt, das diese Eingabe visuell umsetzt.
läuft
Beitrag automatisch zusammengeführt:

Ohne V-Sync hätte die Grafikkarte in der Zeit gleich 3 Bilder berechnet, die ersten beiden Bilder wären überhaupt nicht zum Monitor gekommen, aber das dritte, das erst bei 30ms fertig war wäre somit nur 2ms verzögert am Monitor gelandet.
müsste ja bedeuten das die Leistunsaufnahme mit VSync höher ist, also ohne bei denselben Frames per Seconds, ist aber blöderweise nicht der Fall.

Gruss Dennis
 
Doch, mein Bildschirm kann Freesync (Gsync compatible)
Du begründest "keine zusätzliche Latenz mit Vsync" damit, das dein Monitor Freesync / Gsync Compatible kann? Du hast das ganze Konzept von Vsync nicht verstanden. Eben weil es so ist, gibt es ja Freesync überhaupt erst. Das ist ja der Vorteil von Freesync zu Vsync.

Die Graka berechnet das Bild nicht am Ende des Intervalls so das es synchron zum Monitorrefresh fertig ist, sondern die Graka berechnet nach dem Monitorrefresh mit dem aktuellen Bildes das nächste Bild

Genau so ist es. Mit Vsync liegt das fertige Bild im Backbuffer und wartet auf den Swap mit dem Frontbuffer. Das kann mit Vsync ud niederter Hertzzahl dann durchaus etwas dauern. Das Bild kann also unter Umständen schon relativ alt sein und daher wird dann eine Eingabe auch nur verzögert abgebildet.
 
Du begründest "keine zusätzliche Latenz mit Vsync" damit, das dein Monitor Freesync / Gsync Compatible kann? Du hast das ganze Konzept von Vsync nicht verstanden.
Eher schon, denn eurer Theorie nach, verringert sich die Reaktionszeit des Gesamtsystem durch die FPS, was aber nunmal Quatsch ist, wenns nicht zu dem passt was der Bildschirm kann, fernab davon ob nun Freesync(gsync compatible/Gsync, aktiv ist oder nicht, ändert das halt absolut garnichts.
Da ist lediglich ein Vorteil davon, von den beiden Techniken, das die Reaktionszeit dieselbe bleibt ja.

ich kann doch genausogut auch ein FPS-Limit setzen innerhalb der Range ohne VSync, das macht das Timing nun nicht spürbar besser bzw schlechter wenn VSync nun an ist.

Gruss Dennis
 
Sinnlose Diskussion, er weiß es eh besser.

Und er hat ja schließlich "ausprobiert", wo wann 20ms mehr oder weniger Inputlag entstehen *lol*
 
ch kann doch genausogut auch ein FPS-Limit setzen innerhalb der Range ohne VSync
Nein. Ein Framelimit synchronisiert die Bildausgabe nicht mit der Bildwiederholrate. Daher kommen die Bilder immer noch so schnell, wie die GPU es kann (bis zu 60 FPS bei 60 FPS Limit), es entfällt die Wartezeit auf den Vsync Bufferswap.

Dein ganzer Test funktioniert hier nur, weil die Framerate und Eingabeverzögerung hier keine Rolle spielt, weil es keine Eingabe gibt. Natürlich sind 60 FPS gleich 60 FPS, mit und ohne Vsync, aber wie versetzt die Bilder zur Eingabe kommen siehst und merkst du im 3D Mark gar nicht.
 
Sinnlose Diskussion, er weiß es eh besser.

Und er hat ja schließlich ausprobiert, wo wann 20ms mehr oder weniger Inputlag entstehen *lol*
Es reicht doch vollkommen aus das es keinen merkbaren Unterschied gibt, wo ist dein Messaufbau denn ansonsten bitte ?
Sinnlose Diskussion ja weil du keine handfesten beweise hast, hast du PCAT/PDAT ?

Dann lass doch mal sehen..
Beitrag automatisch zusammengeführt:

Das erklärt zumindest warum man obwohl des nicht so sein dürfte weil Sync, dennoch Tearing auftritt obwohl die Frames zur Range passen eigentlich
Beitrag automatisch zusammengeführt:

Dein ganzer Test funktioniert hier nur, weil die Framerate und Eingabeverzögerung hier keine Rolle spielt, weil es keine Eingabe gibt.
Macht kein Sinn, ich hab bei dem Screenshot von Halo, gespielt, also tastatur und Maus und beim Einruch von 75 runter auf die zu sehenden FPS keine veränderung der Reaktionszeit gespürt, dumm gelaufen nech
Der ist teil sogar bis auf 51 runter, keine Veränderung zu 75...
Beitrag automatisch zusammengeführt:

Doch, mein Bildschirm kann Freesync (Gsync compatible)
Anhang anzeigen 755631
Ist dieselbe Reaktionszeit wie 75 oder auch 60, weil die Bilder pro Sekunde "gleich verzögert" ausgegeben werden, ganz einfach.
guckst du
 
Sinnlose Diskussion, er weiß es eh besser.

Und er hat ja schließlich "ausprobiert", wo wann 20ms mehr oder weniger Inputlag entstehen *lol*
ich kann es zwar nicht messen, aber ich kann es zumindest mal in der Praxis auch nicht spüren, wenn ich es abschalte
Beitrag automatisch zusammengeführt:

Wir reden hier über Millisekunden, und mit Gsync compatible aktiv ist Vsync überhaupt nicht in Funktion...
achso deshalb gibt es ohne VSync auch mal Tearing und mit Vsync keines, machr keinen Sinn..., ist schlichtweh also eine Falschaussage
 
...[Ohne V-Sync hätte die Grafikkarte in der Zeit gleich 3 Bilder berechnet, die ersten beiden Bilder wären überhaupt nicht zum Monitor gekommen, aber das dritte, das erst bei 30ms fertig war wäre somit nur 2ms verzögert am Monitor gelandet. ]
müsste ja bedeuten das die Leistunsaufnahme mit VSync höher ist, also ohne bei denselben Frames per Seconds, ist aber blöderweise nicht der Fall.

Gruss Dennis

Warum höher? wie kommst du darauf, dass die Leistungsaufnahme höher sein müsste mit Vsync? die GPU wartet dann ja einfach bis der monitor das gerenderte Frame angezeigt hat durch seinen Zyklus, und erst dann berechnet die GPU das nächste frame und wartet dann ebenfalls, bis der Monitor ihr das Frame abgenommen hat.

auch ist es der fall, wenn man weniger FPS hat, die eigabeverzögerung immer größer wird, weil es ja dann immer länger dauert eb das nächste bild gezeigt wird

und soweit ich weiß, sollte vsync aktiviert sein wenn man gSync nutzt - ODER statt vsync ein FPS limiter dazuschalten - damit man nicht mit den FPS die die Grafikkarte pro sekunde berchnen kann, über die max. mögliche Herz zahl des Monitors hinaus schießt - nur dann würde Tearing entstehen.
 
achso deshalb gibt es ohne VSync auch mal Tearing und mit Vsync keines, machr keinen Sinn..., ist schlichtweh also eine Falschaussage

Natürlich gibt es ohne Vsync / Gsync Tearing und ich habe auch nicht das Gegenteil behauptet, es geht hier aber doch gerade um die Leistung + Eingabeverzögerung. Du musst mal zwei verschiedene Dinge auseinander halten. Sobald Gsync Compatible aktiv ist, arbeitet die GPU anders als mit Vsync. Du solltest dir erst einmal anschauen wie sich diese beiden Techniken in der Funktion unterscheiden.

Du wirfst hier verschiedene technische Konzepte in einen Topf und hälst den Mixer rein...

und erst dann berechnet die GPU das nächste frame und wartet dann ebenfalls

Die GPU berechnet das Bild schon vorher, im Backbuffer. Muss aber dann natürlich warten, bis dieser durch den Swap mit dem Frontbuffer wieder frei wird, bis ein neuer Frame berechnet werden kann. Das Bild liegt da natürlich vor sich hin und wartet, das erzeugt dann eine optische Eingabeverzögerung. Technisch bedingt sind bei 60 Hz so natürlich nur 60 FPS möglich und daher braucht die GPU dann auch weniger Strom, da hast du völlig recht.
 
Zuletzt bearbeitet:
Es reicht doch vollkommen aus das es keinen merkbaren Unterschied gibt, wo ist dein Messaufbau denn ansonsten bitte ?
Und dein "Messaufbau" ist, das du keinen Unterschied spürst?

Du behauptest, das es keinen Inputlag verursacht, weil DU keinen Unterschied SPÜRST?
Dazu habe ich weiter oben schon geantwortet:
Ob du +-20ms Inputlag überhaupt bemerkst oder nicht ist eine andere Frage, aber 32ms ist mehr als 10ms und damit hat man mit V-Sync eben nunmal höheres Inputlag (generell hat jede niedrigere Framerate höheres Inputlag).

Und wegen deinen hochwissenschaftlichen Analysen durch Popometer, absolut fehlendes Verständnis was V-Sync überhaupt tut, wo der Unterschied zu G/Freesync liegt und deiner absoluten Beratungsresistenz ist diese Diskussion mit dir absolut sinnfrei.
Dir haben es jetzt schon mehrere unterschiedliche Leute erklärt und du kommst immernoch an mit "kann nicht sein, weil ich SPÜRE keinen Unterschied".
 
Literally no one has ever said that.
Du vielleicht nicht, das mag sein, ich hab das in der tat schon zu oft gehört und gelesen, deshalb befass ich mich damit ja nochmals :-)
Beitrag automatisch zusammengeführt:

Warum höher? wie kommst du darauf, dass die Leistungsaufnahme höher sein müsste mit Vsync? die GPU wartet dann ja einfach bis der monitor das gerenderte Frame angezeigt hat durch seinen Zyklus, und erst dann berechnet die GPU das nächste frame und wartet dann ebenfalls, bis der Monitor ihr das Frame abgenommen hat.

auch ist es der fall, wenn man weniger FPS hat, die eigabeverzögerung immer größer wird, weil es ja dann immer länger dauert eb das nächste bild gezeigt wird

und soweit ich weiß, sollte vsync aktiviert sein wenn man gSync nutzt - ODER statt vsync ein FPS limiter dazuschalten - damit man nicht mit den FPS die die Grafikkarte pro sekunde berchnen kann, über die max. mögliche Herz zahl des Monitors hinaus schießt - nur dann würde Tearing entstehen.
türmt sich halt, macht Sinn

bis auf das türmt sich halt, macht das keinen Sinn, es sei denn Stromsparmechanismen beim Rechner wie das unnötige CoolnQuiet/PSS Support pfuschen dir ins System obwohl es keinen einzigen Watt an Leistungsaufnahme spart, nicht unter Last, also teil Last sowie Vollast sowie im IDLE. (zumindest CPU seitig, die Grafikkarte verhält sich da etwas ander bei der Leistungsaufnahme, da willst nicht immer den vollen Takt haben, das haut dir sofort auf die Leistungsaufnahme )

Ja ohne VSync nur FPS-Limit gibt es desöfteren mal Tearing, kann ich mit Freesync compatible jedenfalls bestätigen.

Edit "Warum höher?"
Muss die Grafikkarte mehr Bilder pro Sekunde produzieren hast du mehr Last, mehr Last heisst höhere Leistungsaufnahme, also braucht die mehr Saft.
Gut 1 vs. 3 is mal nix, aber denke mal in 60 vs 180, da wird es dann interessant im Vergleich :-)

Gruss Dennis
 
Zuletzt bearbeitet:
Ein seltsamer Dennis Thread: Sehr Unterhaltsam.

Zum Thema: Ich habe mit Riva Tuner / MSI Afterburner die Anzeige meines G-Sync Kompatiblen Monitor auf 140Hz begrenzt - und V-Sync on. Ich will Tearing vermeiden und das scheint so zu funktionieren.
Kann man doch so machen? Ich merke nichts von langsamer / Input lag oder weniger Frames.
 
Literally no one has ever said that.
Wobei das eigentlich jedem bekannt ist, der Vsync versteht. Vsync limitiert technisch bedingt die maximale Framerate auf die Hertzzahl. Schafft meine GPU nun 80 FPS und ich habe einen 60 Hertz Monitor, dann läuft mein Spiel nur mit 60 FPS bei aktivem Vsync. Vsync kostet mich also einfach gesagt 20 FPS.

Unterhalb dieser Schwelle (und mit aktivem Tiple Buffer) macht Vsync natürlich keinen Unterschied, bis auf eine leicht erhöhte Eingabeverzögerung.
 
Natürlich gibt es ohne Vsync / Gsync Tearing und ich habe auch nicht das Gegenteil behauptet, es geht hier aber doch gerade um die Leistung + Eingabeverzögerung. Du musst mal zwei verschiedene Dinge auseinander halten. Sobald Gsync Compatible aktiv ist, arbeitet die GPU anders als mit Vsync. Du solltest dir erst einmal anschauen wie sich diese beiden Techniken in der Funktion unterscheiden.

Du wirfst hier verschiedene technische Konzepte in einen Topf und hälst den Mixer rein...



Die GPU berechnet das Bild schon vorher, im Backbuffer. Muss aber dann natürlich warten, bis dieser durch den Swap mit dem Frontbuffer wieder frei wird, bis ein neuer Frame berechnet werden kann. Das Bild liegt da natürlich vor sich hin und wartet, das erzeugt dann eine optische Eingabeverzögerung. Technisch bedingt sind bei 60 Hz so natürlich nur 60 FPS möglich und daher braucht die GPU dann auch weniger Strom, da hast du völlig recht.
Nuja Vsync ist erstmal nicht dasselbe wie GSync oder GSync-compatible (Freesync an NVidia)
Da geht es ja schonmal los, GSync und Freesync machen gegen Tearing nunmal dummerweise absolut garnichts.

60 fps bei 60hz, hast du aber eben an sich ja eigentlich alles was geht dabei, mit dem Timing zumindest, du hast ja die richtigen Bilder zur richtigen Zeit
Wenn du Gsync/FreeSync/Gsync compatible hast, bleibts timing halt auch mal dasselbe zumindest spürbar dasselbe auch wenn die Frames mal eben einbrechen, was zwangsweise immer passiert, zumindest mal um 1 Frame, das macht diese Techniken ja zudem was die sind, hast du es einmal gehabt, willst du nicht mehr ohne, weil der syncronisierte Bildablauf einfach sehr viel besser ist
Beitrag automatisch zusammengeführt:

Ein seltsamer Dennis Thread: Sehr Unterhaltsam.

Zum Thema: Ich habe mit Riva Tuner / MSI Afterburner die Anzeige meines G-Sync Kompatiblen Monitor auf 140Hz begrenzt - und V-Sync on. Ich will Tearing vermeiden und das scheint so zu funktionieren.
Kann man doch so machen? Ich merke nichts von langsamer / Input lag oder weniger Frames.
ich würd über den Treiber machen anstelle über Hooking mit dem MSI Afterburner oder RTSS, ob du es tatsächlich im RTSS gemacht hast oder Afterburner Tool ist nochmals ein Unterschied, wenn eines von den beiden dann besser RTSS.
Treiber funktioniert zumindest bei NVidia aber besser

Gruss Dennis
 
Wobei das eigentlich jedem bekannt ist, der Vsync versteht. Vsync limitiert technisch bedingt die maximale Framerate auf die Hertzzahl. Schafft meine GPU nun 80 FPS und ich habe einen 60 Hertz Monitor, dann läuft mein Spiel nur mit 60 FPS bei aktivem Vsync. Vsync kostet mich also einfach gesagt 20 FPS.

Unterhalb dieser Schwelle (und mit aktivem Tiple Buffer) macht Vsync natürlich keinen Unterschied, bis auf eine leicht erhöhte Eingabeverzögerung.
20 FPS die deine Kiste weniger pro Sekunde raushaut ist aber kein Leistungsverlust, was du indirekt damit aber schon aussagst gewissermaßen.
Beitrag automatisch zusammengeführt:

Und damit hast du dich gerade aus diesem Thread fachlich verabschiedet und bestätigt, dass du technisch nicht durchblickst.
Das ist die Erfahrung aus der Praxis, Fakten, kein Geschwurbel..., du hast dich gerade verabschiedet ja...
 
Wenn der Monitor in der G-Sync / bzw. Free Sync Range ist - gibt es kein Tearing, oder doch?
 
Wenn der Monitor in der G-Sync / bzw. Free Sync Range ist - gibt es kein Tearing, oder doch?
ja dummerweise doch wenn VSync deaktiviert ist, das sind also unterschiedliche Techniken gegen andere "Symptome" die sich nicht gegenseitig ausschliessen zu funktionieren, also entweder oder ist da nicht.
Man kann beides an sowie abschalten.

Gruss Dennis
Beitrag automatisch zusammengeführt:

Sprich es ist ein Unterschied ob Vsync an ist oder nicht, du kannst Gsync(-compatible) dabei an sowie auch ausschalten

1.jpg2.jpg

Kannst du konfigurieren wie du lustig bist und Testen

Gruss Dennis
Beitrag automatisch zusammengeführt:

Einstellung für 3D-Anwendung heisst immer, jenachdem was man im Spiel konfiguriert hat
Bei VSync und PUBG kann ich nur sagen, das Setting im Treiber zählt, PUBG kann kein VSync aktivieren, das gibt Tearing, machste nüscht :d
 
Nein, weil das die Kernaufgabe von Freesync / Gsync ist, unter Beibehaltung einer hohen Framerate und geringen Eingabeverzögerung, daher ist ja Freesync / Gsync aus Vsync heraus überhaupt erst entwickelt worden, weil es den Vorteil von Vsync ohne seine Nachteile bieten soll.
Warum gibt es dann Tearing wenn VSync deaktiviert ist ?
Ganz einfach Fangfrage...., die du offenbar nicht beantworten kannst
Warum muss ich denn bei PUBG explizit VSync über den Treiber aktivieren weils es sonst mit inGame Settings immer Tearing gibt und offenbar nicht eingeschaltet wird

Das sind zwei unterschiedliche Features sowie Optionen, nicht ein und dasselbe....jungejungejunge.,...
Beitrag automatisch zusammengeführt:

Ich lerne nur langsam. Danke! @Dennis50300
Gibt PUBG ja umsonst mittlerweile, du wirst sicherlich dasselbe feststellen wie ich bezüglich VSync :-)
Beitrag automatisch zusammengeführt:

Nein, weil das die Kernaufgabe von Freesync / Gsync ist, unter Beibehaltung einer hohen Framerate und geringen Eingabeverzögerung, daher ist ja Freesync / Gsync aus Vsync heraus überhaupt erst entwickelt worden, weil es den Vorteil von Vsync ohne seine Nachteile bieten soll.
Der Vorteil von GSync/Freesync besteht leiglich darin das der Montor seine refresh rate sich variabel (innerhalb seiner Range) dem anpasst was die Grafikkarte an Frames pro Sekunde raushauen kann.
Sprich bei mir mit meinem AOC die Range bei 30 bis 75, ansonsten nichts weiter, deshalb gibt es ja Tearing wenn VSync deaktiviert ist...

Soviel zum Thema "fachlich", deine Theorie ist blöderweise in der Praxis schlichtweg falsch
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh