Tearing, Input-Lag und Ruckler adé dank NVIDIA G-SYNC (Update)

Es wird immer Input-Lag geben, da du nie zwei Bilder gleichzeitig erstellen und anzeigen lassen kann.

Um den Input-Lag zu minimieren, brauchst du einen Monitor mit einer hohen Refreshrate.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich denke die Frage ist, wie viel wir noch wahrnehmen werden, bei 144Hz Refreshrate und G-Sync. Gerade das Zusammenspiel dürfte Interessant aussehen und mal gucken, was die wirklich Tests dann auswerfen.
 
Laut Nvidias Huang wird es mit G-Sync weniger (less) Inputlag geben. Siehe Präsentationsvideo..

Stutter und Tearing sollen aber in Gänze getilgt sein (zumindest in Zusammenhang mit Sync).
 
Ok, also wäre das Optimum ein 144Hz Monitor zusammen mit Hardware, welche min. 144FPS darstellen kann (bzw. Settings soweit runterschrauben, bis immer min. 144FPS dargestellt werden können).

Dann müsste man nur noch in der Praxis VSync + Framelimitter mit GSync vergleichen.
Wenn dabei GSync einen merkbar positiveren Eindruck hinterlässt, muss nur noch jeder für sich überlegen, ob ihm das den Aufpreis den GSync kostet, Wert ist.
 
Wie jetzt really??

ja...
Ob der Inputlag vollständig "weg" ist, müsste man mal genau nachmessen (lassen).
Zumindest den Beiträgen zur Folge scheint das ein Mittel zum Zweck zu sein, das man eben das merkbare Verzögern im VSync nicht mehr hat.

Deswegen sagte ich ja oben, wer mit ausreichend hohen FPS Raten spielt, hat heute schon sehr gute Möglichkeiten... Auch ohne G-Sync. Fehlt quasi fast nur die Flexibilität bei Framedrops... Die gibts definitiv nicht heute, da sich die Refreshrate nicht live ändern lässt. Zumindest nicht derart schnell und ohne Flackern...
Wie sich das gegen G-Sync schlagen wird, bleibt abzuwarten...
 
Ok, also wäre das Optimum ein 144Hz Monitor zusammen mit Hardware, welche min. 144FPS darstellen kann (bzw. Settings soweit runterschrauben, bis immer min. 144FPS dargestellt werden können).

Ja.

Dann müsste man nur noch in der Praxis VSync + Framelimitter mit GSync vergleichen.
Wenn dabei GSync einen merkbar positiveren Eindruck hinterlässt, muss nur noch jeder für sich überlegen, ob ihm das den Aufpreis den GSync kostet, Wert ist.

Vsync + Framelimitter macht kein Sinn.
GSync wird also hier einen Vorteil haben, da du zwischen 30Hz und MaxRefresh immer das vollständige Bild ohne Puffer siehst.
 
Ich besitze den Asus VG248QE, eine GTX680 DC2T und spiele komplett ohne VSync oder Framelimitter. Ich habe weder Schlieren noch wahrnehmbare Lags in COD und BF3. Ab und zu macht sich ein kleines Tearing bemerkbar.
Ich halte von Vsync sehr wenig, weil es bei mehr Störeinflüsse verursacht, als verbessert.
 
Würde auch gerne wissen, warum VSync + Framelimitter keinen Sinn macht?

Der Vorteil von GSync mit der Flexibilität (Hz des Monitors passt sich den FPS der Graka-Ausgabe an) ist ja unbestritten.
Das wäre aber scheinbar auch der einzige Vorteil, den GSync gegenüber VSync + Framelimitter (vorausgesetzt dabei, dass die Hardware immer min. soviel FPS schafft, wie man Hz am Monitor hat) bietet.
 
Zuletzt bearbeitet:
Framelimitter macht ohne Vsync Sinn, um Tearing zu verhindern bzw. vermindern. Aber wozu sollte man den Framelimitter bei Vsync brauchen?

Oder stehe ich jetzt total auf dem Schlauch?
 
@ralle
Weil du durch den Framelimiter unmittelbar "vor" dem VSync "Limit" quasi den Inputlag eliminierst, dabei aber trotzdem die Vorzüge von wegen kein Tearing, den Syncronen Frames mit der Hz des Monitores? und Co. hast... :wink:

Ich erinnere mich dunkel, das das seinerzeit ein paar Leute auch so benutzten um die Microruckler Problematik im MGPU zu eliminieren ;)

Es müsste nur mal jemand genau nachmessen, was den Inputlag angeht. Sprich ob das wirklich "weg" ist und somit vergleichbar wäre mit ner Messung ohne VSync bei gleichen Restbedinungen...
 
Zuletzt bearbeitet:
Welche Tools nutzt ihr denn so, um zu testen?
 
Also laut diesem Video macht Framelimitter mit VSync um Tearing zu verhindern/minimieren eben doch Sinn:

How to: VSync ohne Inputlag - YouTube

Vsync verhindert doch schon das Tearing ^^

Muss mir das Video daheim dann mal anschauen.

Es müsste nur mal jemand genau nachmessen, was den Inputlag angeht. Sprich ob das wirklich "weg" ist und somit vergleichbar wäre mit ner Messung ohne VSync bei gleichen Restbedinungen...

Kann ich am WE mal testen, kann zwar keine Zahlen liefern und weiß ned wie das zu messen wäre, aber bin zumindest subjektiv sehr empfindlich was das Input Lag angeht und könnte meine Eindrücke schildern.
 
Zuletzt bearbeitet:
Sontin schrieb:
Ich find's cool, wie du, aber auch deine Kollegen von AMD, euch immer Lügen aus den Fingern saugt.
Man hätte also mit G-Sync einen "Inputlag". Haste ja auch bei SLI immer felsenfest behauptet.

Bitte auch begründen, siehe hier:

slippers44 schrieb:
Laut Nvidias Huang wird es mit G-Sync weniger (less) Inputlag geben. Siehe Präsentationsvideo..

Stutter und Tearing sollen aber in Gänze getilgt sein (zumindest in Zusammenhang mit Sync).

Macht es nicht einfach mehr Sinn einfach keine Lügen über Dinge zu schreiben, die du entweder nicht verstehst oder aber von der Konkurrenz kommen?

Es ergibt jedenfalls keinen Sinn unsachlich zu werden und auch keine Argumente zu liefern so wie du, halte dich mal ein bisschen zurück.
G-sync ist nicht perfekt, deswegen sagt Huang auch "less inputlag", aber immernoch deutlich besser als V-sync, die Geschichte mit einem Limiter davor setzen muss ich jetzt noch ausprobieren.

Sontin schrieb:
Vsync + Framelimitter macht kein Sinn.

Wieso schreibt dann Thunderburne man könne den Inputlag minimieren? Lügt er etwa auch und ist eine AMD Drohne? :d
Mach dich nicht lächerlich hier, Thunderburne ist ein CF/SLI User und hat schon oft zu dem Thema gepostet, also wieso soll V-sync + Framelimiter nichts bringen?

fdsonne schrieb:
Weil du durch den Framelimiter unmittelbar "vor" dem VSync "Limit" quasi den Inputlag eliminierst, dabei aber trotzdem die Vorzüge von wegen kein Tearing und Co. hast...

Aha, da ist schon der erste der es erklärt. Wieso macht es jetzt nochmal keinen Sinn @ Sontin?

Also laut diesem Video macht Framelimitter mit VSync um Tearing zu verhindern/minimieren eben doch Sinn:

How to: VSync ohne Inputlag - YouTube

Wieso bist du dann so überzeugt @ Sontin? Wer lügt hier jetzt?

Sontin schrieb:
Vsync + Framelimitter macht kein Sinn.
GSync wird also hier einen Vorteil haben, da du zwischen 30Hz und MaxRefresh immer das vollständige Bild ohne Puffer siehst.

Zwischen G-sync hat "einen" Vorteil" und V-sync + Limiter ergibt keinen Sinn,gibt es unabhängig davon ob das richtig ist was du schreibst einen kleinen, aber feinen Unterschied, bist du verwirrt?

Ich nehme mal an das was du da von dir gibst ist reines Marketinggeschwurbel, an einem objektiven Vergleich, was es wirklich bringt, welcher Nutzen/Kostenfaktor dahinter steckt etc.. bist du eh nicht interessiert.
 
Zuletzt bearbeitet:
Egal ob V-sync, G-sync oder was auch immer, man hat immer einen input lag von mindestens einem frame, denn die Eingabedaten müssen auch bearbeitet werden.

Mit V-sync erhöht sich der input lag, da gewartet wird, bis ein neues Bild am Monitor angezeigt wird. Der input lag ist am kleinsten, wenn ich ein Bild immer dan liefern kann, wenn der Monitor ein neues Bild anzeigt. Und den größten, wenn ich immer genau dann ein frame fertig berechnet habe, wenn das bild aufgebaut wird (Hz/2 + 1 takt). Im idealfall musst man also versuchen, die höchstmöglichen FPS zu erreichen, die als ganzer Teiler der Monitor Wiederholrate dargestellt werden können (Hz, Hz/2,....) und genau hier kommen dann framelimiter zum tragen. Durch tripplebuffering kann sich das inputlag sogar noch weiter erhöhen.

G-sync selbst hat auch einen inputlag, aber den kleinst möglichen 1 frame, außer die FPS fallen unter die 30Hz/Fps (wurden weiter oben als mindestfrequenz genannt), dann gilt das selbe wie bei V-sync Hz/2.


Schlecht ist es mit sicherheit nicht, aber ich bin mir ziemlich sicher, das man das auch anders (offen) hätte lösen können und nicht nur für einen hersteller mit einem speziellen protokoll.
 
Hab das heute jetzt mal angetestet (mit 118fps Frame Limit @ 120 Hz)

7bf3343d_vsyncbf3shittychart.png
Quelle: BF3, Possible VSYNC trick? No input lag + frame sync (no tearing).

und kann das größtenteils bestätigen, auch wenn der Input Lag nie ganz verschwindet (außer ohne VSYNC, da fühlt sich die Maus dann 100% smooth an). Daher bleibt VSYNC off und Frame Limit imo die beste Option (kein Inputlag mit wenig Tearing).
 
Danke für die Tests @ ralle_h, so wie das aussieht muss man sich fast G-sync anschaffen, um sich wirklich eine Meinung zu bilden.
Ich kann ja das Zeugs dann weiterverkaufen, wenn es sich nicht lohnt.

Hab grade mal mit meiner 7970 DCII in BF3 mit 60 Hertz v-sync und FRamelimiter @ 59 FPS gespielt. Frames immer über 60, zumindest in den Szenen ( hab ca 15minuten gespielt).

War recht geschmeidig, ich seh da eigentlich keinen Bedarf da was nachzurüsten.
 
Zuletzt bearbeitet:
Wie können die Frames denn mit Limiter auf 59 immer über 60 gewesen sein? :rolleyes:
 
Ja nur in der theorie..., das heißt sie fallen nicht unter 59 fps.
 
Ich habe versucht hier eine Antwort zu finden bzw. in google auch, aber irgendwie klappt es nicht.

Folgendes

Wenn ich einen normalen Monitor habe, also bis 60Hz und eine entsprechende Karte hätte die mir relativ konstant 60-70 fps oder gar mehr bietet - macht G Sync Sinn?
Weil ich bekomme mehr Bilder als ich anzeigen lassen kann. Wenn es mehr als 60 sind, verschluckt der Monitor die restlichen oder?
Wenn der Monitor 100Hz, wie z.B. der X34, kann/könnte und G Sync aktiviert wird, bedeutet das, dass mir immer (weil fps ja schwanken) die "richtige" Anzahl angezeigt wird? Macht das überhaupt ab 60+ fps Sinn bzw. merkt man so etwas?

Mir ist das nicht so ganz klar. Was ich verstehe ist, wenn die Karte irgendwo 40-60 FPS schafft, soll die Technik hier Wunder wirken. Bei entsprechend guter Karte, wäre das nicht notwendig (sprich man nimmt eine 980/ti und spielt auf Full HD)

Ich bin gar nicht so empfindlich aber nachdem ich lese "wer einmal G Sync erlebt hat, will es nicht mehr missen", tauchen diese Fragen auf - überhaupt wenn jetzt die Curved 34 Zoll Monitore preislich vielleicht attraktiver werden, stellt sich die Frage ob man mit den "normalen" 60Hz gut bedient ist.


thx
 
Zuletzt bearbeitet:
Naja,

ich sag mal so, mein Freesync ist von 10-144 FPS sichtbar.
Mehr wie 144FPS habe ich nicht, da ich dies im Treiber unterbunden habe.

Jedoch kann ich dir soviel sagen, ich hatte Anfang des Jahres ein SLI Gespann aus GTX970ern und den Asus ROG-Swift 27".

G-Sync und FreeSync arbeiten so gut, das du selbst im High-FPS Bereich SICHTBARE Ruhe ins Bild bekommst.
Ich erkenne mittlerweile fast sofort ob ein Bildschirm G/FreeSync hat oder nicht.

Diese Ruhe ist so unfassbar "schön", du willst definitiv nicht mehr ohne!
 
Warum verdammtnochmal gibt es keinen Monitor, der GSync und FreeSync unterstützt? :wall:
Ich will mir nicht einen neuen Monitor kaufen müssen, nur weil ich mal von nvidia zu AMD umsteige oder umgekehrt.

Kann/darf nvidia den Monitor-Herstellern tatsächlich verbieten, einen G-Sync-Monitor herzustellen, der zusätzlich auch FreeSync unterstützt?
Was ist, wenn irgendein chinesischer Herstellter das trotzdem macht? Oder das ganze so konstruiert, dass der Monitor von Werk aus erst einmal nur GSync kann, aber dank einer anderen Firmware (die natürlich nicht selbst und direkt von diesem Hersteller veröffentlicht wird) auch FreeSync-fähig gemacht werden kann?

Mir persönlich reichen übrigens schon konstante, tearing-, inputlag- und ruckelfreie (quasi VSync) 100Hz/100FPS.
Sehe zwischen 100, 120 und 144Hz so gut wie keinen Unterschied (aber sehr wohl einen Unterschied zwischen 60 und 100Hz/FPS)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh