Tearing, Input-Lag und Ruckler adé dank NVIDIA G-SYNC (Update)

mich würde ja interessieren, was passiert mit so einem Ding wenn die FPS Rate in den Keller geht!?

Imho ist es ja bis weilen so, das bei (adaptivem) VSync die FPS gedeckelt sind auf die Hz Rate des Monitors... Soweit so gut, ohne adaptives VSync gibts bei unter 60 FPS und 60 Hz eben nur 30 FPS -> soweit auch klar. Mit adaptivem VSync schaltet sich VSync aus unter 60 Hz.
Was passiert mit so einem Teil hier angesprochen, wenn die FPS Rate unter 60 FPS rutscht!? Schaltet dann der Monitor nur noch mit den Werten der FPS Rate? Also wenn ich sagen wir 33 FPS habe, hab ich nur noch 33 Hz? Oder wie läuft das!?
Bei nem 120 Hz Monitor könnte man ja immernoch doppelt oder dreifache Hz Rate schalten als die FPS sind, also sagen wir 66 oder 99 Hz. Aber bei nem 60 Hz?


Ansich scheint zumindest in höheren FPS Regionen der Spaß gut zu sein... Mich stört nur schon wieder, das man dazu zusatz Hardware braucht :(

Es geht ja um Synchronisation, wenn du Vsync ausschaltest hast du ja eben ein "gehacktes" BIld, wenn sie sowas in den Griff bekommen ist das Bild halt runder.

Bei AMD gibt es ja auch das LCD Overdrive was bei einigen Monitore funktionier oder das GPU-Scaling.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
mich würde ja interessieren, was passiert mit so einem Ding wenn die FPS Rate in den Keller geht!?

Dann wird der Bildschirm schwarz und es wird die Meldung "Bitte mit Nvidia GPU aufrüsten!" samt Link zum örtlichen Hardware-Händler eingeblendet... :fresse:
 
Was passiert mit so einem Teil hier angesprochen, wenn die FPS Rate unter 60 FPS rutscht!? Schaltet dann der Monitor nur noch mit den Werten der FPS Rate? Also wenn ich sagen wir 33 FPS habe, hab ich nur noch 33 Hz? Oder wie läuft das!?

Richtig! Und dadurch wirkt das Bild dann trotz niedriger FPS flüssiger (und hat weder Tearing noch Inputlag), als bei einem Modell das immer 60 Hz hat, da das Verhältnis FPS/Hz genau aufgeht. Sonst käme es zu Unregelmäßigkeiten, denn dann müsste man bei 33 FPS den Großteil der FPS doppelt so lange anzeigen lassen (sozusagen 2 Hz lang) und einen kleinen Teil normal (sozusagen 1 Hz lang) um auf die 60 Hz zu kommen.
So hab ich das zumindest verstanden ...
 
mich würde ja interessieren, was passiert mit so einem Ding wenn die FPS Rate in den Keller geht!?

Imho ist es ja bis weilen so, das bei (adaptivem) VSync die FPS gedeckelt sind auf die Hz Rate des Monitors... Soweit so gut, ohne adaptives VSync gibts bei unter 60 FPS und 60 Hz eben nur 30 FPS -> soweit auch klar. Mit adaptivem VSync schaltet sich VSync aus unter 60 Hz.
Was passiert mit so einem Teil hier angesprochen, wenn die FPS Rate unter 60 FPS rutscht!?

Bei G-SYNC passt sich die Hz Zahl dann den FPS an.


Sieht gut aus, ich sehe meine Befürchtung aber bestätigt... der Displayport Anschluss limitiert und lässt vermutlich nur 60 Hz zu?

Schade, denn 60 Hz kommen mir nicht mehr ins Haus. Verstehe nicht, wie manche Leute mit 60 Hz Monitoren leben können, da ist sogar die Maus im Windows richtig unsmooth :( Dafür lebe ich dann auch mit dem TN Panel, das dank Glossy Display gerade noch so zu ertragen ist.
 
Zuletzt bearbeitet:
Ein Beweis-Video für Bildqualität, dass mit der Hand gefilmt wurde ist natürlich eine gute Idee..: :d
 
Also ich seh da einen deutlichen Unterschied, auch wenn die 60 Hz rechts auch nicht wirklich smooth aussehen... wie das bei 60 Hz halt leider so ist.
 
Richtig! Und dadurch wirkt das Bild dann trotz niedriger FPS flüssiger (und hat weder Tearing noch Inputlag), als bei einem Modell das immer 60 Hz hat, da das Verhältnis FPS/Hz genau aufgeht. Sonst käme es zu Unregelmäßigkeiten, denn dann müsste man bei 33 FPS den Großteil der FPS doppelt so lange anzeigen lassen (sozusagen 2 Hz lang) und einen kleinen Teil normal (sozusagen 1 Hz lang) um auf die 60 Hz zu kommen.
So hab ich das zumindest verstanden ...

Mhhh also doch...
Aber das hat eben auch den entscheidenden Nachteil, das eben die FPS erstmal die Hz Rate erreichen müssen...
Ich schiele da speziell auf die Mainstreamklasse :wink:
Da kämpfen die Karten doch reihenweise mit FPS Raten unter 60 FPS.
Wenn das wirklich so sein sollte, kann ich das ehrlich gesagt nicht so 100% gut heißen :(

Ich hatte mich seinerzeit mal an 24Hz im 3D auf nem TV versucht. Das ist Grütze ohne Ende. Selbst bei definitiv syncronen FPS Raten bei aktivem VSync ist das nix.
Das zeigen auch diverse Berichte und Aussagen darüber, das das eben bei Videodarstellung mit heutigen Maßstäben zu wenig ist. Selbst 25 FPS oder 30 FPS syncron sind da zu wenig für als flüssig anzusehende (schnelle) Bewegungen.
Mit 60 Hz/FPS mag das ein Stück weit besser gehen, aber dann muss man die FPS Rate auch erreichen... Geht es drunter, wirds "zäh". Erreiche ich aber die FPS Rate, habe ich doch von der Warte her auch nur ein leicht besseres (adaptives) VSync mit der Option, das es eben doch an bleibt, wenn die FPS Rate unter die Schwelle rutscht...


Wenn man so will sozusagen eigentlich genau das Gegenteil vom aktuellen Trend zu mehr Hz am Zockermonitor!?
Weil man eben nach unten hin die Hz öffnet um das Bild je nach FPS Rate syncron zu halten. Aber der aktuelle Trend geht doch eher in die andere Richtung, sprich mehr wie 60 Hz... Mit möglichst hohen FPS. Je nachdem, wo man seinen Monitor fixt wären ja heute schon sagen wir 80, 85 oder auch 100Hz möglich. Mit entsprechend hoher GPU Power geht das im adaptiven VSync auch entsprechend analog.
Wozu braucht man dann hier dieses G-Sync!? Wenn es scheinbar nicht über 60 Hz kann? Wo ist da der "Vorteil" gegenüber nem adaptivem VSync mit händisch gesetzten Werten?
 
@ ralle_h. Sieht man auch, trotzdem ist es anstregend/nervig, wenn das Bild des Videos dabei auch die ganze Zeit wackelt. ;)
 
Mhhh also doch...
Aber das hat eben auch den entscheidenden Nachteil, das eben die FPS erstmal die Hz Rate erreichen müssen...

Nein, die Hertz passen sich den FPS an. Es läuft im Prinzip so, wie es laufen sollte. Kommt ein Bild wird es sofort dargestellt, es gibt keine fixe Aktualisierungsrate des Monitors die meistens gar nicht zur Framerate passt.

Adaptive VSync schaltet VSync doch automatisch ab, wenn die 60 FPS (bei einem 60 Hz Monitor) unterschritten werden. Dann hast du wieder Tearing und Verzögerungen/Unregelmäßigkeiten, weil die Hertz nicht den FPS entsprechen. Beides wird durch G-Sync behoben.

Woher kommt die Vermutung, es ginge nur mit 60 Hz Monitoren? Das erste Modell soll der ASUS VG248QE mit 144 Hz sein, oder meint ihr Displayport schafft nicht mehr? Das sollte eigentlich von der Bandbreite her kein Problem sein, denn selbst 4K geht doch über Displayport?
 
Zuletzt bearbeitet:
Schade, denn 60 Hz kommen mir nicht mehr ins Haus. Verstehe nicht, wie manche Leute mit 60 Hz Monitoren leben können, da ist sogar die Maus im Windows richtig unsmooth :(
Oder liegt es einfach nur an deinem Gehirn?! :xmas: Welche ja bekanntlich fehlende Bilder in einer animation selbst erstellen.


Na da versucht es Nvidia wieder ganz clever. Wollen Monitore\Chipsätze anbieten die rein exklusiv mit Nvidia Hardware funktionieren. Da wird der hardwarekauf solcher Monitorbesitzer in Zukunft sicher weniger Anstrengend da ihnen ja kaum eine Wahl bleibt. :shot:

Ich persönlich sehe da keinen großen Bedarf. Viel lieber hab ich mal überhaupt wieder ein paar gute Spiele die es zu spielen gibt..
 
Mich wundert bissl die Aussage, dass es nicht in jedem Spiel geht. Dafür wäre ein Upgrade dann zu teuer. Prinzipiell ist es aber absolut genial, sofern es funzt!

Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
Sinnvolle Sache! Ob AMD da nachzieht und etwas Ähnliches entwickelt? Hoffentlich lassen sie sich da nicht so lange Zeit wie mit der Bekämpfung der Multi-GPU-Probleme. :shot:
 
144Hz verhindert Tearing nicht. Zudem kann man G-Sync ja mit einem 144Hz-fähigen Monitor koppeln. So gesehen macht deine Frage nicht viel Sinn.

Ja,man hat noch tearing auch mit einem 144 hz Monitor.Aber es ist deutlich weniger als mit einem 60 hz Monitor und kaum noch störend.
 
Oder liegt es einfach nur an deinem Gehirn?! :xmas: Welche ja bekanntlich fehlende Bilder in einer animation selbst erstellen.

Don't feed the trolls, oder wie war das?

Wenn du keinen Unterschied siehst, dann erfreue dich daran dass du eine deutlich größere Auswahl beim Monitorkauf hast. Ich hab leider sehr gute Augen und sehe den Unterschied sehr deutlich.

Klar, in der Arbeit/Uni gibt es nur 60 Hz Monitore und nach 5 Minuten haben sich die Augen zumindest im Windows dran gewöhnt, aber in Spielen ist es einfach nur eklig und nicht smooth. Ist ja nicht so, dass ich es nicht wiederholt versucht habe, da ich viel lieber ein IPS Panel hätte :(

Aber das ewige Streitthema 60 Hz vs 120 Hz, zu dem es eh keinen Konsens gibt und auch nie geben wird (manche sehen es, manche nicht), ist hier ohnehin Off-Topic,
 
Zuletzt bearbeitet:
mich würde ja interessieren, was passiert mit so einem Ding wenn die FPS Rate in den Keller geht!?

Was passiert mit so einem Teil hier angesprochen, wenn die FPS Rate unter 60 FPS rutscht!? Schaltet dann der Monitor nur noch mit den Werten der FPS Rate? Also wenn ich sagen wir 33 FPS habe, hab ich nur noch 33 Hz? Oder wie läuft das!?
Bei nem 120 Hz Monitor könnte man ja immernoch doppelt oder dreifache Hz Rate schalten als die FPS sind, also sagen wir 66 oder 99 Hz. Aber bei nem 60 Hz?


Ansich scheint zumindest in höheren FPS Regionen der Spaß gut zu sein... Mich stört nur schon wieder, das man dazu zusatz Hardware braucht :(


Lies dir mal diesen Artikel, vielleicht wird es dir dann etwas klarer: Nvidia G-Sync: the end of screen-tear in PC gaming • Articles • Eurogamer.net

Ja, du hast dann nur mehr 33 Hz, aber das ist ja kein Problem, weil wenn du ihn normal mit 60 Hz fahren würdest, würde einfach öfter das gleiche Bild angezeigt werden, was erstens sinnlos ist und zweitens eben zu Tearing oder Stuttering führt.

Displayport schafft natürlich mehr als nur 60 Hz. In 4K Auflösung bist du allerdings auf 60 Hz begrenzt.

DP v1.2 enables High Color Range Quad Full HD delivered over a standard DisplayPort connector (up to 4K x 2K at 60 FPS and 24 bpp)
 
Ist das Leben nicht schön grade vor 2Monaten einen Monitor für 500 Oken gekauft mit 3dVision 27“. Der hat natürlich kein DisplayPort also nachrüsten nicht möglich..

Das Video im Thread dazu zeigst wie es funktioniert. Die Unterschiede sind für mich deutlich sichtbar.
Selbst bei 60hz und 50fps erstes „stottern“. Bei 40 fps tearing.

40fps „stotterfei“ als wären es 60fps auf 60hz. Der monitor passt sich den FPS an. 40fps=40hz immer und dynamisch. G-Sync Power. :eek:

Nachdem die mich extra dafür sensibilisiert haben merk ich natürlich auch das tearing in Diablo III bei 144hz und 175FPS. Immer schön am den Rändern von Bildschirm zu sehen. Danke Nvidia jetzt bin ich wieder durchwegs unzufrieden.:heul:

Störend ist nur die Aussage das dies nicht mit jeden Spiel funktionieren soll… was steckt da dahinter ? :hmm:

Quelle: G-SYNC | FAQ | GeForce
FAQ Q: Does NVIDIA G-SYNC work for all games?
A: NVIDIA G-SYNC works with all games. However, we have found some games that do not behave well and for those games we recommend that users take advantage of our control panel’s ability to disable G-SYNC per game. Games that NVIDIA discovers that have trouble with G-SYNC will be disabled by default in our driver
 
Zuletzt bearbeitet:
Don't feed the trolls, oder wie war das?

Wenn du keinen Unterschied siehst, dann erfreue dich daran dass du eine deutlich größere Auswahl beim Monitorkauf hast. Ich hab leider sehr gute Augen und sehe den Unterschied sehr deutlich.
,
Und warum hälst du dich dann nicht an deinen ersten Satz, wenn du meinst der würde bei mir zutreffen?

Wie ich schon sagte hat das nichts mit den Augen zu tun.

Aber du hast natürlich sehr sehr gute Augen.. leider leider.

Naju ist jedem sein Ding, manche Shooter habe ich auch mit nur (flüssigen) ~34fp-44fps durchgespielt. Da habe ich wohl schlechte Augen (oder um es wie du zu machen: einfach eine gut funktionierende\vernetzte Sehrinde (visueller Cortex) :haha:) und bemerke das alles nicht, wa? :sick:
 
Und warum hälst du dich dann nicht an deinen ersten Satz, wenn du meinst der würde bei mir zutreffen?

Tue ich doch, oder bin ich mit einer Silbe auf deine Provokation mit dem Gehirn eingegangen?

Ich habe außerdem keinerlei Aussage über deine Augen getroffen, da ich das nicht beurteilen kann. Diese Aussage triffst alleine du, wenn du sagst dass du keinen Unterschied siehst :)

Bei dem in deiner Signatur verlinkten (deinem?) YT Video sehe ich, trotz der Aufnahmequalität des Videos, dass das Spiel nicht flüssig läuft (z.B. wenn anvisiert wird, reagiert das Bild träge und m.E. nicht flüssig). Tearing ist auch öfters kurz zu sehen.

Wenn dir das nicht auffällt oder dich nicht stört, ist das doch schön... und das meine ich völlig ohne Sarkasmus.

Naju ist jedem sein Ding

Diesbezüglich stimme ich dir 100% zu.
 
Zuletzt bearbeitet:
Klingt mir grundsätzlich nach einer guten Idee die technischen Eigenschaften moderner Displays dahingehend zu nutzen von der Bildaufbau-Technik der Röhre weg zu kommen.
Natürlich ist es schade dass es Nvidia-Only ist und es wird sich zeigen müssen wie gut und zu welchem Preis sich das durchsetzt.
Aber irgendwer muss ja mal den Anfang machen.

In einer Sache steht mein Verständnis vom Bildaufbau gerade allerdings auf dem Schlauch:
Mir ist klar dass ein LCD nicht auf einen zeilenweisen Aufbau des Bildinhalts angewiesen ist, da prinzipiell jeder Kristall zu jedem Zeitpunkt beliebig umgeschaltet werden kann wenn wir mal rein vom Panel ausgehen.
Aber wie sieht denn da aktuell die Ansteuerung aus? Bekommt die ihr Bildsignal von der Grafikkarte immer noch zeilenweise? Berechnen GPUs das Bild zeilenweise?
Ich hab mich damit ehrlich gesagt noch nie so richtig genau befasst...ich hoffe ihr könnt mir da ein wenig auf die Sprünge helfen.
 
Nein, die Hertz passen sich den FPS an. Es läuft im Prinzip so, wie es laufen sollte. Kommt ein Bild wird es sofort dargestellt, es gibt keine fixe Aktualisierungsrate des Monitors die meistens gar nicht zur Framerate passt.

Neja schon klar... Nur hast du dann eben auch nur 33Hz/33FPS wie im von mir konstruierten Beispiel. Jeder der schonmal bei 24Hz versucht hat zu spielen, wird denke ich erkennen, das das schlicht nicht taugt.
Das ganze Konstrukt verhindert also einfach das Tearing. Das Bild wird somit in einem Guss auf den Schirm wandern und nicht non VSync like irgendwie teils zerhackstückelt dargestellt. Das ist auch durchaus verständlich und aus dem ganzen Text rauszulesen.
Mir gings eher um was anderes. Nämlich das der ganze Aufwand imho teilweise irgendwie nicht lohnt, wenn durch low GPU Power eben die Hz soweit runter müssen, das das ganze Bild nicht mehr flüssig ankommt...
Ich persönlich merke definitiv einen Unterschied bei 60Hz und VSync aktiv zwischen FPS Raten 30 und 60(+)
Sprich in ersterem Fall ist das Bild zwar syncron zur Hz Zahl (zwar 2:1 aber egal), also nicht "geteart", aber es ist halt alles andere als flüssig...
Bei vollen 60(+) FPS im VSync habe ich ein deutlich besseres Spielgefühl. Da das Bild flüssiger rüberkommt. Und dank VSync eben auch nicht zerhackstückelt. :wink:

Es gibt also irgendwie einen subjektiven Punkt, der A) weniger flüssig erscheinen lässt als B)
Und den kann G-Sync doch in keinster Weise verändern!? Oder steh ich auf dem Schlauch? Im Beispiel genannte 33 FPS/33 Hz gesynct sind immernoch weniger "flüssig" als 60 FPS/60 Hz ebenso ge(V)synct.

Wo ist da der Vorteil?
Ich hab doch nur die Wahl zwischen nicht flüssigen FPS Raten unter 60 FPS/60 Hz (die dann halt gesynct sind) oder zwischen halbwegs flüssigen "fixen" 60 FPS/60 Hz im VSync!?
Ich vermisse da irgendwie den Vorteil für den Endkunden!?

Woher kommt die Vermutung, es ginge nur mit 60 Hz Monitoren? Das erste Modell soll der ASUS VG248QE mit 144 Hz sein, oder meint ihr Displayport schafft nicht mehr? Das sollte eigentlich von der Bandbreite her kein Problem sein, denn selbst 4K geht doch über Displayport?

Keine Ahnung, ich glaube laut Spezifikationen sollte DP1.2 4k bei 60Hz liefern können... Aber das machts halt imho doch nicht besser...

Ja, du hast dann nur mehr 33 Hz, aber das ist ja kein Problem, weil wenn du ihn normal mit 60 Hz fahren würdest, würde einfach öfter das gleiche Bild angezeigt werden, was erstens sinnlos ist und zweitens eben zu Tearing oder Stuttering führt.

Das Problem ist, das 33 FPS gesynct ohne Tearing weniger flüssig sind als 60 FPS gesynct ohne Tearing, wie ich sie heute schon bei aktivem VSync erhalte. Genau so kann ich heute schon bei nem 120 Hz+ Monitor die Hz Zahl irgendwo fixe. 85, 90, 100 und weis der Teufel noch was... Kann gleichsam VSync aktivieren wenn meine GPU Hardware die FPS halten kann und habe kein Tearing bei vollen FPS.
Wo ist jetzt der Vorteil für mich durch G-Sync?

Ich sehe den einzigen Vorteil klar darin, das das ganze auch bei Hz Zahlen unter 60 funktionieren wird... Das erkauft man sich aber gleichsam mit dem Nachteil, das eben unter 60 Hz (je nachdem wie weit drunter) das Bild nicht mehr flüssig ist. :wink:
Das heute schon einige Leute vermehrt nach größer 60 Hz "schreien", gibt mir das dazu auch die Bestätigung, das weniger als 60 Hz, also dort, wo der Vorteil durch G-Sync liegt, gar nicht wirklich viel Bedeutung haben wird!? Zumal das ganze scheinbar recht teuer werden wird (das Modul in Sachen Kaufpreis)
 
Häh? Ruckler durch niedrige FPS sind doch kein Problem von G-Sync. 30 FPS sind halt weniger flüssig als 60 FPS, das ist aber nicht die schuld von G-Sync bzw. rührt nicht daher das die Hz daran angepasst werden, sondern ist immer so. Ich kapier nicht worauf du hinaus willst.
 
Das G-Sync nur dann effektiv auch ein flüssigeres Spielgefühl bieten kann, wenn die FPS entsprechend hoch sind... Nur habe ich entsprechend hohe FPS, kann ich im Grunde auch auf G-Sync verzichten. Siehe Beispiele von oben. Habe ich 60 min FPS, also keine Drops unter 60, kann ich mit herkömmlichen VSync das gleiche erreichen...
Deswegen auch oben die Aussage, der Trend geht doch scheinbar aktuell eher in die Richtung mehr Auflösung (4k) und/oder mehr Hz (120 Hz Monitore)... G-Sync bringt aber effektiv nur dort etwas, wo ich eben unter 60 FPS agiere und heute eben keine Möglichkeiten habe, das Bild syncron zu halten. Sprich heute habe ich Tearing bei unter 60 FPS auf nem 60 Hz Monitor, morgen mit G-Sync habe ich das nicht. Flüssiger wirds aber nicht... Und das ist doch eher das Hauptproblem!?
 
Was man denke ich nicht außer Acht lassen darf ist dass das Zeitfenster zwischen Bildausgabe der Graka und Refresh des Display weg fällt.
Sprich das Bild wird eben genau dann dar gestellt wenn es geliefert wird und es muss nicht auf den nächsten Refresh-Vorgang gewartet werden.

Dürfte nicht viel bringen aber vielleicht etwas.
Wenn die Bildrate die von der GPU kommt vollkommen lächerlich wird bringt das natürlich alles nichts mehr.
 
33fps auf 33hz wirken flüssiger als 33fps auf 60hz eben weil bestimmte Frames länger angezeigt werden als andere bei der Framewiederholung, die Frametimes schwanken einfach etwas.
Als demonstrativen Vergleich kann man mal versuchen eine Blu ray in 60hz abzuspielen, das sieht auch grauslich aus weil die 24p Bilder nicht in die 60hz reinpassen ohne ungerade Framewiederholung.(3:2 Pulldown)
Dennoch wirken 33fps auch auf 33hz natürlich je nach Empfindlichkeit nicht flüssig. Ich sehe hier die Grenze bei ca 50fps. Sportsendungen im TV im 50i Format die zu 50 Vollbilder deinterlaced werden, haben bei mir noch nie ein Ruckeln gezeigt. Ich empfinde 33fps jedoch als furchtbar ruckelig, wobei LCD den Effekt durch verschleifen der einzelnen Bilder dank Hold Type noch sichtbar abmindern, aber darunter wird auch die Bewegungsschärfe stark leiden. bei 60hz bleiben von 1080p mal gerade 300 Linien Bewegtbildauflösung bei einemm LCD übrig. Bei 33 FPs wird es entsprechend noch gruseliger. Bevor ich mir so einen Monitor kaufen würde und damit extra Investitionen tätige, würde ich eher dafür sorgen das die Bildrate über 60bleibt und wenn das hei0t eine 2. GPU einzubauen, sehe ich das als weitaus sinnvoller an, als das man das Tearing bei 33fps mindert.
 
Zuletzt bearbeitet:
Das G-Sync nur dann effektiv auch ein flüssigeres Spielgefühl bieten kann, wenn die FPS entsprechend hoch sind... Nur habe ich entsprechend hohe FPS, kann ich im Grunde auch auf G-Sync verzichten (1) . Siehe Beispiele von oben. Habe ich 60 min FPS, also keine Drops unter 60, kann ich mit herkömmlichen VSync das gleiche erreichen...
Deswegen auch oben die Aussage, der Trend geht doch scheinbar aktuell eher in die Richtung mehr Auflösung (4k) und/oder mehr Hz (120 Hz Monitore)... G-Sync bringt aber effektiv nur dort etwas, wo ich eben unter 60 FPS agiere (2) und heute eben keine Möglichkeiten habe, das Bild syncron zu halten. Sprich heute habe ich Tearing bei unter 60 FPS auf nem 60 Hz Monitor, morgen mit G-Sync habe ich das nicht. Flüssiger wirds aber nicht... (3) Und das ist doch eher das Hauptproblem!?

Ich habe mal durchnummeriert, ist einfacher als Zitate zu zerteilen.

(1) Nein, G-Sync hilft dir bei hohen und niedrigen Frameraten. Ein Hertz entspricht immer einem Frame. Bei V-Sync hast du das nur bei bestimmten Hertzzahlen z.B. 60 Hz, musst so unter Umständen auf FPS verzichten wenn du z.B. 70 FPS auf einem 120 HZ Monitor erreichst und auch immer den VSync-typischen Inputlag in Kauf nehmen.

(2) Nein, auch darüber, da du dann nicht auf FPS verzichten musst wie im Beispiel mit 70 FPS und 120 Hz. Selbst bei genau 60 FPS und 60 Hertz bliebe zumindest noch der Vorteil des Wegfalls des VSync-Inputlags.

(3) Nein, es wird auch flüssiger weil ein Frame immer einem Hertz entspricht. Wenn ich heute eine krumme Anzahl an FPS habe und der Monitor mit 60 Hz taktet müssen um diese 60 Hz auszufüllen einige Frames länger als andere angezeigt werden.

Um nicht so viel schreiben zu müssen, nehme ich mal als Beispiel 5 FPS bei 9 Hz:

1. Hertz -> Frame A
2. Hertz -> Frame A
3. Hertz -> Frame A
4. Hertz -> Frame B
5. Hertz -> Frame B
6. Hertz -> Frame C
7. Hertz -> Frame C
8. Hertz -> Frame C
9. Hertz -> Frame D

usw.

Jedes zweite Frame kann also nur mit doppelter Länge dargestellt werden, während die anderen dreimal so lang angezeigt werden um dem Takt des Monitors gerecht zu werden. Bei G-Sync hätte man das Problem nicht, da man auf 5 Hz runterregeln würde. Natürlich wären dann in diesem Beispiel die Anzeigedauern der einzelnen Frames so lang, dass es weiterhin ruckelt, aber es wäre eben gleichmäßig weil jedes Frame gleich lange, für die Dauer von 1 Hz, angezeigt wird.
 
Zuletzt bearbeitet:
@waro245
wie gesagt, ich verstehe durchaus, wo das Konstrukt ansetzt :wink:

Mir gehts eher darum, das ich es aktuell als wenig sinnvoll empfinde, das ganze so in der Art mit der Zusatzhardware aufzuziehen...
Denn ich als Endkunde muss mich wiederum entscheiden was ich will... Will ich 4k, scheint aktuell über 60Hz nichts zu gehen...
Und der Trend geht wohl früher oder später eindeutig zu 4k. Der Vorteil der höheren Hz Zahl bleibt scheinbar außen vor!?
Will ich hingegen 120Hz, hab ich wiederum keine 4k Wahlmöglichkeit...
Mit G-Sync habe ich noch die dritte Option, nämlich das Tearing bei entsprechendem Monitor quasi immer zu verhindern. Was aber in gewissen Zügen ebenso heute je nach Monitor und Modell auch mit VSync funktioniert...
So kann man den Preis (waren doch spekuliert um die 180€??) in dickere GPU Performance investieren, die FPS höher schrauben und ggf. sogar, wenn es langt VSync nutzen...

Für mich heist das unterm Strich, ich bekomme mit VSync gesyncte Bilder bei 60 FPS/60 Hz und 4k genau so hin wie mit G-Sync.
OK ich gebe zu, das Inputlag habe ich vollkommen ausgeklammert :wink: wobei sich hier zeigen muss, in wie weit das ganze auch in der Praxis auswirkt mit dem G-Sync. Da das Stück Hardware ja quasi das Signal irgendwie aufnimmt, und an die Gegebenheiten anpasst, wird das denke ich mal auch nicht 100% verzögerungsfrei ablaufen können. Auch interessant wäre in dem Zusammenhang die Frage nach der Reaktionszeit des Monitors. Sprich gemittelte Werte bei S/W und Farbwechseln... Bei 120 Hz hätte man knapp über 8ms ein neues Bild. Wechselt das Bild schneller als die Reaktionszeit des Pixelfarbwechsels, wäre da imho noch ein ganz anderes Problem ;)
Es bleibt also die Frage weiterhin, wofür benötige ich G-Sync? Ich bekomme zwar das gesyncte Bild, es wird aber bei nicht so hohen FPS Raten ebenso wenig flüssig sein... Mir persönlich stellt sich da nicht die Frage, ob unflüssige 33 FPS/33 Hz minimal besser sind als jetzt. Nicht flüssig ist nicht flüssig. Und der Spielspaß leidet... Ich bin also auch gezwungen irgendwie für mehr Performance zu sorgen... Optimalerweise also über 50-60 FPS um es flüssig zu bekommen. Denn ob nun nicht flüssig und gesynct oder flüssig und ungesynct!? Ist wie Pest und Cholera :wink:
Mir fehlt da persönlich etwas der Mehrwert zur VSync Version.

Speziell auch auf MGPU abgezielt... Es gibt ja heute schon einige Leute, die Dual/Tripple MGPU Gespanne fahren und hintenraus die FPS Rate limitieren. Gepaart mit VSync und "getunten" Bildwiederholsettings des Monitores umgeht man das Inputlag ja sogar fast vollumfänglich -> bei gesynctem Bild und ohne MR.
 
Mensch, dann ließ dich bitte erst mal ein oder schau dir ein Beispielvideo an (wo du übrigens auch feststellen wirst das das auch bei 50 FPS was bringt) wenn sich dir immer noch die Frage nach dem Sinn von G-Sync stellt. Und warum reitest du so auf 4K bei 120 Hz rum? Das ist die Nische einer Nische einer Nische einer Nische.
Ist ja nicht zum aushalten, man erklärt und erklärt und bekommt dann wieder so eine Textwand vorgesetzt.
 
Das G-Sync nur dann effektiv auch ein flüssigeres Spielgefühl bieten kann, wenn die FPS entsprechend hoch sind... Nur habe ich entsprechend hohe FPS, kann ich im Grunde auch auf G-Sync verzichten. Siehe Beispiele von oben. Habe ich 60 min FPS, also keine Drops unter 60, kann ich mit herkömmlichen VSync das gleiche erreichen...
Deswegen auch oben die Aussage, der Trend geht doch scheinbar aktuell eher in die Richtung mehr Auflösung (4k) und/oder mehr Hz (120 Hz Monitore)... G-Sync bringt aber effektiv nur dort etwas, wo ich eben unter 60 FPS agiere und heute eben keine Möglichkeiten habe, das Bild syncron zu halten. Sprich heute habe ich Tearing bei unter 60 FPS auf nem 60 Hz Monitor, morgen mit G-Sync habe ich das nicht. Flüssiger wirds aber nicht... Und das ist doch eher das Hauptproblem!?

G-Sync scheint auch bei niedrigeren fps zu helfen:
Guru3D - NVIDIA G-SYNC Overview - Shaky Cam Voice over is Tom Petersen from NV - YouTube
Nvidia G-Sync Demo - YouTube
 
also weil jemanden den Vorteil dort nicht erkennt, weil es offenbar heute schon möglich ist, ist das also nicht zum aushalten...
Ah ja...

Es ist und bleibt für mich kein Vorteil. Da kann ich einlesen noch und nöcher. Es bleibt rucklig. Das Bild wird syncron, das bestreitet niemand, ändert aber am ruckelfeeling nix. Das ich mit 60Hz und rucklig nicht ganz allein dastehe, siehst du hier an anderen Kommentaren. :wink:

Und warum 4k und 120Hz?
Weil das die Zukunft zu sein scheint... Denn es behebt in Summe zwei der aktuell größten Probleme. A) die geringe Auflösung, die seit Jahren schon nicht sonderlich gestiegen ist. Und B) eben die Rucklerproblematiken.
Das Tearing selbst ist ein mögliches drittes Problem. Nur warum muss ich mich entscheiden!? Wenn das der Hersteller von mir verlangt und ich sogar noch Geld für die Lösung zahlen soll, dann wähle ich doch lieber A) und/oder B) anstatt Geld für C) rauszuschmeißen und immernoch mit popliger Auflösung rumzukrebsen oder mit hoher Auflösung bei syncronen aber möglicherweise rucklingen Bilddarstellungen zu verweilen.

Irgendwie habe ich immer den Eindruck, alles was NV macht muss primär gut sein... :fresse:
Denn jedesmal wenn man was dagegen sagt, wird man hier angepflaumt.

G-Sync scheint auch bei niedrigeren fps zu helfen:

Spiel mal bei 24Hz und erzähl mir das das flüssig ist :wink:
Da brauch ich kein G-Sync, der das Tearing verhindert. Das ruckeln stört mindestens genau so, eher mehr als das nicht zerhackstückelte Bild...
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh