Tearing, Input-Lag und Ruckler adé dank NVIDIA G-SYNC (Update)

Hab eben nochmal nachgesehen. Der VG248QE ist zur Zeit nicht G-Sync fähig. Diese Eigenschaft will Asus ab dem ersten Halbjahr 2014 in diese Geräte einbauen.
Siehe ASUS Announces Adoption of NVIDIA G-SYNC Technology | techPowerUp

Kunden, die bereits einen VG248QE haben, dürfen sich den dann wohl nochmal kaufen, wenn Asus keine Umtausch- oder Nachrüstaktion anbietet.


Soweit ich verstanden habe, soll eine Upgrade-Möglichkeit geben... Ist aber nicht allzu wichtig, da ich meinen jetzigen dann als Zweitmoni verwenden werde...

Trotzdem nochmal zurück zu meiner Frage:

Ich habe allerdings noch nicht ganz verstanden, warum der Asus VG248QE der einzige Monitor ist, der zurzeit dazu fähig ist, wenn über DisplayPort nur 60Hz übertragen werden können.... Was ist dann mit den 144Hz des Monitors??
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Genau genommen war die schweiz für den intellektuellen zivilisatorischen fortschritt schon immer wichtiger !!
Wer hats erfunden ... :)))
 
Ich habe allerdings noch nicht ganz verstanden, warum der Asus VG248QE der einzige Monitor ist, der zurzeit dazu fähig ist, wenn über DisplayPort nur 60Hz übertragen werden können.... Was ist dann mit den 144Hz des Monitors??

Das muß sich um einen Fehler irgendwo handeln, denn im Handbuch zum Monitor steht

1920x1080* (DVI/DP) 85Hz 95.43KHz (2D)
1920x1080* (DVI/DP) 144Hz 158.11KHz (2D)
1920x1080* (DVI/DP) 100Hz 113.3KHz (2D)/113.8KHz (3D)
1920x1080* (DVIDP) 120Hz 137.2KHz (2D/3D)

Ich interpretiere das so, daß die Wiederholraten sowohl mit DVI als auch mit DisplayPort erreicht werden können.


Auf der Produktseite ist auch noch dieser Hinweis zu finden:
To activate 144Hz function (in 2D mode), both DisplayPort (or Dual-link DVI) and a selected graphics card with the latest driver are required. Please kindly contact the service center of your graphics cards companies for further technical supports.

Muß allerdings mindestens DP in Version 1.2 sein.
 
Zuletzt bearbeitet:
Es ist einfach totaler Quark was Destroyer11 da schreibt ...
 
Das G-SYNC nur mit spezieller und teurer Hardware ermöglicht wird, die auch noch einen kompatiblen Monitor voraussetzt oder man seinen eigenen, unter Verlußt der Garantie, umbauen/verlöten muss, wenn dies überhaupt so möglich ist und man keine anderen Ports wie DVI ect. mehr nutzen kann, sollte man besser nicht erwähnen.
Auch das G-SYNC eigentlich nur einen weiterer statistischen Punkt darstellen soll, der nur zur Verlängerung der Präsentationsfolie dienlich ist, sollte auch niemand sagen sollen/dürfen.

Die Frage die bleibt ist, warum G-SYNC nicht mit displayport und anderen Grakas läuft.

Im großen und ganzen muss die graka in der lage sein, nach jedem berechneteten frame das Bild auszugeben anstatt mit einer festen Frequenz wie wir es aktuell haben. Im großen und ganzen ist G-sync nur ein Displaycontroller mit einem Speicher, der das bild nur dann ändert, wenn ein Frame komplett übertragen wird.

Was ich mich frage ist, nach welcher Zeit fängt G-Sync an, ein frame doppelt darzustellen und was passiert dann? Denn einfach auf ein frame warten und kein neues Bild aufbauen kann ich mir nicht so recht vorstellen.
 
Die Frage die bleibt ist, warum G-SYNC nicht mit displayport und anderen Grakas läuft.

Weil andere Grakas wahrscheinlich nicht von Nvidia hergestellt werden. :shot: Wer versucht Kepler als Lizenz zu verhökern wird wohl in diesem Leben nicht mehr zu offenen Standard/Techniken übergehen, wenn er nicht muss... :haha:
 
Wenn das Protokoll welches die Grafikkarte/Treiber zur Kommunikation über DP mit dem G-Sync Modul des Monitors offengelegt wird bzw. nicht geschützt wird (leider seeeehr unwahrscheinlich), dann könnte auch jede andere Hardware fremder Hersteller das G-Sync Modul ansprechen. Jedenfalls sollte es theoretisch möglich sein, da der Displayport die Erweiterung um zusätzliche Anwendungen/Protokolle bereist vorsieht.
 
Die G-Sync Sache kann aber auch Nachteile haben. AMD könnte statt G-Sync zu lizenzieren mit einem eigenen Modul aufwarten. Monitorhersteller können sich dann entscheiden: Verwenden sie die Lösung von AMD, die von Nvidia, oder gar beide? Für den Endkunden wird ein Monitor, der zwei proprietäre Sync Lösungen verwendet, nur unnötig teurer. Verwendet ein Monitor aber nur die Lösung von entweder Nvidia oder AMD, so hat der Endkunde wieder Pech gehabt, wenn er mal den Kartenhersteller wechseln will.

Idealerweise würde eine Vereinigung der Monitorhersteller selbst ein Sync-Modul entwickeln und in die Geräte einbauen, und damit sowohl AMD, falls diese was ähnliches planen, als auch Nvidia auflaufen lassen.
 
Es ist einfach totaler Quark was Destroyer11 da schreibt ...

Richtig! :d

Hab mich total in den Zeilen verlesen :wall:


Trotzdem würde mich das Verhältnis der Wiederholungsrate bei G-Sync interessieren, ob es einen Einfluss hat, oder nicht...
 
Oh die Grafikkartenhersteller kommen endlich auf die Idee dieses Jahre alte Problem anzugehen, komisch das es vorher nie zur Debatte stand und man immer als Trottel da stand, weil die meisten nicht wissen was flüssig bedeutet... siehe hier:

http://www.hardwareluxx.de/communit...rotz-konstanter-und-hoher-fps-2-a-753061.html

Konnte man nur mit VSync und Framelimiter entgegenwirken, also würde Gsync eigentlich nur den Inputlag noch eleminieren. Warten wir mal ab.
 
Zuletzt bearbeitet:
Die könnten ja einen Deal machen. NV darf Mantle nutzen und AMD im Gegenzug GSync.
Ne, kann mir zwar Nord und Südkorea zum verhandeln an einem Tisch vorstellen aber AMD und NV eher nicht.

Hier in Brasilien sind es auch 60Hz. Habe bei mir sogar noch 125V.
 
Die könnten ja einen Deal machen. NV darf Mantle nutzen und AMD im Gegenzug GSync.
Ne, kann mir zwar Nord und Südkorea zum verhandeln an einem Tisch vorstellen aber AMD und NV eher nicht.

Hier in Brasilien sind es auch 60Hz. Habe bei mir sogar noch 125V.

Brasilien? Müsstest du dann nicht Portugiesisch sprechen oder biste aus Blumenau?
 
So toll wie Nvidia G-sync auch vermarktet ist, ist es leider nicht.

Es läuft erstens mal kein Sound mehr über Displayport und die Bilder kommen verzögert am Schirm an, was erstmal für Pro Gamer, von denen wir gedacht haben G-sync könnte den allgemeinen Inputlag minimieren, ist falsch.

G-sync baut einen zusätzlichen Lag auf, damit kein Tearing auf dem Bildschirm entsteht, die Frames werden solange zurückgehalten, bis die Grafikkarte das nächste an den Monitor sendet.

Einen Flüssigkeitsvorteil hat man, wenn man v-sync mit G-sync vergleicht, aber einen Nachteil hinsichtlich der Sendegeschwindigkeit der Bilder hat man wenn man G-sync und das Spielen ohne V-sync vergleicht. Dann müsste man G-sync komplett abschalten, was Nvidia auch in einigen Spielen rät, weil es nicht funktioniert.

G-sync ist aber immerhin die klar bessere Lösung gegenüber V-sync, aber nicht gegenüber dem Spielen ohne V-sync, da verbessert sich abgesehen von der Lösung des Tearingproblems nichts, man erhält sogar noch nen Lag oben drauf, natürlich mit dem Vorteil des wegfallenden Tearings.

Konnte man nur mit VSync und Framelimiter entgegenwirken, also würde Gsync eigentlich nur den Inputlag noch eleminieren.

Nvidia kocht das Ding grade deutlich heißer als es gegessen wird. Gute Marketingstrategie. AM ende meint noch jeder man könne mit NV generel flüssiger spielen.... und den Ball versenkt.
 
Zuletzt bearbeitet:
Egal wer was von den beiden erfindet, es sollte für alle zugänglich sein und nicht Marken abhängig, weil sonst wird am Markt vorbei erfunden. Was ist denn, wenn sich beides als gut herausstellt und ich Mantle und GSync nutzen möchte.

@ OffTopic
Ich bin ein Kölner der seit 13 Jahren in der nähe von Sao Paulo lebt und ja, ich spreche Portugiesisch, weil ich arbeite ja auch hier.
 
Egal wer was von den beiden erfindet, es sollte für alle zugänglich sein und nicht Marken abhängig, weil sonst wird am Markt vorbei erfunden. Was ist denn, wenn sich beides als gut herausstellt und ich Mantle und GSync nutzen möchte.

AMD und Nvidia hätten nichts dagegen wenn du eine 290x und eine 780ti parallel betreiben würdest... :d
 
Wurde so etwas Treiberseitig zu mindestens von nvidia nicht schon ausgeschlossen? Oder war das nur nvidia Karte für PhysX neben AMD Karte?


Ob AMD das zulässt weiß ich aber nicht...

Gesendet von meinem Nexus 4 mit der Hardwareluxx App
 
Hab mir mal ein Quote exemplarisch rausgesucht, aber das hast du ja öfters geschrieben:

120Hz nutzen mir freilich weniger, wenn ich in 30 oder 40 FPS unterwegs bin. Denn dann habe ich ein ruckliges Spielgefühl, das nicht durch die unsyncronität des Monitors kommt. Und selbst wenn ich beispielsweise 80Hz fixe (wozu ich eben einen Monitor brauch, der mehr als 60Hz kann) und normales VSync nutze komme ich auf syncrone Bilder auf dem Schrim. Ganz ohne G-Sync :wink:
Rucklig ist es deswegen zwar immernoch je nach Empfinden und Spiel... Aber das bekommt man nur mit mehr GPU Power weg und eben nicht mit G-Sync.

Was du aber in all deinen Posts nicht siehst bzw. sehen willst ist, dass du mit VSync einen Input Lag hast (und die Maus unsmooth wird, wie als wäre Honig auf die Mauspad). Merkt man nur mit relativer Lowsense und wenig DPI, aber es nervt tierisch. Klar dürfte das vielen Casual Gamer nicht auffallen (nicht auf dich bezogen, aber kenne viele die mit Vsync spielen und wenn man es umstellt merken sie keinen Unterschied), aber es macht schon einen Unterschied.

Außerdem läuft VSYNC nie ganz rund, selbst bei 60Hz/60FPS, wie es Toc in #95 vorzüglich beschrieben hat.

Rucklig ist es deswegen zwar immernoch je nach Empfinden und Spiel... Aber das bekommt man nur mit mehr GPU Power weg und eben nicht mit G-Sync.

Eher vernünftiger wäre wohl 120 Hz, Vsync off, ein SLI Setup das hoffentlich 120 FPS schafft (lieber drehe ich die Details Runter in Multiplayer Titeln, sieht man die Gegner eh besser dann) und nen FPS Limit auf 118 FPS (um Tearing zu minimieren). Wobei ich damit noch nicht viel rumprobiert habe und lieber mit gelegentlichem Tearing lebe, als mit Inputlag/Vsync.

Wenn man einen 120 Hz Monitor hat ist das außerdem nochmal besser, einfach weil man nicht an die fixen VSync-Werte gebunden ist und so immer von hohen FPS-Raten, die aber nicht für VSync genügen bzw. vom 60 Hz VSync-Wert abgeregelt werden würden profitiert.

Genau so ist es, sehr gut auf den Punkt gebracht. Denn selbst mit einem 780 SLI mit OC kann man bei den derzeitigen und kommende Blockbustern 120 FPS nicht konstant halten (mit allem Eyecandy).

G-sync baut einen zusätzlichen Lag auf, damit kein Tearing auf dem Bildschirm entsteht, die Frames werden solange zurückgehalten, bis die Grafikkarte das nächste an den Monitor sendet.

Einen Flüssigkeitsvorteil hat man, wenn man v-sync mit G-sync vergleicht, aber einen Nachteil hinsichtlich der Sendegeschwindigkeit der Bilder hat man wenn man G-sync und das Spielen ohne V-sync vergleicht. Dann müsste man G-sync komplett abschalten, was Nvidia auch in einigen Spielen rät, weil es nicht funktioniert.

G-sync ist aber immerhin die klar bessere Lösung gegenüber V-sync, aber nicht gegenüber dem Spielen ohne V-sync, da verbessert sich abgesehen von der Lösung des Tearingproblems nichts, man erhält sogar noch nen Lag oben drauf, natürlich mit dem Vorteil des wegfallenden Tearings.

Woher soll dieser Lag denn bitte technisch kommen? Wäre nett, wenn du das auf technischer Eben erklären könntest, statt einfach eine Behauptung ohne technischen Background in den Raum zu werfen.
 
Zuletzt bearbeitet:
Habe leider etwas den Überblick anhand der zahlreichen Diskussionen hier verloren.
Wäre nett wenn mir jemand kurz hinunterbrechen könnte was genau g-sync ist und wann es für wen schon zugängig ist.
Habe eine Gtx 770 und bei manchen Spielen auch so meine Problemchen mit Vsync.
Habe das Gefühl vsync macht manche Spiele deutlich "smoother" bzw einfach flüssiger und ruhiger... wäre da nicht der inputlagg.
 
Du hast mi g-sync auch einen Inputlag, aber halt lange nicht so ausgeprägt wie mit V-sync, wenn dich das Tearing nervt, dürfte G-sync imho die bese Lösung sein, ist auch niucht so teuer wie befürchtet, brauchst halt nen neuenMonitor, die gibts ab Januar 2014 zu kaufen.
 
Dann setz doch einen limiter vor das Vsync z.b 59FPS dann hat es sich mit dem inputlag tearing ist auch nicht da.
 
Wir sind uns doch alle einig, dass je mehr FPS und HZ (am besten, um Tearing zu vermeiden, ja immer beides möglichst gleich also VSync), desto flüssiger das Spiele-Empfinden.

Was VSync und GSync angeht, heisst das zusammengefasst:
Wenn ich potente Hardware habe, welche mir immer min. soviele FPS liefert, wie mein Monitor an Hz schafft, dann kann ich mit VSync und entsprechend eingestelltem Framelimitter das Gleiche erreichen, wie mit GSync.

Der einzige Vorteil von GSync wäre dann quasi nur die Flexibilität (es ist also egal, wie potent die eigene Hardware ist, FPS und HZ laufen immer schön synchron ohne Inputlag) und dass es einfacher ist (man muss sich nicht um die richtigen Einstellungen für VSync und Framelimitter kümmern)

Was noch bestätigt werden müsste, wäre, ob man mit GSync wirklich keinen Input-Lag hat.
 
Zuletzt bearbeitet:
Du hast mi g-sync auch einen Inputlag, aber halt lange nicht so ausgeprägt wie mit V-sync, wenn dich das Tearing nervt, dürfte G-sync imho die bese Lösung sein, ist auch niucht so teuer wie befürchtet, brauchst halt nen neuenMonitor, die gibts ab Januar 2014 zu kaufen.

Ich find's cool, wie du, aber auch deine Kollegen von AMD, euch immer Lügen aus den Fingern saugt.
Man hätte also mit G-Sync einen "Inputlag". Haste ja auch bei SLI immer felsenfest behauptet.

Macht es nicht einfach mehr Sinn einfach keine Lügen über Dinge zu schreiben, die du entweder nicht verstehst oder aber von der Konkurrenz kommen?
 
jap. Jedenfalls fahre ich so auch am besten.
 
Hat man mit GSync wirklich keinerlei Input-Lag?
Ist das schon zu 100% bestätigt?
 
Hat man mit GSync wirklich keinerlei Input-Lag?
Ist das schon zu 100% bestätigt?

Die ersten Tests und Nvidias Präsentation mit dem Pendel sahen zumindest sehr sehr vielversprechend aus. Auch die Fachpresse war positiv überrascht. Um es zu 100% zu bestätigen, wird man wohl auf die Markteinführung Anfang 2014 warten müssen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh