NVIDIAs G-Sync in der Theorie und erste Praxis-Erfahrungen

Stegan

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
16.12.2005
Beiträge
16.288
Ort
Augsburg
<p><img src="/images/stories/logos/nvidia.gif" width="100" height="100" alt="nvidia" style="margin: 10px; float: left;" />Am vergangenen Freitag löste <a href="http://www.nvidia.de/page/home.html" target="_blank">NVIDIA</a> mit seiner <a href="index.php/news/hardware/grafikkarten/28304-tearing-input-lag-und-ruckler-ade-dank-nvidia-g-sync.html">neuen G-Sync-Technologie</a> ein Jahrzehnte lang existierendes Problem, das immer wieder zu Tearing, Rucklern und langsamen Reaktionszeiten bei der Bildausgabe auf den Bildschirm führte. Zwar hat man in den letzten Jahren Grafik, Performance und damit das Spielerlebnis kräftig nach oben geschraubt, doch die lang existierenden Probleme, die bei vielen Gamern das Erlebnis wieder etwas gemindert haben dürfte, hat man bislang nicht aus der Welt...<br /><br /><a href="/index.php/news/hardware/monitore/28315-nvidias-g-sync-in-der-theorie-und-erste-praxis-erfahrungen.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also seit adaptivem V-Sync brauch man sowas doch eig garnicht mehr?! Hab ich was verpasst?
 
Also seit adaptivem V-Sync brauch man sowas doch eig garnicht mehr?! Hab ich was verpasst?

Adaptive Sync ist nicht so dynamisch, wie es G-SYNC sein soll. Adaptive Sync schaltet das V-Sync ja nur aus, wenn die FPS unter die Bildwiederholrate fällt. Gerade beim Deaktivieren von V-Sync kommt es dann zu störenden Effekten.
 
Ich spiele mit 144 Hz und komme eh nicht über 144 fps. Daher kann mir das G Sync egal sein. Bei mir gibts kein tearing.
 
Bei mir ruckelt es so oder so, wenn man keine High-End 1000 Euro Grafikkarte hat. Da schalt ich lieber nur adaptives V-Sync an und fertig.
 
Und warum funktioniert das jetzt nur mit den Nvidia karten?

Vereinfach gesagt, speichert das ganze doch nur die bilder zwischen und gibt nur ein neues Bild aus, wenn auch alle daten übertragen wurden.

also ich sehe da keinen grund warum das nur ab einer gtx650 laufen soll.
 
Haben diejenigen, die dass mit Adaptive VSync vergleichen, überhaupt den Artikel gelesen? :hmm:
 
Zuletzt bearbeitet:
Und warum funktioniert das jetzt nur mit den Nvidia karten?

Vereinfach gesagt, speichert das ganze doch nur die bilder zwischen und gibt nur ein neues Bild aus, wenn auch alle daten übertragen wurden.

also ich sehe da keinen grund warum das nur ab einer gtx650 laufen soll.

Natürlich ist das auch Marketing
 
ich werde mir für dieses in meinen augen nicht notwendige feature keinen neuen monitor kaufen, da steck ich das geld lieber in eine leistungsfähigere grafikkarte und kann auf diese zusatzelektronik dann verzichten -punkt

mfg
robert
 
Manche Leute sehen Tearing, manche nicht. Manche Leute erkennen die Latenz bei V-Synch, manche nicht. Für Leute, auf die beides zutrifft, ist dieses Feature wie geschaffen.
Außerdem eliminiert es das Problem, dass bei V-Synch die FPS auf einen festen Faktor fallen. (60 FPS, 30, 20, 15, ...)

Insgesamt bin ich mir recht sicher, dass "bald" jeder Monitor dies unterstützt. Solange Nvidia da nicht mit Patenten und so einem Bullshit rumfuchtelt, wird AMD diese Funktion auch in nächster Zeit übernehmen. (Was erfreulich sein wird.)
 
Manche Leute sehen Tearing, manche nicht. Manche Leute erkennen die Latenz bei V-Synch, manche nicht.
Moment...es gibt Spieler die Tearing sowie Inputlag nicht erkennen? Das hast du dir jetzt aber ausgedacht......

Je nach Spiel fallen diese Aspekte auch unterschiedlich auf.

Ich will jetzt endlich Spielszenen anstatt irgendwelche tech demos sehen. Was glauben die eigentlich, die gamer für dumm verkaufen? :stupid: Die müssen doch nur wahllos ausgewählte Zocker an die Monitore setzen und (ohne vorgehaltene Waffe) erzählen lassen, wie sie gerade das Spielerlebnis bewerten würden und ob sie erkennen, das "ein jahrzente lang existierende Problem" verschwunden ist oder ob sie gar keinen Unterschied erkennen.
 
Ich spiele mit 144 Hz und komme eh nicht über 144 fps. Daher kann mir das G Sync egal sein. Bei mir gibts kein tearing.
g-sync is für die genau gegenteilige Situation gedacht. Und zwar wenn die FPS unter der Refreshrate des Monitors ist. Dann wird murch g-sync die Refreshrate reduziert, damit es weiterhin sync ist.
 
Moment...es gibt Spieler die Tearing sowie Inputlag nicht erkennen? Das hast du dir jetzt aber ausgedacht......

äh, *meld*

Also wenn ich mich ganz stark drauf konzentriere, und extra Szenen auswähle wo Tearing auftritt, dann fällt es mir auch auf. Aber im ganz normalen Spielbetrieb merke ich eigentlich fast nie Tearing, Inputlag oder derartiges. Ich sehe auch nichtmal eine deutliche Verbesserung bei 120Hz insgesamt vom Bild her (hatte 120Hz ein paar Wochen getestet, dann Monitor wieder verkauft)

Hat aber auch seine Vorteile, man kann Details aufdrehen, hängt dann bei 60FPS rum, in manchen wenigen Spielen (Crysis 3) auf mal Framedrops auf 40FPS, aber stört einem nicht ^^
 
Artikel schrieb:
denn aufgrund der unterschiedlichen Bildwiederholfrequenzen aktueller Foto- und Videokameras lassen sich die Effekte nicht in Bewegtbild optimal wiedergeben.
Auch nicht mit 1000fps Videokameras?

PS: Ich hab jetzt auch beim dritten mal hinschauen keine erste Praxis Erfahrung herauslesen können.
 
Wieder ein Problem von dem man erst gehoert haben muss um es zu haben... mit Tearing in der Form wie dargestellt habe ich schon seit Jahren keine Probleme mehr. Trotzdem ein zu begruessende Entwicklung sofern die Hardware nicht ueberteuert wird. Besser waere aus meiner Sicht ein Industriestandard..
 
Manche Leute sehen Tearing, manche nicht. Manche Leute erkennen die Latenz bei V-Synch, manche nicht. Für Leute, auf die beides zutrifft, ist dieses Feature wie geschaffen.
Außerdem eliminiert es das Problem, dass bei V-Synch die FPS auf einen festen Faktor fallen. (60 FPS, 30, 20, 15, ...)

Insgesamt bin ich mir recht sicher, dass "bald" jeder Monitor dies unterstützt. Solange Nvidia da nicht mit Patenten und so einem Bullshit rumfuchtelt, wird AMD diese Funktion auch in nächster Zeit übernehmen. (Was erfreulich sein wird.)

Dann würde ich es auch nicht kaufen wenn Nvidia patente drauflegt, 85Hz reicht bei einen aktuellen IPS Monitor.
 
Zuletzt bearbeitet:
Da das sowieso wieder nur in "Gamer"-Monitoren mit unbrauchbaren TN-Panels verbaut wird, habe ich eh kein Interesse.
Das Marketing-Getue ist bei den "Gaming"-Monitoren eh am schlimmsten. Ein winziger Bruchteil der normalen Zocker dürfte den Unterschied zwischen einem ordentlichen IPS/VA-Monitor und einem Gaming-Teil wirklich als störend empfinden. Kenne niemanden, der sich bis jetzt auch nur ansatzweise über sowas beschwert hat, nichtmal bei meinen saulahmen 25ms VA-Monitoren (gut, sie schlieren stark, sind aber auch uralt). Das ist so hohes Niveau, das merkt der Standard-Zocker eh nicht mehr. Da sind Gaming-Mäuse und Tastaturen, die wirklich ergonomischer sind und echte Vorteile bringen, wesentlich sinnvoller.

Naja, irgendwie muss man ja die Grakas an den Mann bringen, wenn die Mehrleistung keinen mehr vom Hocker haut. Einzig sinnvoll fand ich jetzt das Aufnahme-feature, mit den 20min zurückspulen. Das ist ein echter Mehrwert.
Dieses Shield-Streaming ist ein nettes Spielzeug, aber mehr als Ausprobieren aus Neugier kann ich mir da auch kaum vorstellen. Warum sollte ich auf so einem Winz-Ding zocken, wenn ich eh am Rechner hocken kann? Das TV-Stream Feature ist wieder sinnvoll.

OK, bissel viel OT, sry ;)
 
Manche Leute sehen Tearing, manche nicht. Manche Leute erkennen die Latenz bei V-Synch, manche nicht. Für Leute, auf die beides zutrifft, ist dieses Feature wie geschaffen.
Außerdem eliminiert es das Problem, dass bei V-Synch die FPS auf einen festen Faktor fallen. (60 FPS, 30, 20, 15, ...)

Insgesamt bin ich mir recht sicher, dass "bald" jeder Monitor dies unterstützt. Solange Nvidia da nicht mit Patenten und so einem Bullshit rumfuchtelt, wird AMD diese Funktion auch in nächster Zeit übernehmen. (Was erfreulich sein wird.)

Ich zocke viel ohne VSync und mir fällt das Tearing selten nennenswert auf. Im übrigen auf dem Dell 2408WFP mit S-PVA Panel. 6 ms G2G und lt. vielen Test einen recht krassen Inputlag von ~60 ms. Komme im allgemeinen gut damit klar, habe allerdings bei wirklich schnellen Shootern im LAN durchaus hin und wieder das Gefühl dass es mir an Reaktionszeit fehlt. Keine Ahnung ob's am TFT liegt oder an mir.
Schlieren tut der eigentlich nicht, das übersteuern von meinem Fujitsu P24W-5 ECO ist deutlich störender.

Ich finde es allerdings grundsätzlich eine nicht allzu blöde Idee von festen Refreshrates weg zu kommen und das Display bei Bedarf nach der Pfeife der GPU tanzen zu lassen statt umgekehrt.
Auf dem Windows-Desktop wird das natürlich eher nicht notwendig sein und irgendwo wird es technisch bedingt auch eine Obergrenze geben.

Wieder ein Problem von dem man erst gehoert haben muss um es zu haben... mit Tearing in der Form wie dargestellt habe ich schon seit Jahren keine Probleme mehr. Trotzdem ein zu begruessende Entwicklung sofern die Hardware nicht ueberteuert wird. Besser waere aus meiner Sicht ein Industriestandard..

Auf alle Fälle wäre ein offener Industriestandard wünschenswert. Gerade auch kostenmäßig.
Andererseits stelle ich mir auch die Frage ob ein Industriestandard ohne Zwang zustande gekommen wäre. Manchmal geht es wesentlich schneller wenn eine Firma damit anfängt und zeigt dass die Kunden das wirklich kaufen. Ob's so kommt werden wir sehen.

Da das sowieso wieder nur in "Gamer"-Monitoren mit unbrauchbaren TN-Panels verbaut wird, habe ich eh kein Interesse.
Das Marketing-Getue ist bei den "Gaming"-Monitoren eh am schlimmsten. Ein winziger Bruchteil der normalen Zocker dürfte den Unterschied zwischen einem ordentlichen IPS/VA-Monitor und einem Gaming-Teil wirklich als störend empfinden. Kenne niemanden, der sich bis jetzt auch nur ansatzweise über sowas beschwert hat, nichtmal bei meinen saulahmen 25ms VA-Monitoren (gut, sie schlieren stark, sind aber auch uralt). Das ist so hohes Niveau, das merkt der Standard-Zocker eh nicht mehr. Da sind Gaming-Mäuse und Tastaturen, die wirklich ergonomischer sind und echte Vorteile bringen, wesentlich sinnvoller.

Ja. Wir werden sehen wo das verbaut wird, aber diese Befürchtung teile ich.
Ich würde mich ja durchaus mal auf das Experiment 120 Hz einlassen und ein TFT mit deutlich weniger Inputlag würde mich wenigstens Testhalber auch mal neugierig machen, allerdings will ich mich ebenfalls nicht auf TN einlassen. Ich empfinde ja IPS schon als Rückschritt :d

Eigentlich war meine Hoffnung ja dass es IPS auch mal in Richtung 120 Hz schafft (sofern es denn wirklich was bringt). Andererseits würde ich auch gerne wieder mehr PVA Monitore auf dem Markt sehen.
Vielleicht bringt OLED ja die Erlösung aus dieser Zwickmühle, mal sehen wie die sich technisch machen und ob da im PC Bereich überhaupt was kommt.
Im Übrigen langweilt mich FullHD. Zum Glück ist 4k im Anmarsch, eine würdige Auflösung am PC ist überfällig, das musste uns unbedingt Apple zeigen.

Angesichts dieser vielen anstehenden technischen Neuerungen ist aktuell ein schlechter Zeitpunkt zum Kauf eines Displays.
 
Ich sehe das eher skeptisch... genau wie AMDs "Mantle". Es scheint, als ob beide Hersteller zu dem Ergebnis gekommen sind, dass sie sich allein von der Leistung untereinander nicht mehr differenzieren können - dann müssen es eben proprietäre Features und Schnittstellen richten.

2014 wird dann also das Jahr, in dem man auf AMD-Grafikkarten Spiel A schlecht und Spiel B gut spielen kann, auf Nvidia-Grafikkarten dafür Spiel A normal und Spiel B überhaupt nicht, dafür aber Spiel C besonders gut, aber nur, wenn man einen Bildschirm von ASUS kauft...

Eine Revolution im Grafiksektor ist keine der beiden Techniken, bevor sie nicht herstellerübergreifend unterstützt wird. Als Exklusivfeature sind sie nur das, Exklusivfeatures eben, die nur von einem geringen Teil des Gesamtmarktes überhaupt genutzt werden können.

Ich werde mir ganz sicherlich nicht allein auf Nvidia's Wunsch hin einen neuen Bildschirm anschaffen, genauso wie ich nicht für ein einziges interessantes Spiel umbedingt die GCN-Architektur brauche. Als Kunde möchte ich möchte ein System haben, das für alle Situationen geeignet ist!



EDIT: Ach übrigens, laut Anandtech kostet das G-Sync Modul allein zur Einführung schon deutlich über $100, da es als Langzeit-Ziel definiert wird, den Preis unter diesen Punkt zu drücken. Man kann also anfänglich wahrscheinlich von $149 bis $199 MSRP ausgehen, was wie üblich für den US-Markt ohne Mehrwertsteuer angegeben wird, und demnach mehr oder weniger Eins zu Eins in Euro-Preise (inkl. Mehrwertsteuer) umgerechnet werden kann.

Da muss sich Nvidia durchaus die Frage gefallen lassen, ob man nicht durch Mehrinvestition dieser Summe in eine bessere Grafikkarte das Problem genausogut lösen kann, da hohe FPS-Zahlen es erst gar nicht auftreten lassen (wie die auf der Veranstaltung gezeigten Demos bezeugen).
 
Zuletzt bearbeitet:
Man kann nur hoffen, dass G-Sync bald auch bei Videos funktioniert. Dann wäre es nämlich egal ob das Video 30fps oder 25 oder auch 24fps hat.
Gut AMD kann das ja schon bei Volbildvideos.

Zu den Skeptikern, die meinen eine bessere Grafikkarte würde da mehr bringen. Das ist schon richtig, aber einen Monitor habe ich normalerweise länger als eine Grafikkarte. Das heißt einmal investiert und man hat erstmal Ruhe. Zudem vermute ich mal, dass die Technik nicht besonders teuer ist. Vielleicht hält sie dann auf in günstigen Monitoren Einzug.
 
Man kann nur hoffen, dass G-Sync bald auch bei Videos funktioniert. Dann wäre es nämlich egal ob das Video 30fps oder 25 oder auch 24fps hat.
Gut AMD kann das ja schon bei Volbildvideos.

Zu den Skeptikern, die meinen eine bessere Grafikkarte würde da mehr bringen. Das ist schon richtig, aber einen Monitor habe ich normalerweise länger als eine Grafikkarte. Das heißt einmal investiert und man hat erstmal Ruhe. Zudem vermute ich mal, dass die Technik nicht besonders teuer ist. Vielleicht hält sie dann auf in günstigen Monitoren Einzug.

Ich hab eine Grafikkarte länger als Monitor.
 
bei für Gaming geeigneten Panels habe ich in all den JAhren noch NIE einen tearing effekt zu gesicht bekommen :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh