G-Sync wird Variable Refresh Rate/Adaptive Sync unterstützen

dass es mit nicht zertifizierten Monitoren laufen wird sieht man bei videocardz anders... also wer hat nun recht?

Lest ihr eigentlich was da steht? NVIDIA selbst sagt: "it may work, it may work partly, or it may not work at all. To be sure, only purchase a monitor listed as “G-SYNC Compatible” on our site."

Es funktioniert auf allen FreeSync-Monitoren, in vollem Umfang sichergestellt wird es nur auf denen mit G-Sync Compatible.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich stelle mir gerade die Gesichter so mancher NVIDIA-Kunden vor, wie sie diese Nachricht aufnehmen, welche sich erst vor 1 Jahr einen teuren G-Sync-Monitor gekauft haben und locker 300-500 Euro weniger für einen A-Sync-Monitor bezahlt hätten, wenn NVIDIA dies schon damals hätte nutzbar machen wollen. :shot:

Aber gut dass NVIDIA endlich vernünftig wird und den kostenlosen Standard unterstützt. Ist wohl den niedrigen Frameraten bei der Nutzung von RT sowie der besseren Positionierung der kommenden RTX2060 zu verdanken, die mit RT wohl sonst gänzlich unbrauchbar wäre.
 
Die Frage ist, wie unterscheiden sich VRR und G-Sync voneinander, technisch gesehen und was hat das für Auswirkungen auf den Sync?

Ich meine, habe ich mit VRR Nachteile gegenüber nativem G-Sync, oder ist es eben schon auf einer technischen Ebene identisch? Ist VRR genauso gut wie G-Sync? Sync-Range, Lag, Latenz, Smothness, etc.
Das ist halt die große Frage (auch wenn jetzt gleich hier einige schreien werden das VRR mind. genauso gut ist). ;)
 
Wo bleiben die >30", >100 Hz, 4K-Monitore :love:
 
Ich stelle mir gerade die Gesichter so mancher NVIDIA-Kunden vor, wie sie diese Nachricht aufnehmen, welche sich erst vor 1 Jahr einen teuren G-Sync-Monitor gekauft haben und locker 300-500 Euro weniger für einen A-Sync-Monitor bezahlt hätten, wenn NVIDIA dies schon damals hätte nutzbar machen wollen. :shot:

Aber gut dass NVIDIA endlich vernünftig wird und den kostenlosen Standard unterstützt. Ist wohl den niedrigen Frameraten bei der Nutzung von RT sowie der besseren Positionierung der kommenden RTX2060 zu verdanken, die mit RT wohl sonst gänzlich unbrauchbar wäre.

Es ist zu begrüßen, dass NVIDIA nun einen VESA Standard unterstützt. Warum sollten NVIDIA Kunden jetzt Gesichter ziehen, die freuen sich, dass sie nun noch mehr Optionen haben.

Das macht jedoch G-Sync (auf Hardware Ebene) nicht obsolet, da es schlicht eine andere Herangehensweise ist. G-Sync Monitore durchlaufen eine Zertifizierung, Freesync darf jeder. In der Regel garantiert das G-Sync Modul eine deutlich reduzierten Input Lag und noch niedrigere Bildwiederholraten, in anderen Bereichen schlicht ein Tick mehr Qualität. Ob einem das den Aufpreis wert ist muss jeder für sich entscheiden. Gibt auch Leute die zahlen für RGB Bling Bling einen Aufpreis.
 
Zuletzt bearbeitet:
...

Wieder mal typisch. Die könnten das sehr wohl für alle Karten freigeben. Dann sind das meistens TN Monitore.

Es ist aber gut möglich, dass z.Bsp. der (ältere) AG241QG (nicht Q4) des auch unterstützt. Die können, wollen ja nicht jede Version eines Monitors auf Lager haben geschweige testen wollen.

Die wollen ja neu verkaufen, wie immer. Ist ja auch eigentlich der einzige Grund, wieso das die das machen. Die 2080 verkauft sich unter Erwartungen, AMD kommt mit was Neuem und nun versuchen sie es halt so, die Karten an den Mann zu bringen.

Zudem der Makel bleibt halt, "may work or may not".

...
 
...

Zudem der Makel bleibt halt, "may work or may not".

...

Genau diesen Makel hat Adaptive Sync für alle Nutzer, auch aus dem AMD Lager, deshalb sollte man schauen, dass man unter den vielen verfügbaren Monitoren den richtigen wählt. Bei G-Sync bekommst du eben G-Sync und zahlst dafür ein Premium ;)

Für mich stellt sich dann übrigens gleich die nächste Frage, wann wird "FreeSync 2 HDR" in den VESA Standard aufgenommen und wie lange dauert es, bis NVIDIA auch dies dann unterstützt ;)
 
Zuletzt bearbeitet:
...

Ist bei Gsync auch so. Einige Spiele starten gar nicht mit Gsync.

Gsync ist ohnehin nicht immer die beste Wahl. Ich persönlich spiel meistens ohne.

...
 
Ein kleiner Schritt für Nvidia, ein großer Schritt für die Gamer! :d
 
Es ist zu begrüßen, dass NVidia nun einen VESA Standard unterstützt. Warum sollten NVIDIA Kunden jetzt Gesichter ziehen, die freuen sich, dass sie nun noch mehr Optionen haben.

Ich spreche nicht von Leuten die sich jetzt einen Monitor kaufen wollen, sondern von gemelkten Kunden, die sich erst kürzlich einen G-Sync-Monitor gekauft haben, weil NVIDIA kein A-Sync unterstützte und sich nun damit abfinden müssen für Nichts soviel mehr Geld bezahlt haben zu müssen.

Hier die ersten Opfer:
News - G-Sync: Nvidia unterstützt nun auch Monitore mit Adaptive-Sync| Seite 9 | ComputerBase Forum
News - G-Sync: Nvidia unterstützt nun auch Monitore mit Adaptive-Sync| Seite 10 | ComputerBase Forum

Das macht jedoch G-Sync (auf Hardware Ebene) nicht obsolet, da es schlicht eine andere Herangehensweise ist. G-Sync Monitore durchlaufen eine Zertifizierung, Freesync darf jeder. In der Regel garantiert das G-Sync Modul eine deutlich reduzierten Input Lag und noch niedrigere Bildwiederholraten, in anderen Bereichen schlicht ein Tick mehr Qualität. Ob einem das den Aufpreis wert ist, muss jeder für sich entscheiden. Gibt auch Leute die zahlen für RGB Bling Bling einen Aufpreis.

Wieder falsch. FreeSync hat deutlich weniger Input-Lag, was schon getestet worden ist. Ist ja auch logisch, da das Bildsignal nicht durch ein extra Modul laufen muss und die niedrigerer Bildrate ist völlig belanglos, denn alles unter 40FPS ist eh schon sehr grenzwertig zum Gamen. Macht also absolut keinen Sinn dies als einen Vorteil zu deklarieren.
 
Bin ja auch sehr froh dass die das nicht exklusiv für die 20xx reihe gebracht haben - das gäbe aber Wahrscheinlich einen zu großen Aufschrei...
 
Puh, da bin ich heilfroh, dass ich meinen Gsync.Monitor zurückgeschickt und mir stattdessen einen C49HG90 gekauft hatte. Sehr, sehr geil.

Das hat mein Ansehen von NVIDIA gerade massiv gesteigert.
 
Die Bildschirme, die jetzt beides können werden wohl teuer sein, als einer der nur G-Sync. kann, somit brauch sich doch keiner betrogen fühlen, der gerade einen G-Sync. Monitor gekauft hat. ;)
 
Wie kommst du auf den Quatsch? Natürlich unterliegen die Preise der Modelle auch der Nachfrage, aber der Aufpreis für das G-Sync Modul entfällt natürlich, was sonst immer den Aufpreis rechtfertigen sollte.


Puh, da bin ich heilfroh, dass ich meinen Gsync.Monitor zurückgeschickt und mir stattdessen einen C49HG90 gekauft hatte. Sehr, sehr geil.

Das hat mein Ansehen von NVIDIA gerade massiv gesteigert.


Du weißt doch noch gar nicht, ob das bei deinem Modell ohne Probleme funktioniert? Wenn es geht, Glück gehabt, ansonsten verstehe ich nicht, warum man das Nvidia das hoch anrechnen sollte...
 
Zuletzt bearbeitet:
War abzusehen, dass die nachgeben mussten.
Der Druck wurde ja auch immer größer. Speziell seit auch schon Fernsehhersteller damit
angefangen haben FreeSync zu implementieren.
 
Also ich sehe das auch so, dass Nvidia lieber bei den Grafikkarten mehr verdient und nicht mit den G-Sync Modulen für die Monitor-Hersteller. Sie haben wohl erkannt, dass Nvidia sonst im Paket aus Grafikkarte und Monitor als zu teuer wahrgenommen wird.
Sicher werden die Preise für die G-Snyc Modelle nun langsam fallen, außer jemand weißt nach, dass immer noch immense Vorteile hätte G-Snyc zu nutzen.

Ich freue mich jedenfalls, weil ich ja gerade davor stand mir einen Monitor mit G-Snyc zu leisten. Wo ich jetzt erstmal noch ein paar Wochen warte, wie das Thema so seinen Lauf nimmt. Sicher ließt man dann auch mit der Zeit, wo es Probleme gibt und wo nicht. Bzw. werde ich mir dann sicherer, ob ich immer noch G-Snyc kaufen sollte, oder ob ich quasi bedenkenlos einen FreeSync/AdaptiveSnyc/VRR (oder wie der Quatsch dann heißt) kaufen kann. 150-300 EUR zu sparen ist ja mal nen Wort. Das zusammen mit vielleicht nur einem 5-10% schlechterem Ergebnis als bei G-Snyc selbst, dann sag ich warum nicht.
 
Wieder falsch. FreeSync hat deutlich weniger Input-Lag, was schon getestet worden ist. Ist ja auch logisch, da das Bildsignal nicht durch ein extra Modul laufen muss und die niedrigerer Bildrate ist völlig belanglos, denn alles unter 40FPS ist eh schon sehr grenzwertig zum Gamen. Macht also absolut keinen Sinn dies als einen Vorteil zu deklarieren.

Hast du da ein paar Quellen/Tests zu? Ich lese nämlich gerade einen Test von TFT Central zum LG34 und da ist das G-Sync Model deutlich schneller.

Wäre super, wenn du irgendwie verlässliche Quellen für deine Behauptung vorzeigen kannst.
 
Das nVidia das irgendwann machen müsste war mir zwar klar, aber ich dachte das wären noch Jahre bis dahin. Aber ich finde es klasse, mein 3. Monitor hat FreeSync :). Ich denke damit wird auch GSync auf dauer sterben, die marginalen Vorteile gegenüber FreeSync sind den Aufpreis nicht wert (und wurde sicher, wie bei mir oft nur zähneknirschend bezahlt, mangels Alternative (und nein, eine nur halb so schnelle AMD Karte oder 3 in Crossfire sind keine Alternative, auch wäre dass dann noch teurer geworden (auch auf der Stromrechnung)).

@webmi: GSync ist besser, hat auch schon oft in Blindtests gegen FreeSync gewonnen (aber praktisch sind die Unterschiede für die meisten zu vernachlässigen). Pickebuh ist hier noch auf dem Fanboy trip.

PS: Dadurch dürften 144 Hz UHD HDR Monitor nun deutlich interessanter werden.
 
Zuletzt bearbeitet:
Jetzt sollte man perfekt sehen, dass es bei Nvidia alles andere als läuft...

Man bin ich froh, dass ich meinen Gsync Monitor für den Preis eines Freesync Modells bekommen hab.
 
Zuletzt bearbeitet:
...

Wieder mal typisch. Die könnten das sehr wohl für alle Karten freigeben. Dann sind das meistens TN Monitore.

Es ist aber gut möglich, dass z.Bsp. der (ältere) AG241QG (nicht Q4) des auch unterstützt. Die können, wollen ja nicht jede Version eines Monitors auf Lager haben geschweige testen wollen.

Die wollen ja neu verkaufen, wie immer. Ist ja auch eigentlich der einzige Grund, wieso das die das machen. Die 2080 verkauft sich unter Erwartungen, AMD kommt mit was Neuem und nun versuchen sie es halt so, die Karten an den Mann zu bringen.

Zudem der Makel bleibt halt, "may work or may not".

...

Einfach ein paar Wochen warten und dann die Foren durchforsten, dann wird jeder seinen Monitor getestet haben und man hat einen guten Überblick
 
Jetzt sollte man perfekt sehen, dass es bei Nvidia alles andere als läuft...

Man bin ich froh, meinen Gsync Monitor für das Geld eines Freesyncs gekauft zu haben.

Der BenQ 2740 hat leider nur FHD auf 27".
Der BenQ 2735 hätte WQHD ist aber natürlich nicht auf der Liste.

wobei der 2735 auch 586€ kostet und "nur" ein TN Panel hat.
 
Zuletzt bearbeitet:
@Schtuka, auch grad gesehen, dachte der 2740 wäre der Nachfolger des 2730 den ich mal hatte, sorry.

ps. wenn keiner der 12(lol) Monitore brauchbar ist, muss man wohl selber testen, bei welchem Freesync Modell es läuft, würde mich aber nicht wundern, wenn Nvidia das absichtlich sabotieren würde... die haben doch sicher nen Vertrag mit den Herstellern, denn genau die sitzen jetzt auf den teueren Gsync Modellen.
 
@Schtuka, auch grad gesehen, dachte der 2740 wäre der Nachfolger des 2730 den ich mal hatte, sorry.

ps. wenn keiner der 12(lol) Monitore brauchbar ist, muss man wohl selber testen, bei welchem Freesync Modell es läuft, würde mich aber nicht wundern, wenn Nvidia das absichtlich sabotieren würde... die haben doch sicher nen Vertrag mit den Herstellern, denn genau die sitzen jetzt auf den teueren Gsync Modellen.

Naja teuer. Wenn ich mir die Freesync Topmodelle so anschaue wie den Samsung C27HG70 (499€) bezahle ich für ein G-Sync Topmodell wie den Acer XB271HUa exakt gleich viel. Vorrausgesetzt ich schaue mich ein wenig um und warte auf Angebote. Momentan bekomme ich für 550 nur die TN Variante. Waren aber Ende 2018 mehrere Angebote für 499€ für das IPS Modell verfügbar.
Natürlich ist da noch das Argument, dass die 27er WQHD Gsync Displays zu BLB und Clouding neigen.
 
Zuletzt bearbeitet:
Gesteigert muss ja nicht heißen dass es jetzt gut ist ;). Aber langsam baut nVidia ein paar echte Negativpunkte ab.
 
Gesteigert muss ja nicht heißen dass es jetzt gut ist ;). Aber langsam baut nVidia ein paar echte Negativpunkte ab.

Ich find das ja auch super, zumal ich einen FreeSync Monitor habe. Nur hätte es gar nie erst so sein müssen. Das ist pure Ausnutzung der Marktmacht. Klar, Nvidia kann man das nicht direkt vorwerfen - wer würde es schon anders machen.

Aber unterstützen und gut finden muss man es trotzdem nicht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh