NVIDIA erklärt, warum nur 6 Prozent der getesteten Monitore offiziell G-SYNC Compatible sind

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.949
NVIDIA erklärt, warum nur 6 Prozent der getesteten Monitore offiziell G-SYNC Compatible sind
nvidia.jpg
Nachdem NVIDIA jahrelang auf die eigene G-Sync-Technologie gesetzt hatte, kam es im Januar zur Kurskorrektur. Zur CES kündigte NVIDIA an, dass man zusätzlich auch das Adaptive Sync des VESA-Standards unterstützen wird. Geeignete Monitore können als G-SYNC Compatible vermarktet werden. Die Quote an Bildschirmen, die von NVIDIA offiziell so bezeichnet werden, ist allerdings extrem gering. Warum das so ist, hat NVIDIA in der vergangenen Woche selbst ausführlicher erklärt. Der Grafikkartenspezialist hat laut...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Aha, aber es ist doch nicht die Aufgabe von Nivdia den Monitor zu beurteilen,
sondern den offenen Standard ohne wenn und aber zu unterstützen!

War es das, was als "something super is coming" angekündigt wurde?
 
Aber was soll den die Aussage von Nvidia wirklich bedeuten, doch nur das der offene Standard nicht mit nVidias Implementation zurecht kommt?
 
Aha, aber es ist doch nicht die Aufgabe von Nivdia den Monitor zu beurteilen

Tun sie das für Dich?
hier noch mal ein Zitat aus dem Artikel:
Die Quote an Bildschirmen, die von NVIDIA offiziell so bezeichnet werden, ist allerdings extrem gering. Warum das so ist, hat NVIDIA in der vergangenen Woche selbst ausführlicher erklärt.

Hier wird nur erklärt, weshalb die Liste G-Sync kompatibler Monitore immer noch so klein ist.
Hatte die Schwierigkeiten mit einem FS-Monitor selbst mitbekommen: mal n 1sekündiger Blackscreen, mal Flackern usw.
Anpassen der FS-Range mit CRU hat auch nicht geholfen.
Jetzt steht das ansonsten gleiche G-Sync-Modell hier und alles ist so, wie es sein soll.

Wäre trotzdem besser, wenn NV nie sein eigenes Süppchen gekocht hätte und dem offenen Standard gefolgt wäre, aber was soll man als Nutzer einer NV GPU machen, wenn man perfekt funktionierendes adaptive Sync haben möchte, als denen dann doch die Kohle für ihre G-Sync-Module in den gierigen Hals zu schieben?
 
Aha, aber es ist doch nicht die Aufgabe von Nivdia den Monitor zu beurteilen,
sondern den offenen Standard ohne wenn und aber zu unterstützen!

War es das, was als "something super is coming" angekündigt wurde?

GSync ist aber nicht AdaptiveSync. Du verwechselst hier 2 Begriffe. AdaptiveSync wird ja auch unterstützt, du musst es nur selbst anschalten.

Für GSync gelten aber viel höhere Standards, die nur wenige Monitore einhalten. Mein FreeSync Monitor ist sichtbar schlechter als mein GSync (im direkten Vergleich - auch wenn ich den FreeSync mit einer AMD betreibe). GSync hat weit mehr Anforderungen als nur zB das GSync Modul (selbst mit dem GSync Modul kanns du noch durch die Tests fallen). Also wo ist dein Problem?

Gibt auch ein gutes, Recht neues Video von Linus, wo er die GSync Tests von Nvidia gezeigt bekommt. Sollte man sich zb vorher ansehen, bevor man seine Unwissenheit so schnell öffentlich macht ;). Look what we found in NVIDIAs Top Secret Gaming Monitor Lab - YouTube


PS: Ein AdaptiveSync GSync Monitor garantiert dann auch auf AMD und Intel beste Ergebnisse. Besser wäre es natürlich, wenn es hier ein Unabhängiges Label geben würden, aber dass gibt es ja leider (noch) nicht. Gute Tests zu Monitoren mit AdaptiveSync (wie gut das umgesetzt wurde) gibt es auch nur selten.
 
Zuletzt bearbeitet:
Also wo ist dein Problem?

Aus meiner Sicht ist das an Überheblichkeit und Arroganz seitens Nvidia nicht mehr zu überbieten.
Und klar sind die Monitore zu G-Sync inkompatibel und nicht etwa die Adaptive Sync Integration seitens Nvidia einfach nur Schrott.

Aber danke, werde mir das Video mal ansehen. :)
 
Warum überheblich ? Es gibt viele Free-Sync Monitore die nicht ordentlich funktionieren. Sprich zu viel overshoot, zu schlechte Reaktionszeiten, flickering und die sync range zu klein ist.

Es gibt genug AMD Fanboys die nicht verstehen, dass die Free-Sync Implementierrung inkl. des Overdrives in vielen Fällen einfach nur lieblos hingeklatscht wird und die Monitore dementsprechend zum Gamen wenig taugen.
 
Zuletzt bearbeitet:
Naja Nvidia will seine G-Sync Monitore verkaufen und duldet dafür <5% der FreeSync Monitor, die den elitären Status von G-Sync würdig sind.

Aber schon gut, vllt. sehe ich das auch zu kritisch. /:
 
Du solltest dir erstmal einen G-Sync Monitor und eine Nvidia GPU kaufen, um beurteilen zu können warum G-Sync mehr kostet. Man bezahlt nicht nur das G-Sync-Modul, wie viele Neulinge denken, sondern die Optimierungsarbeit inkl. adaptive overdrive die Nvidia leistet.

Ich habe etliche Free-Sync Monitore getestet. Es gab keinen einzigen der an einen G-Sync Monitor nur ansatzweise von der Gamingtauglichkeit dran kam. Ist leider so.
 
Zuletzt bearbeitet:
Aber schon gut, vllt. sehe ich das auch zu kritisch. /:

Du siehst nichts "zu Kritisch" sondern du siehst es komplett Falsch. Ich versuch es dir einmal so zu erklären:

Du weißt doch sicher noch die Zeit, wo es viele HDReady geräte gegeben hat? Wo viele dieser HDReady Geräte noch nicht einmal eine Auflösung von 720p gehabt haben? Um HDReady zu sein, musste man nur irgendwie, ein HD Signal verstehen und wiedergeben können (stark vereinfacht). HDReady hate praktisch keine Aussage darüber, wie gut das Bild dann ist (Auflösung, Kontrast usw.). Dann gab es zur selben Zeit auch 1080p HD Geräte (heute gibt es UHD+ mit HDR XXX usw.).
Was du jetzt machst, ist dich darüber aufzuregen, warum ein Monitor mit einer Auflösung von 480x320, der das HDReady Label hat, nicht auch noch das UHD Label bekommt.

AdaptiveSync ist alles, was für ein paar HZ AdaptiveSyncen kann. GSync (heute) heist, dass du eine MINDEST Range an Sync haben musst, du nicht über bestimmte Reaktionszeiten liegen darfst usw. (schau dir wirklich bitte das Video von Linus an, der Zeigt das super). Es kann sogar sein (das weiß ich nicht), dass auch AMD für FreeSync ein paar extra Standards gesetzt hat (also auch nicht jeder AdaptiveSync Monitor offiziel FreeSync kann).
 
Zuletzt bearbeitet:
OK danke nochmal für den Link zum Video und deine Erklärung, leuchtet auch mir soweit ein. ;)
 
Wobei ich die Funktionsweise von Adaptive Overdrive bisher immer noch nicht so richtig verstanden habe. :confused:
Vllt ist es genau das:
Bei meinem Dell AW2518HF (Freesync) hatte ich beim Scrollen im Browser immer konträrfarbige Schatten der Schriften, selbiges bei manchen Objekten im Spiel, hauptsächlich wenn die Games weniger FPS hatten.
Dies konnte ich weitestgehend minimieren, indem ich Kontrast & Helligkeit im Monitor-OSD auf bestimmte Werte gestellt habe (Kontast z.B. 73, 74 war schon wieder zu viel).

Beim Dell AW2518H (natives G-Sync) tritt das gar nicht mehr auf, das Bild ist komplett ohne diese "Schatten" und immer ruhig, bis hinunter in niedrige FPS-Bereiche.
Auch die gelegentlichen 1-2sek Blackscreens über DP sind komplett weg.
Geraten wurde mir zum G-Sync Gerät von asus1889, was ich auch nicht bereue.

Man muss sich ja hier mittlerweile entschuldigen, wenn man Nvidias Standard besser umgesetzt findet, aber für mich hat es sich damit mal wieder bestätigt.
Hatte vor dem Wechsel Bedenken, einfach nur Kohle zu verbrennen, nur damit das G-Sync-Logo auf dem Monitor prangt. Dem ist aber (in meinem Fall) definitiv nicht so gewesen.
 
Ein HD Ready TV muß ein natives Seitenverhältnis von 16:9 haben und die Auflösung darf nicht unter 720p liegen.
 
allgemein ist es im PC-bereich ja eigentlich üblich mindest-standarts zu setzen nach denen geräte bestimmte anforderungen erfüllen.
nvidia macht daraus mit ihrem 'test' folgendes:
man legt die latte so hoch das fast kein gerät mehr es schafft und nennt das dann standart.

natürlich gibt es sicher viele monitore die den stanadart berechtiger weise nicht schaffen, aber über 90% ??
wer soll das ernsthaft glauben?!

die spinnen doch die von nvidia.
in der praxis hat man doch nur die notwendigkeiten um von nv ein 'ok' zu bekommen
so hoch gesetzt, das alle welt glaubt(oder ehr glauben soll) man braucht extra-super-duper-monitore
um g-sync zu schaffen.

in warheit sind es nur völlig überzogene anforderungen oder eben mit teurer zusatzhardware,
die so für g-sync als geeignet dargestellt werden sollen.

nachtigall ich hör dir trapsen..........
 
Zuletzt bearbeitet:
Für FreeSync (2) gilt es auch einige Standards einzuhalten um das Label zu bekommen.
Ist aber nicht ganz so anspruchsvoll gestaltet wie bei nV.
Jedoch darf man bei einer Lösung die extra kostet natürlich auch mehr erwarten.

Nichts desto trotz war auch ich bisher von einigen Monitoren die ich hier hatte - sehr enttäusche auch was das Sync verhalten angeht.
Sync funktionierte prinzipiell, nur in den unteren 5cm gabs trotzdem Bildreißer.
Flickering mit aktivierten FreeSync.
Summende Monitore (Samsung...) wenn FreeSync eingeschaltet war inkl. veränderten Ton des Summes beim FPS wechsel :fresse:
uswusf...

Mit meinem jetzigen AOC Agon AG322QCX bin ich hingegen endlich zufrieden.
nach etlicher Justierung an den Farben stört mich eigentlich nur noch das VA Typische leichte schlieren in dunklen bereichen.
Wobei ich mir auch etwas mehr Blickwinkelstabilität erhofft hätte.
Aber gut... wer hohe Kontraste möchte , was ich wollte , damit ich kein knall kriege wenn ich vom Oled TV mich am Monitor setze, hat da nicht viel Auswahl.

FreeSync läuft gut, die Range passt auch, LFC funktioniert.
Und mit einer nV Karte arbeitet er auch ohne Probleme zusammen als GSync Kompatibel, konnte ich letztens testen. War mir persönlich auch wichtig bei der Monitor wahl da ich auf Sync nicht mehr verzichten mag.

Was mich viel mehr aufregt ist was man bei Monitoren jehnseits von 500€"nur" an Qualität geboten bekommt...
Okay, ich bin Oled verwöhnt... aber dennoch.

Eigentlich schade das es keine 32" Oled´s gibt (Einbrennproblematik hin oder her) und das es wohl keine GSync Monitore gibt die mit FreeSync zusammen arbeiten. Sonst könnte man auch einfach das GSync Modell mit entsprechender Qualitätssicherung kaufen und mit FreeSync betreiben. Geht aber scheinbar ja nur umgekehrt das man FreeSync Modelle mit GSync betreibt.
 
Zuletzt bearbeitet von einem Moderator:
Und was will man mit Free-Sync, wenn die AMD Grafikkarten immer noch viel schlechter sind als die von Nvidia ? Ich hatte auch die Frontier Liquid, war damals froh als ich sie wieder gegen eine 1080 Ti tauschen konnte.

Ich würde mir so schnell keine AMD Grafikkarte mehr kaufen. Die Dinger sind laut, heiß, haben deutlich weniger Features und dann noch kaum OC Potenzial. AMD hatte zu letzt brauchbar Grafikkarten 2012 mit der HD 7970 Serie. Ist traurig aber leider wahr.
 
Zuletzt bearbeitet:
Reden wir über Monitore oder Grafikkarten?
Ich hab von einer 1070 auf die Vega 64 gewechselt und bin sehr froh darüber.

Keine Probleme mehr mit HDR in Verbindung mit meinem TV. (Vielfach Diskutiert)
(Spiele Story spiele gerne am TV mit Controller inkl HDR :) für alles andere setze ich mich am Schreibtisch )
Keine Issue mehr beim DP mit über 75hz (Offizielle Issue... )
Keine Mysteriösen Frametime Probleme.... (2080 TI Ruckler/Frametime spikes - Seite 37)

Von den deutlich mehr Features ist mir bisher nichts nennenswertes aufgefallen was mir fehlen würde.
Meine Strix 1070 war auch nicht nennenswert leiser in meinem Rig als meine Strix 64er jetzt.

Und ja , out of the Box ist nV effizienter da näher am Sweetspot.
Daher für "einfach auspacken und einbauen, glücklich sein" besser geeignet.
Mir auch egal, da ich, egal welche Karte von welchen Hersteller, ohne hin händisch optimiere um das Optimum raus zu holen. Also ist mir out of the box egal.

Lass uns da mal lieber bei Monitoren bleiben worum es hier ja auch geht ;) :wink:

Edit:
Für mich, bei einer jetzigen Neuanschaffung ist es eine Bedingung das der Monitor sowohl FreeSync wie auch GSync einwandfrei beherrscht, da ich mich nur ungern auf einen Hersteller festlegen möchte um alle Features meines Monitors nutzen zu können, bzw. um Sync nutzen zu können.

Und eigentlich ist es schon ein Witz das da mittlerweile von User angelegte Tabellen geführt werden müssen...

[Sammelthread] User melden Gsync Kompatibel - Monitorliste
Wobei die Liste mehr als Gold wert ist für jeden neu Käufer.
 
Zuletzt bearbeitet von einem Moderator:
Du solltest dir erstmal einen G-Sync Monitor und eine Nvidia GPU kaufen, um beurteilen zu können warum G-Sync mehr kostet. Man bezahlt nicht nur das G-Sync-Modul, wie viele Neulinge denken, sondern die Optimierungsarbeit inkl. adaptive overdrive die Nvidia leistet.

Ich habe etliche Free-Sync Monitore getestet. Es gab keinen einzigen der an einen G-Sync Monitor nur ansatzweise von der Gamingtauglichkeit dran kam. Ist leider so.
Du meckerst im MonitorThread über jeden Monitor. Keiner ist dir gut genug. Jede hat irgendwas. Das trübt deinen Leumund doch etwas.
 
Ne, der X27 ist schon recht gut. Die restlichen Monitore sind mehr oder weniger Schrott.

Der LG 34GK950G neben dem X34P einer der wenigen IPS Monitore die noch am meisten im SDR Bereich taugen. Aber aufgrund des fehlenden HDR's für mich nur als Zweitmonitore akzeptabel.


@LDNV

Ich habe auch kein Problem mit HDR mit meiner RTX. Ruckler habe ich auch nicht. Keine Ahnung was du für Probleme hast. Die Vega Serie ist absoluter Abfall, Resteverwertung der Computingsparte von AMD. So etwas schön zu reden ist total lachhaft.

Nur weil du irgendwann mal Probleme mit einer GTX 1070 bei irgendeinem Fernseher, aus welchen Gründen auch immer, hattest, ist das noch lange kein Grund Nvidia zu verteufeln und AMD besser darzustellen als sie sind.

Objektiv gesehen ist AMD leider im Moment nur etwas für Linux/Macuser oder AMD Fanboys. Von der Leistungsfähigkeit (inkl. Featureset), der Hitzeentwicklung, dem OC Potenzial, dem Stromverbrauch umd P/L Verhältnis her würde niemand der sich ausreichend viele Gedanken vor dem Kauf gemacht hat AMD kaufen.
 
Zuletzt bearbeitet:
Ne, der X27 ist schon recht gut. Die restlichen Monitore sind mehr oder weniger Schrott.

Der LG 34GK950G neben dem X34P einer der wenigen IPS Monitore die noch am meisten im SDR Bereich taugen. Aber aufgrund des fehlenden HDR's für mich nur als Zweitmonitore akzeptabel.


@LDNV

Ich habe auch kein Problem mit HDR mit meiner RTX. Ruckler habe ich auch nicht. Keine Ahnung was du für Probleme hast. Die Vega Serie ist absoluter Abfall, Resteverwertung der Computingsparte von AMD. So etwas schön zu reden ist total lachhaft.

Nur weil du irgendwann mal Probleme mit einer GTX 1070 bei irgendeinem Fernseher, aus welchen Gründen auch immer, hattest, ist das noch lange kein Grund Nvidia zu verteufeln und AMD besser darzustellen als sie sind.

Objektiv gesehen ist AMD leider im Moment nur etwas für Linux/Macuser oder AMD Fanboys. Von der Leistungsfähigkeit (inkl. Featureset), der Hitzeentwicklung, dem OC Potenzial, dem Stromverbrauch umd P/L Verhältnis her würde niemand der sich ausreichend viele Gedanken vor dem Kauf gemacht hat AMD kaufen.

Weißt du was der unterschied zwischen uns ist?
Ich verteufel niemanden. Sonst bräuchte ich mir keine Optionen offen halten und auf maximale Kompatibilität achten. ;)
Ich habe nicht im geringsten Abfällig geredet.
Ich habe nicht mal eine Diskussion begonnen.
Und vor allem habe ich niemanden besser dargestellt als er ist :wink:

Warum du hier allerdings so Respektlos los polterst und Stammtisch mäßig deine scheinbare einzige Wahrheit in so einer Art und weise rum blöken musst, weißt wohl nur du selbst ;)

Aber ist doch toll das du keine Probleme mit deiner Grafikkarte hast :)
Habe ich auch nicht. :wink:

Also kein Schimmer was du gerade eigentlich von mir willst? Also bitte such dir wen anders für sowas, aus so einem Fanboy Scheiß halte ich mich raus und kaufe lieber das Produkt was mir am besten gefällt und meinen bedarf abdeckt. ;)

Mensch ich hab dich nun schon so oft gelesen, hier, wie auch im CB, und mich immer wieder gewundert ... aber nun weiß ich es :d
Können wir uns nun weiter über Monitore Unterhalten oder möchtest noch weiter Sinnlos durch die gegend Bashen und Offtopic Zeugs von dir geben? :coffee:
 
Zuletzt bearbeitet von einem Moderator:
Siehe Post #18, der sich auf deinen vorherigen Post bezieht. Dort habe ich deine abstrusen Ansichten hinterfragt, mehr nicht.

Alle Dinge ich hier bezüglich AMD von mir gegeben habe, haben Hand und Fuß und lassen sich zweifelsfrei belegen.
 
Zuletzt bearbeitet:
Siehe Post #18, der sich auf deinen vorherigen Post bezieht. Dort habe ich deine abstrusen Ansichten hinterfragt, mehr nicht.

Alle Dinge ich hier bezüglich AMD von mir gegeben habe, haben Hand und Fuß und lassen sich zweifelsfrei belegen.

Ganz bestimmt, die z.B. 3 Probleme die ich ansprach, auch. Aber sämtliche Leute, auch die aus genannten Thread lügen... :d

Hinterfragt hast du überhaupt nichts.
Vor allem was solltest du hinterfragen?
Das ich über so manch FREESync Monitor gemeckert habe?
Das ich sagte das es toll wäre, wenn GSync Monitore auch mit FreeSync betreibar wären, was toll wäre, da die höheren Qualitätsstandards unterliegen?
Ja ... tut mir leid das ich GSync bzw. dessen Vorschriften an die Hersteller besser hingestellt habe ... :rolleyes:
Damit wären wir dann übrigens auch wieder beim Thema des Threads ;)

Nein ... ich lass es. ich diskutiere nicht weiter.
Hast eigentlich den Jungs im CB die dich schon so manches mal hinterfragt haben ob dein Wissen wirklich "echt" oder nur angelesen und als eigenes vorgegeben ist, wo du so oft behauptest alles mögliche selbst zum Testen da zu haben, wie so ziemlich sämtliche Monitore usw. die oftmals geforderten "Beweise" mal gezeigt, oder warten die immer noch und dürfen sich oftmals Ausflüchte anhören weswegen das ja nicht geht?

don't feed the troll :d
 
Zuletzt bearbeitet von einem Moderator:
Nein, ich hinterfragte deinen Einfall das ein G-Sync Monitore, Free-Sync unterstützen müsste, nur damit du ihn mit deiner AMD Karte mit adaptive sync nutzen kannst. G-Sync ist für Nvidia GPUs und Treiber. Es gibt auch keinen Grund dafür, das Nvdia G-Sync für AMD kompatibel machen sollte.

Bezüglich der Monitorliste würde ich folgende Monitore auch noch rausstreichen:

Acer XZ321Q
Acer XV273K

Beides sind Schlierenschleudern.
 
Zuletzt bearbeitet:
Ach das hast du hinterfragt.
Das hab ich dann wohl in deinem unbegründeten Rant gegen AMD Grafikkarten obgleich wir doch von Monitoren reden dann wohl fehlinterpretiert ... :d
 
AMD könnte auch einfach genau wie Nvdia für Free-Sync bestimmte Qualitätsstandards festlegen und dann würde man das Problem mit halbgaren FS Monitoren gar nicht mehr haben.

Der offene Free-Sync Standard nützt einem auch nichts, wenn es fast nur Schrottmonitore gibt die vor softwarseitigen Fehlern nur so strotzen. Adaptive Sync ist schön und gut aber ohne adaptive overdrive nur Ein-Gang Fahrrad.
 
Zuletzt bearbeitet:
Adaptive Overdrive ist sinnvoll also Verbesserungen sind noch möglich
AMD FreeSync Monitore nutzen auch adaptives Overdrive denn adaptiv bedeutet einfach nur, daß Overdrive auch noch mit Adaptive Sync funktioniert.
Was du meinst ist variables Overdrive das wichtig ist wenn man mit Sync deutlich weniger FPS hat als die Hz des Monitors also z.B. 60FPS@144Hz.
Das sind mit Sync dann 60FPS@60Hz und wenn Overdrive auf 144Hz optimiert wurde, gibt es bei 60Hz mehr Schlieren weil langsamere Schaltzeiten.
 
Objektiv gesehen ist AMD leider im Moment nur etwas für Linux/Macuser oder AMD Fanboys. Von der Leistungsfähigkeit (inkl. Featureset), der Hitzeentwicklung, dem OC Potenzial, dem Stromverbrauch umd P/L Verhältnis her würde niemand der sich ausreichend viele Gedanken vor dem Kauf gemacht hat AMD kaufen.

Du meinst wie das man mit einer 580 noch RAM frei hat während einer 1060 der Speicher ausgeht? Die bessere Unterstützung bei Vulkan?

Der bessere Preis? Die GGPU Leistung?

Oh ja man zahlt wenn man die Karte 24 Stunden am Tag betreibt 30 € mehr. Zählt vielleicht bei meinem Zweit-PC.
 
Dann schreib doch Nvidia.
Bei deiner Kompetenz, werden sie dir sicher ne Festanstellung geben.
Dann kriegst du endlich mal ne gescheite Ausrüstung zum testen und kann Monitore noch besser machen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh