NVIDIA erklärt, warum nur 6 Prozent der getesteten Monitore offiziell G-SYNC Compatible sind

kurz zu AMD:
in dem preisbereich wo ich kaufen würde, bis 250-300€, ist AMD nicht 'viel schlechter', ehr ist nv allzuoft 'zu teuer' und damit für mich eh 'raus'.

zu monitoren:
wenn ein monitor irgendein sync beherrschen soll und dies aber nicht tut, weil es flickert, summt oder sonstwas, liegt das meist weniger am standart sondern ehr daran das die hersteller den standart doch nicht einhalten....
im speziellen nv mit ihren 'tests' zu g-sync, sind diese tests eigentlich schon lächerlich, wenn nichtmal 10% laut nv 'gut genug' sind um ihren 'goldenen g-sync-standart' zu erreichen, wobei, dafür sind diese ja , wenn nicht anders deklariert, garnicht gebaut.
vieleicht gibt es ja bald monitore von herstellern die expliziet für beides gebaut sind.....
für den user sind diese monitore auch eigentlich die besten, weil systemübergreifend nutzbar.

allerdings, wenn ich mir das preisgefüge so anschaue, jedenfalls mit blick darauf wa ich für einen monitor ausgeben würde, fällt g-sync und freesync meist eh 'hinten runter'.
mehr als 250€ würde ich nämlich für einen monitor nicht ausgeben....
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Warum lächerlich ? G-Sync ist ein Qualitätsstandard. Ich hatte schon etliche Monitore mit FS und G-Sync mit den gleichen Paneln. Die G-Sync Modelle hatten deutlich weniger motion blur, overshoot, inputlag, flickering, mbr (wenn vorhanden, unbrauchbar umgesetzt) und smearing (bei VA und einigen langsameren IPS Monitoren). Wenn jemand wegen der 50 - 100 Euro "Ersparnis" lieber die volle Packung an spielverderbenden Eigenschaften haben will, kann er das gerne haben.

Übrigens schreibt man Standard mit d.
 
Zuletzt bearbeitet:
wenn man sich anschaut warum teils in den tests der grossteil der monitore durchgefallen ist, ist das schon lächerlich.
wie wenn weil man ja keine 225er reifen hat, das ganze auto schlecht wäre....
 
Es ist gar nicht lächerlich, wenn man die Monitore kennt die da durchgefallen sind. Das Problem ist viele Leute haben keine Ahnung von Monitoren und somit überhaupt nicht die Kompetenz um dieses Vorgehen von Nvidia beurteilen zu können.
 
Komisch wenn außer dir keiner die Fehler sieht. Und das man neben dem G-Syncmodul auch das Panel ändert hat auch noch niemand mitbekommen.
 
Weil die meisten nie den Vergleich hatten, zwischen Free-Sync und G-Sync und schon mal gar nicht beides mit den selben Paneln. G-Sync reizt die Eigenschaften des Panels optimal aus, welches einen signifikaten Unterschied ausmacht ;).
 
Zuletzt bearbeitet:
Mehr außer gerede,sieht man, wie so oft, ja nicht.
Aber hier ist eh erst ruhe wenn dir keiner mehr gegen den Mund redet.
Einzig wahre Meinung und so ;)

Wenn du alles was du von dir gibst, vll eine Spur netter, aber wenigstens immer auch mit Fakten belegen würdest und vor allem deine Tests und Erkenntnisse belegen würdest - was witziger weise für niemanden ein Problem ist der ja immer alles da hat, oder hatte, dann hättest du ganz sicher wesentlich weniger gegenwind, egal ob im CB oder hier oder sonst wo.

Und selbst nach den ganzen Diskussionen die du bisher über dich ergehen lassen musstest, müsstest du inzwischen gelernt haben das es sich besser Diskutiert wenn man diverse Sachen die man von sich behauptet auch belegen könnte und hättest damit als "Standard" schon längst mal begonnen um deine Glaubwürdigkeit zu unterstreichen in deinem ganz eigenen Interesse.

Also entweder du diskutierst du viel zu gerne Sinnlos.
Bist so ignorant das du meinst Dinge nicht nötig zu haben.
Akzeptierst nur eine Meinung und zwar deine.
Oder bist ein Troll.

Vll auch noch eine Mischung aus all dem.

Niemand spricht dir ab Ahnung zu haben, die hast du sogar Zweifelslos.
Aber wie du zu dieser "Ahnung" gelangt bist - ob wirklich durch eigene Fundierte Tests oder doch nur angelesen und als deine Verkauft, Fragwürdig... und dazu noch die ganze Art und weise dabei.... Fürchterlich in meinen Augen.

So ist dein Stammtisch gesabel halt nur .... Stammtisch gesabel, da gibt es auch immer mal wieder Leute die von etwas Ahnung haben - woher auch immer - aber sich dabei sehr unvorteilhaft verkaufen...
 
Wer ist denn "niemand", auch hier gibt es einige die die gleichen Erfahrungen wie ich gesammelt haben.

Und was lässt sich nicht belegen ?

Ich verwende Tests von anderen, nur um Neulingen anhand von Messwerten vor Augen zu führen, warum sich Monitore entsprechend verhalten.

Ich brauche diese nicht, um mir Dinge zu erklären, die ich sehe ;).
 
Zuletzt bearbeitet:
Okay, du möchtest es nicht verstehen was man versuchte dir zu vermitteln :)
Mach einfach weiter :coffee:
 
nein, man muss die ganzen monitore nicht kennen.
man muss nur lesen warum bei nv so viele durch den test fallen, also die gründe warum.
das stellt den test dann in meinen augen schonmal in einem ganz anderem licht dar
und das ist kein 'schöner sonnenschein' sondern ehr fragwürdig.

achja, blegen schreibt man mit 'e' ->belegen......
 
Dieser Youtuber erklärt genau das Verhalten welches man hier im Forum und anderen Foren häufig vorfindet. Eigentlich sollte man auf diese AMD Fanboys gar nicht mehr eingehen.

Ich kaufe das was die beste Leistung fürs Geld bietet. Ich bin überhaupt kein Fanboy. Wenn AMD morgen eine GPU mit besseren Eigenschaften als Nvidia inkl. den gleichen oder besseren Spieleeigenschaften als Nvidia bei Monitoren bieten würde, würde ich AMD und einen Free-Sync Monitor nehmen.

Das unterscheidet mich von den Fanboys in den Foren.

@geist4711

Warum die Monitore durchfallen steht doch im Internet zu Genüge.

Bezüglich "belegen". Das ist ein Tippfehler, welcher durch meine Kahliswitch Tastatur verursacht wurde, muss das Ding langsam mal entsorgen. Du schreibst Standard bewusst x-Mal mit t.
 
Zuletzt bearbeitet:
wenn man keine argumente mehr hat, wechselt man das thema....

man ist übrigens nicht
'AMD-fanboy'
nur weil man deinen aussagen etwas entgegen zu setzen hat oder diese schlicht nicht so stehen lassen will.

für mich hat sich dieser thread jetzt erledigt, es kommt eh nix interessantes mehr.....
 
Man ist AMD Fanboy, wenn man berechtigte Argumente einfach übergeht und Nvidia verteufelt. Was du "entgegensetzt" ist überhaupt nicht fundiert. Es ist die Interpretation von jemandem der gar nicht weiß worüber er redet.
 
Zuletzt bearbeitet:
Das AMD von sich aus in Richtung Preis/Leistung einordnet hat ja eben mit dem Markt zu tun bzw Geld. Keiner weiß welche Technologien sie haben sonst könnten sie ja nicht mithalten. Also AMD selber sagt sie möchte nicht die Leistungskrone, und von irgendwas müssen die ja leben, wenn Geld das Übel ist dann gehts immer ums Geld.

Auch in den Firmen unter den Mitarbeiter gibt es Wettbewerb.
 
Zuletzt bearbeitet:
Objektiv gesehen ist AMD leider im Moment nur etwas für Linux/Macuser oder AMD Fanboys. Von der Leistungsfähigkeit (inkl. Featureset), der Hitzeentwicklung, dem OC Potenzial, dem Stromverbrauch umd P/L Verhältnis her würde niemand der sich ausreichend viele Gedanken vor dem Kauf gemacht hat AMD kaufen.

Dem widersprechen zB die RX570 und Vega 56 zu aktuellen Preisen.
 
Was soll an diesen toll sein ? RX570 ist krötenlangsam (selbst die RX580 ist nur ca. halb so schnell wie eine GTX 1080) und die Vega 56 ist ineffizient und auch für alles über FHD mit ordentlichen Frameraten bei neueren Spielen zu langsam. Das Featureset ist wie bei allen AMD GPUs stark beschnitten. Kein Gameworks und kein Raytracing da geht einem bei einigen Spielen schon viel Augenschmauß verloren.

Selbst wenn man das P/L Verhältnis heranzieht. Gucke dir mal an was GTX 1060/1070er aktuell kosten.

@GoldenMesia

AMD würde, wenn sie die Technologie hätten und Nvidia übertrumpfen könnten, sicherlich keine Dumpingpreise machen. Das ist wie mit den FS Monitoren, man bietet eine fragwürdige "Qualität" für wenig Geld an, nur um überhaupt zu verkaufen.
 
Zuletzt bearbeitet:
Was soll an diesen toll sein ?

Sie sind in ihrem Preisbereich die bessere Wahl ggü grüner Neuware.

570 vs 1650, klare Wahl. Es sei denn man hat ne OEM Mühle mit Chinaböller NT.
V56 vs 1660Ti, nicht ganz so klar, aber wenn du von Potenzial redest, bietet die 56 da mehr Luft nach oben.

Raytracing, Scherzkeks. Drei Games gibts damit, oder sinds schon mehr? Davon laufen zwei auch wie Scheiße mit RT On. Gameworks...was gibts da so an Games mit nennenswerten Gameworks Effekten?
 
Zuletzt bearbeitet:
Warum besser ?

Hier mal ein Beispiel GTX 1060 vs. RX570. Vom NV OC Potenzial mal ganz zu schweigen ;).

Edit:

GTX 1650 vs. RX570 (die 1650 ist auch keine Kaufempfehlung, da nur ein paar Euro günstiger wie eine 1060, dafür aber viel langsamer; hast du dir nur rausgesucht um dein AMD Gelaber zu füttern):

GTX 1660 VS RX 570 VS GTX 1650 15 GAMES TESTED - YouTube

GTX 1070 vs. Vega 56:

RX Vega 56 Vs. GTX 1070 | Stock and Overclock | New Games Benchmarks - YouTube

AMD Vega Potenzial => dazu braucht man sich nur mal das OC Verhalten anschauen. Ca. 1600 MHz GPU max. sind einfach nur lachhaft. So genug offtopic. Sich mit AMD Fanboys zu unterhalten hat wie gesagt eh keinen Sinn.
 
Zuletzt bearbeitet:
1060: ab 179,- neu
570: ab 115,- neu

<10% mehr Leistung für 55% mehr Geld. Geile 1060. Bei ner 1060 3GB sinds gleiche Leistung für 30% mehr Geld. Sweet.

Selbst die 1650 kostet min 145,-...und ist dabei >10% langsamer als ne 570.

OC Potenzial hat ne 570 auch easy 20%.

ED: dein zweites Video illustrierts ja sehr schön. 1650 vs 570, da macht ne 1650 nur Sinn, wenn man ein NT mit lachhaft wenig Ausgangsleistung hat.

- - - Updated - - -

AMD Vega Potenzial => dazu braucht man sich nur mal das OC Verhalten anschauen. Einfach nur lachhaft. So genug offtopic. Sich mit AMD Fanboys zu unterhalten hat wie gesagt eh keinen Sinn.

Vega 56 Review: BIOS Mods, Undervoltage, HBM vs. Core OC, Hardware Benchmarks
Was ist daran lachhaft?

PS: gibt auch nen zweiten GN Artikel zur V56 Red Dragon, die mit manuellem Tweaking sogar ne 2070 stock knackt ;)

Aber danke. Dass ne 570 meist die bessere Wahl als 1060/1650 ist, haste ja bereits für mich belegt.
Nennst mich Fanboy, ignorierst dann aber blind die Fakten. Schon recht...
 
Zuletzt bearbeitet:
Nur weil bestimmte Monitor von Seiten nvidia keine Bezeichnung "G-SYNC Compatible" bekommen, bedeutet dies schlussgefolgert nicht dass jene zwangsläufig in den Eigenschaften qualitativ schlechter sind, es ist die Kompatibilität die fehlt.
Qualität einfach mit Kompatibilität ersetzen.
Die adaptive-sync Monitore mit amd Harware funktionieren besser/einwandfrei ist weil diese darauf angepasst wurden, Hardware an Software.
Bei nvidia ist dies - nun gucke ich in die Glaskugel :rolleyes: - nie geschehen. Bei Nvidia hat man nur Monitore angepasst, mit gsync-Hardwaremodul an entsprechende Software.
Würe man die Rollen tauschen würde die amd-pr Abteilung dastehen und das Gleiche erzählen.
Kompatibilität fehlt da große Anpassung nie stattgefunden hat.
Und warum sollte man bei nvidia da nun auch großartig anpassen.
Weiter wird da auch nichts kommen, da man ja weiterhin Begründungen braucht entsprechende gsync-Monitore and den Käufer zu bringen und die eigenen Produkte gut darstehen zu lassen.

Wenn nvidias Desktopmarktanteil schrumpft - ich vermute mal dies wird er, da man bei amd anscheinend langsam wieder anzieht und von Seiten intel bald im gpu-Sektor auch was erscheint - wird es auch immer weniger solcher Meldungen von Seiten nvidia zu hören geben.
Kein Grund für fanboy-Gehabe:asthanos:
 
Die adaptive-sync Monitore mit amd Harware funktionieren besser/einwandfrei ist weil diese darauf angepasst wurden, Hardware an Software.

Das stimmt nicht. Gibt etliche FS Monitore, insbesondere VA Modelle, die auch mit AMD GPU's rumspacken und schön flackern.
 
Hier nochmal klarer formuliert, da du, lieber asus1889, mich natürlich übereilt als Fanboy abstempelst, statt die Fakten anzuschauen:

Warum besser ?

Hier mal ein Beispiel GTX 1060 vs. RX570. Vom NV OC Potenzial mal ganz zu schweigen ;).

Edit:

GTX 1650 vs. RX570 (die 1650 ist auch keine Kaufempfehlung, da nur ein paar Euro günstiger wie eine 1060, dafür aber viel langsamer; hast du dir nur rausgesucht um dein AMD Gelaber zu füttern):

GTX 1660 VS RX 570 VS GTX 1650 15 GAMES TESTED - YouTube

Die 1650 nahm ich, weil die 1060 offiziell EOL ist. Aber deine zwei Videos hier zeigen doch klar auf, dass weder 1060 noch 1650 ein sinnvoller Kauf vs 570 sind. 1060 kostet 30% (3GB) bis 50% (6GB) mehr, liefert dafür aber nur gleiche (3GB) oder 10% (6GB) mehr Leistung. Wo siehst du da jetzt die 1060 als besseren Kauf? Zahlst du gerne überproportional viel für kleine Leistungssteigerung?

Und wieso lobst du das NV OC Potenzial, ignorierst aber das AMD OC Potenzial? Ne 1060 macht in deinem Video hier ~1924MHz Boost. Manuelles OC gehen 1060er im Schnitt auf was, 2000-2100MHz? Speicher geht auf 9-10Gbps oder so. Macht also knappe 10% mehr durch OC. Ne RX570 läuft hier mit ~1220MHz, OC geht im Schnitt auf 1450MHz, Speicher auf knappe 9Gbps. Macht knappe 20% mehr durch OC. Aber klar, das NV Potenzial...


GTX 1070 vs. Vega 56:

RX Vega 56 Vs. GTX 1070 | Stock and Overclock | New Games Benchmarks - YouTube

AMD Vega Potenzial => dazu braucht man sich nur mal das OC Verhalten anschauen. Einfach nur lachhaft. So genug offtopic. Sich mit AMD Fanboys zu unterhalten hat wie gesagt eh keinen Sinn.

Zum V56 Potenzial hab ich dir ja bereits was verlinkt. Knappe 15% sind ohne großen Aufwand drin. Mit ordentlich Tweaking kommt man an ne 2070 Ref ran.


Und wenn du vorsichtig lesen würdest, fällt dir auch auf, dass ich abseits dieser zwei AMD Modelle keine weiteren genannt habe. Was ein schlechter AMD Fanboy bin ich denn?
 
Zuletzt bearbeitet:
Oh jetzt haben wir doch ein Graka War.
Hast toll gemacht asus1889 :bigok:

Naja, gerade Destiny 2 @max out 1440p hat Spaß gemacht mit alltime over 100 FPS.
BFV mit over 100 FPS gestern auch.
Und Division 2 mit bissel Regler Schubsen (und nein nichts, niedrig ;) ) machte mir mit über 100 FPS auch Spaß.

Vorgestern Abend machte A Plague Tale Innocence am TV mit Controller @ maxout 60 FPS auch echt viel laune :)

Die Werte hätte ich mit manch 1070er nicht... fürs gleiche Geld.

Meine Frau hat mit ihrer RX 480 @580 auch ihre Freude an Konstanten 60 FPS mit ansprechender Optik in genannten Spielen.

Ist doch toll wenn man mit Schrott so viel Spaß haben kann :bigok:

Werde den Thread einfach deabonnieren.
Hätte spaß gemacht hier, man hätte sich sogar Sachlich und neutral unterhalten können.... aber dann lief asus1889 wieder mal Amok weil nicht jeder seine Meinung war ...wie immer also... böses Internet, böse Meinungsfreiheit!
 
Ja, asus1889, es stimmt nicht, stimmt gleichzeitig aber wieder doch; hängt davon ab worauf man sich bezieht.
Erwähnen wollte ich noch das gsync Monitore mit entsprechender nvidia Grafikkarte auch ab und zu Flackern etc. schreiben die bei nvidia auch im driver manual :d
Von Seiten nvidia spricht man von 503 Monitoren; bei geizhals sehe ich 440.
Sie ziehen also auch Monitore aus dem asiatischen Raum etc. heran, die im westlichen Raum gar nicht vetrieben werden.
Natürlich "scheitern" da etliche Monitore im 100 - 200 € Preisbereich, da billig, an den Qualitäts-/Kompatibilitäts bei nvidia.
 
Die adaptive-sync Monitore mit amd Harware funktionieren besser/einwandfrei ist weil diese darauf angepasst wurden, Hardware an Software.
Die Frage ist aber warum das so ist !? So weit mir bekannt ist, greift AMD einfach auf den Standard VESA Adaptive Sync zu und macht ihn neben Display Port auch für HDMI kompatibel.
Nvidia sollte dazu auch in der Lage sein und es dürfte keine Unterschiede geben. Es sei denn auch für Adaptive Sync kommt das G-Sync Modul zum Einsatz und es ist technisch limitiert.
Falls nicht dann könnte Nvidia auch Geld vom Monitor Hersteller für die Zertifizierung verlangen und wenn nicht bezahlt wird dann absichtlich per Treiber eine Inkompatibilität erzeugen.
 
Warum wird sich über das Label "G-Sync" so aufgeplustert?

Wer Adaptive Sync nutzen will, kann es selber aktivieren. Das Label G-Sync belegt nur, dass die Qualität höher ist, als bei anderen Monitoren.
Das bedeutet aber nicht, dass Monitore ohne das Label nicht nutzbar wären.
Auch bevor NVidia G-Sync geöffnet hat, gab es beschissene FreeSync Monitore. Jetzt hat man wenigstens eine Firma, die nen Qualitätssiegel drauf klebt. Kann jeder selber entscheiden, ob er lieber 50 Euro spart, oder auf Nummer sicher geht.

Überheblich oder unfair ist da auch nichts dran.
Wenn der ADAC morgen einen Standard für Autos die 250 fahren anlegt, dann ändern sich die Autos dadurch auch nicht. Man weiß als Käufer nur vorher, ob das Auto so fix geht.
Nicht mehr, nicht weniger, macht NVIdia doch mit diesem G-Sync kompatibel - Label jetzt. Sie setzen gewisse Grenzen und testen stur, ob sie eingehalten werden.
 
Ist es aber nicht seltsam, dass FreeSync Monitore die nicht von Nvidia als G-Sync zertifiziert sind mit AMD Grafikkarten problemlos laufen obwohl Adaptive Sync von der VESA ins Leben gerufen wurde.
Hat das wirklich technische Ursachen und Nvidia kann es nicht besser machen oder versucht man den Markt absichtlich zu beeinflussen um doch noch finanziellen Profit aus der Situation zu schlagen ?
 
@0ssi: Kannst du deine wilden in den Raum gestellten Behauptungen und Unterstellungen auch irgendwie belegen oder wenigstens Indizien dafür liefern? Oder ist das bei dir nur so eine "nVidia bad" Reaktion?

Wenn nVidia hier "Einfluss" nimmt, dann nur dahin, das Monitore mehr Qualität beim Adaptive Sync bekommen (und der Einfluss steht und Fällt mit dem Kunden, der Wert auf das Label legt).
 
Nicht jede FreeSync Implementation ist sauber umgesetzt worden, sondern gerne auf "billig".
Es funktioniert auch nicht jeder FS Screen mit AMD.

NVidia legt halt einfach nur höhere Standards fest als das Stock Adaptive Sync.
Vor allem Standards, die mit dem eigentlichen Sync nicht mal was zu tun haben. G-Sync Compatibel ist weit mehr als nur Sync. Es betrifft auch die Qualität des Panels und dessen Funktionsumfang.

Warum manche NVidia GPUs bei FS Probleme machen, nicht aber bei AMD, kann viele Gründe haben.
Ohne jetzt irgendwelche wilden Verschwörungstheorien in den Raum zu werfen, lieber mal eine eher offensichtliche Begründung:
Bisher war FreeSync nun mal eine auf AMD zugeschnittene Technologie. Es implementiert nicht 1:1 und stur AdaptiveSync, bzw. musste das nie. Es musste mit AMD funktionieren.
Ich kann mir also durchaus vorstellen, dass die Monitormacher nicht versucht haben stur gegen den Vesa Adaptive Sync Standard zu testen, sondern sie haben halt ne AMD GPU eingebaut und geschaut, ob es läuft.
AMD hat dann evtl. in deren GPUs andere Toleranzen für Feature X, wobei NVidia bei Feature X evtl. keine so große Toleranz hat. Da aber nur mit AMD Hardware getestet wurde, ist das natürlich nicht aufgefallen.

Selbstverständlich ist auch das hier eine reine Vermutung, aber immerhin eine bei der keine der drei Seiten direkt eine böse Absicht unterstellt werden muss.
Ich erwarte, dass in Zukunft solche Fälle nicht mehr vorkommen, da jeder Monitorhersteller einfach die GPUs von beiden Teams testet und entsprechend anpasst.
Gewinnen werden alle Kunden, da die Qualität der FreeSync Monitore ohne Frage steigen wird. Selbst wenn sie nicht auf G-Sync Kompatibel ausgelegt sind (viele werden das allerdings sein!), wird wenigstens die AdaptiveSyn Umsetzung sauberer sein.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh