NVIDIA: G-Sync durch Hack auf allen DP1.2-Displays möglich?!

c3

Enthusiast
Thread Starter
Mitglied seit
03.10.2002
Beiträge
5.016
Ort
DE
Servus Community,

einem findigen Programmierer ist es offenbar gelungen, dass G-Sync auch in Verbindung mit Monitoren ohne G-Sync-Modul funktioniert. Laut dem Entwickler ist das G-Sync-Modul lediglich zu DRM-Zwecken vorhanden. Sprich das Modul meldet sich im Treiber an und schaltet infolgedessen G-Sync frei ohne einen direkten technischen Zweck zu erfüllen. Die Technik hinter G-Sync soll dabei dem VESA Adaptive-Sync-Verfahren entsprechen, das auch AMD für die eigene Freesync-Technologie nutzt. Bei Gamenab ist es offenbar gelungen das DRM abzuschalten und G-Sync damit für alle Monitore mit Displayport 1.2-Standard freizuschalten.
Ohne Erfahrungsberichte und intensive Tests ist es natürlich erstmal mit einer gehörigen Prise Salz zur Kenntnis zu nehmen.

Hier der Link zum Artikel

Hier gibt es den freigeschalteten Forceware 374.25-Treiber


Ich habe zZt. leider keine NVIDIA-Grafikkarte und kann infolgedessen leider nicht nachprüfen. Denke aber mal, dass hier genug Leute mit NV-GPU und Displayport 1.2-Monitor unterwegs sind ;)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich hatte bei 3DCenter vorhin einen Thread zu dem Thema aufgemacht. Habe dann aber selber ein wenig gesucht und es scheint wirklich zu gut um wahr zu sein zu klingen:

Nvidia G-Sync FREE on DP 1.2 Monitors - Page 2

Originally Posted by malventano View Post

We started looking into this over at PCPer. There are some glaring issues with this guys thinking / results:

He claims the Altera FPGA was chosen because of its 'security features', but it's really nothing more than a SHA-1 engine that could be enabled (an FPGA is meant to be a programmable device with all sorts of uses, and some of those uses might include wanting hardware SHA-1 processing). GSYNC doesn't SHA-1 encrypt the bitstream and these GSYNC FPGA's are very likely not touching that optional portion of the chip.
His first 'proof' video was shot with a game running in a window. G-SYNC / adaptive sync doesn't work that way (full screen only).
Aside from the fact that it is very hard to actually show differences between VSYNC-on and GSYNC when pointing a camera at a PC display, closely examining his second video shows the same type of VSYNC judder present when he selects VSYNC or GSYNC.
Comments are disabled for both of his videos.


It looks like this guy just tweaked the drivers to let him enable GSYNC in software, regardless of the connected display, but it doesn't seem to actually be doing anything different in the end.
 
Und ich dachte ein Monitor muss irgend eine bestimmte Art von Scaler haben, damit das funktioniert. NUR "DP" ..... isses glaub ich einfach nicht. Eventuell sieht deshalb niemand nen Unterschied :-)
 
Schade habe keine Displayport 1.2 hier. Hat jemand das getestet und Funktioniert das auch?
Wenn ja wäre das wirklich Super. Wo ich geschrieben habe das ich null Unterschied merke und Trotzdem mit Gysnc Geruckelt hat hat man mich ausgelacht. Zum Glück habe ich den ASUS Monitor nicht behalten. Dafür will ASUS 700€ wegen Gysnc und 2560x1440 Auflösung :asthanos:
Zum Glück gibt es DSR/VSR

NV wird mir Tag zu Tag Unsympathisch Pleite Geier Verein. Wenn ich weiter Lese, NV Exzellente Hardware muss ich Kotzen anfangen.
AMD ist auch nicht besser aber was NV macht ist Exzellente Kunden verasche.

Ich werde wirklich ein paar Jahre NV vermeiden Denke ich. Wahnsinn was alles in der kurze Zeit passiert ist.
 
Zuletzt bearbeitet:
Hört das denn nie auf mit diesen Schlagzeilen bei NVIDIA ?
 
Lasst uns das lieber erstmal nachprüfen bevor wir auf den Bashingzug (zurecht) aufspringen!
Mein neuer Moni kann wohl DP 1.2, aber "leider" keine NV Graka hier...
 
Hört das denn nie auf mit diesen Schlagzeilen bei NVIDIA ?

Anscheinend gutes Jahr für AMD :bigok:

- - - Updated - - -

Lasst uns das lieber erstmal nachprüfen bevor wir auf den Bashingzug (zurecht) aufspringen!
Mein neuer Moni kann wohl DP 1.2, aber "leider" keine NV Graka hier...

Du hast auch recht. Aber warte mal bis die ersten sich Melden und Sagen das es geht.
Dann hole ich den Gysnc Thread her und lass den Experten wieder mal vor.

Wartet ein zwei Monate dann patch NV bestimmt das weg. Antwort Marketing Kommunikation Fehler :lol:
 
Zuletzt bearbeitet:
Und ich dachte ein Monitor muss irgend eine bestimmte Art von Scaler haben, damit das funktioniert. NUR "DP" ..... isses glaub ich einfach nicht.
Wenn ich die Specs halbwegs richtig verstanden habe dann ist für DP1.2 ein Zusatzmodul notwendig, für DP1.2a nicht mehr (aber nicht alle Funktionen nutzbar) und mit DP1.3 kann dann die Grafikkarte komplett über den Treiber die Refreshrate, Auflösung (usw) des Monitors steuern -> Freesync wird mit DP1.3 komplett standardisiert und frei werden.
 
Ich will in den Tagen nun wirklich kein Fürsprecher für NVIDIA sein, aber an dieser Stelle sollten wir klarstellen, dass es sich vermutlich um einen Fake handelt. Zwar lässt sich G-Sync per Software aktivieren, es funktioniert nur nicht, egal was die Einstellungen sagen.

Noch einmal der dazugehörige Beitrag: Nvidia G-Sync FREE on DP 1.2 Monitors - Page 2

  • He claims the Altera FPGA was chosen because of its 'security features', but it's really nothing more than a SHA-1 engine that could be enabled (an FPGA is meant to be a programmable device with all sorts of uses, and some of those uses might include wanting hardware SHA-1 processing). GSYNC doesn't SHA-1 encrypt the bitstream and these GSYNC FPGA's are very likely not touching that optional portion of the chip.
  • His first 'proof' video was shot with a game running in a window. G-SYNC / adaptive sync doesn't work that way (full screen only).
  • Aside from the fact that it is very hard to actually show differences between VSYNC-on and GSYNC when pointing a camera at a PC display, closely examining his second video shows the same type of VSYNC judder present when he selects VSYNC or GSYNC.
  • Comments are disabled for both of his videos.

Bitte keine Hexenjagd veranstalten, sondern sich die "Fakten" erst einmal genau anschauen.
 
Der Artikel hat für mich die gleiche Glaubwürdigkeit wie der Schwachsinn den religiöse Spinner und Feministen von sich geben. Nicht zuletzt weil die Kommantare deaktiviert sind, aber auch weil der Autor durch die Zusammenhangslosigkeit seines Gesabbels offenbart, dass er von der Materie eigentlich gar keine Ahnung hat. Auch wenn er immer wieder mich Fachwörtern um sich wirft um technisch versiert und wissenschaftlich zu klingen.

Einfach nur peinlich...
 
Der Artikel hat für mich die gleiche Glaubwürdigkeit wie der Schwachsinn den religiöse Spinner und Feministen von sich geben. Nicht zuletzt weil die Kommantare deaktiviert sind, aber auch weil der Autor durch die Zusammenhangslosigkeit seines Gesabbels offenbart, dass er von der Materie eigentlich gar keine Ahnung hat. Auch wenn er immer wieder mich Fachwörtern um sich wirft um technisch versiert und wissenschaftlich zu klingen.

Einfach nur peinlich...

1. Etwas krasser Vergleich
2. Evtl. auch mal drauf achten, dass vor allem bei nicht gut englischsprechenden Menschen oft exakt der Eindruck entsteht, dass man keine Ahnung hat und wirre Texte rauskommen. Das kenne ich zB reihenweise aus der Modderszene zu verschiedenen Spielen und dennoch schaffen es die Leute oft, was Durchdachtes und Vernünftiges zu präsentieren.
3. Abgeschaltete youtube-Kommentare halte ich für prinzipiell gut.

Ansonsten bleibt abzuwarten, ob sich ein HWL-User (oder besser: mehrere) einfindet, der das Ganze mal testen und seinen Erfahrungsbericht hier reinstellen kann. Dann brauch man nicht lang hin- und her diskutieren, ob das nun ein Fake ist oder nicht.

Und bis dahin sollte man sich mit BEIDEN Extremen der Meinungsäußerung ("Nvidia verarscht weiter" vs. "Alles Fake und weitere Panikmache") ganz einfach zurückhalten und diese eigenen Annahmen vor allem nicht als Fakten für andere User darstellen.
 
Warum hältst du Zensur/die Einschränkung der Redefreiheit prinzipiell für gut?

Natürlich kann man testen, aber eigentlich ist das eigene Video schon Gegenbeweis genug.
 
Warum hältst du Zensur/die Einschränkung der Redefreiheit prinzipiell für gut?
Er sagte das bezogen auf Youtube, generell. Ich teile da seine Meinung.
Die Leute legen einfach keinerlei Manieren an den Tag und nutzen die Kommentarsektion, um sich gegenseitig anonym zu beleidigen.
Ich sehe da auch keine Notwendigkeit.

BTT:
Falls sich die Aussage als wahr heraus stellt, wäre das schon ein extrem starkes Stück.
Soviel Dreistigkeit traue ich nicht mal Nvidia zu.
Mal abwarten... ^^
 
Warum hältst du Zensur/die Einschränkung der Redefreiheit prinzipiell für gut?

Zensur wäre es nur, wenn der Benutzer/Ersteller bewusst eine bestimmte Gruppe von Menschen daran hindern würde, ihre Meinung kundzutun bzw. sich ggf. im Nachhinein hinsetzen würde, um negative Kommentare zu löschen (so wie es zum Beispiel derzeit bei der anderen "Nvidia-Problematik" und den Umtausch- bzw. Rückgabeversuchen bei mindfactory der Fall ist, wo negative Berwertungen für die GTX 970 ganz einfach kommentarlos entfernt werden).

So "verschafft" man sich einfach die Zeit, in Ruhe zu testen, bevor eine Welle der gegenseitigen Empörung und Anfeindung zwischen den verschiedenen Lagern in dieser Diskussion auftritt und konzentriert sich darauf, was einem die testenden Benutzer im "eigenen" Forum zu berichten haben.

Natürlich kann man testen, aber eigentlich ist das eigene Video schon Gegenbeweis genug.

Aufgrund der Umstände warte ich dennoch auf einen Erfahrungsbericht aus dem HWL. Auch wenn man sich hier nicht "kennt", so erscheint es mir dennoch so, als wären hier mehr User am Werk, die sich tatsächlich mit der Materie befassen und gut genug auskennen, um den vorhandenen oder nicht vorhandenen Effekt nach einem Treibermod zu erkennen und erklären zu können.

- - - Updated - - -

G-Sync Funktioniert mit meinem Setup! Gerade getestet :)

Du hast laut Systemprofil ja auch einen G-Sync Monitor, oder nicht???
 
Dann hast du ja einiges zum Thema beigetragen ...
 
Doch, es funktioniert nur nicht und wenn hier jemand schreibt es würde gehen, würden wir das gerne verifizieren.
 
Ja, die G-Sync-Option taucht zwar in den NVIDIA-Systemeinstellungen auf und lässt sich auch aktivieren, nur funktioniert es letztendlich nicht, sondern man hat das ganz normale Verhalten.
 
G-sync (und sicher auch freesync) sind ja nicht so die mega auffälligen Effekte die man ohne Vorwissen sicher erkennt (Oder?).
Glaube wir brauchen daher jemanden der tatsächlich mal auf einen garantiert funktionierenden Moni mit Gsync gespielt hat um das zu verifizieren.

Insgesamt halte ich es aber auch für nen Fake... vorallem wenn schon DP 1.2 alleine schon die Hardwarevorraussetzungen erfüllt, wieso brauchts dann für Freesync auch erst einen DP 1.2a Standard?
 
Ja, die G-Sync-Option taucht zwar in den NVIDIA-Systemeinstellungen auf und lässt sich auch aktivieren, nur funktioniert es letztendlich nicht, sondern man hat das ganz normale Verhalten.

Woran hast du das festgemacht bzw. was hast du zum Testen herangezogen?
 
Ich hatte bereits den ASUS ROG Swift PG278Q und den Acer Predator XB280HK hier, beide mit G-Sync. Ich kenne den positiven Effekt also und kann das recht gut einschätzen.

Für den Test nun habe ich den Philips 288P6LJEB und eine GeForce GTX 980 verwendet. Um den G-Sync-Effekt besser erkennen zu können, habe ich die Pendel-Techdemo verwendet. G-Sync funktioniert hier definitiv nicht.
 
In einem update Post schreibt der Autor, dass sein Treiber nicht mit allen Monitoren harmoniert, und er an einer neuen Version arbeitet. Als nächstes kommt dann ein Treiber Hack, durch den die letzten 500Mb der GTX 970 mit voller Geschwindigkeit angesprochen werden können...
 
Schade, hab ein IIYAMA Prolite XQ2779QS, aber leider nur ne 290x, super wenn es das auch für FreeSync geben würde also diesen hack
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh