Nachteile von FreeSync LFC gegenüber G-Sync

Brainorg

A glorious mess!
Thread Starter
Mitglied seit
24.03.2008
Beiträge
4.834
Ort
Heidelberg
Sehr interessanter Artikel:

Verglichen werden hier die beiden Monitore: FS2735 LFC (Freesync) und PG279Q (GSync)

So viel vorweg: Jeder Monitor, der VRR unterstützt, verbessert das Spielerlebnis. Unabhängig von der unterstützten Bildwiederholrate gilt dies selbst für eingeschränkte Displays mit 40 Hz bis 60 Hz. Ebenso gilt aber: Je größer der unterstützte Bereich, desto besser. Deutlich abfedern können dies Frame Doubling beziehungsweise LFC. Dann spielt das wichtige untere Limit eine deutlich kleinere Rolle. Allerdings muss der Monitor LFC auch unterstützen – dies entfällt bei G-Sync, denn dort ist Frame Doubling immer eine Voraussetzung. Da der FS2735 LFC unterstützt, gehört der Eizo-Monitor zu den mit am besten funktionierenden FreeSync-Monitoren.

Arbeiten die Displays innerhalb der unterstützten Bildwiederholfrequenzen, gibt es bezüglich des Spielgefühls keinerlei Unterschiede. FreeSync und G-Sync arbeiten absolut gleich gut. In der benutzten Monitorkonfiguration gilt dies entsprechend in den Bereichen zwischen 90 bis hinab zu etwa 36 beziehungsweise 37 FPS bei der niedrigen FreeSync-Range oder von 144 bis 57 beziehungsweise 58 FPS in der hohen Range – ab dann beginnt auf dem Eizo-Monitor LFC an zu arbeiten, sodass die Bildwiederholfrequenz verdoppelt wird. Dabei ist es egal, ob die Frameraten am oberen oder am unteren Ende der VRR-Reichweite liegen, die AMD- und die Nvidia-Technik schenken sich nichts.

AMD macht mit LFC einen großen Schritt nach vorne

Spannender wird es, wenn die notwendige Framerate für die untere Bildwiederholfrequenz nicht mehr gehalten werden kann. Dabei muss man grundsätzlich zwischen der hohen und der niedrigen FreeSync-Einstellung beim Eizo Foris FS2735 unterscheiden. Den Beginn macht die FreeSync-Reichweite zwischen 35 und 90 Hz.
In mehreren Testspielen wie zum Beispiel The Talos Principle, Star Wars Battlefront und Tomb Raider zeigt sich, dass sich mit Hilfe von VRR 40 Bilder pro Sekunde noch als gut spielbar empfinden lassen. Eine höhere Framerate verbessert zwar das Spielgefühl teils noch einmal deutlich, doch auch mit 40 FPS gibt es kaum Einbußen. Fallen die Frameraten weiter, wird es dann auch für VRR schwer, die Situation zu retten.
38 FPS sind gerade noch spielbar, darunter werden die Einbußen dann aber schon groß. Bei 35 FPS ruckelt es und 30 FPS werden schnell unspielbar, sodass dann auch FreeSync und G-Sync nicht mehr helfen. Die Techniken verbessern zwar auch bei niedrigen Frameraten das Spielgefühl, können aber keine Wunder vollbringen. Allerdings sorgen sie dafür, dass es keinerlei Tearing mehr gibt – ein deutlicher Pluspunkt.

Mit Hilfe des OSD beim FS2735 lässt sich sofort erkennen, wenn LFC genutzt wird. Die gute Nachricht: Der Übergang zwischen dem „normalen Modus“ und dem LFC-Betrieb lässt sich nicht erkennen – unabhängig vom Spiel. Dasselbe gilt für G-Sync und den PG279Q. Die untere Bildwiederholfrequenz des Asus PG279Q ist allerdings wie bereits erwähnt unbekannt.

Warum G-Sync aber immer noch besser ist, als FreeSync

Etwas anders gestaltet sich das Ergebnis, wenn man den Eizo-Monitor in den hohen FreeSync-Bereich schaltet. Denn dann ist die Anforderung an LFC deutlich höher, da die Frame-Doubling-Technik auch schon in FPS-Bereichen genutzt werden muss, die eigentlich flüssig laufen. Und es zeigt sich, dass FreeSync beim Umschalten zwischen dem normalen und dem LFC-Betrieb nicht ganz rund läuft – manchmal zumindest.

Das Rätselspiel The Talos Principle beweist, dass LFC nicht generell mit Schwierigkeiten zu kämpfen hat. Selbst der Extremfall, ein andauernder Wechsel zwischen LFC und dem Normalbetrieb, bleibt absolut unspürbar. Damit läuft der Titel auf dem Eizo Foris FS2735 mit FreeSync im kompletten FPS-Bereich bis hinauf zu 144 FPS genauso flüssig wie mit G-Sync auf dem Asus ROG Swift PG279Q. Allerdings gibt es auch Spiele, die ein wenig mehr Ärger machen.

Die meisten Titel verhalten sich nämlich wie Dragon Age: Inqusition. Es ist ein Übergang spürbar, wenn man explizit darauf achtet. So machen die meisten Spiele dadurch auf sich aufmerksam, dass beim Wechsel zwischen LFC und dem Normalbetrieb ein kurzes Zucken auftritt. Zudem ist das Spielgefühl im LFC-Bereich nicht ganz so flüssig wie bei normaler FreeSync-Nutzung. Der Unterschied ist zwar gering, aber vorhanden – jedoch immer noch besser als ohne VRR.

Die dritte Kategorie an Spielen, die allergisch auf LFC reagieren, ist selten, aber vorhanden. Tomb Raider beispielsweise scheint auf LFC teils recht allergisch zu reagieren. Im niedrigen FreeSync-Bereich fällt dies auf dem Eizo-Monitor nicht auf, da das Spiel dann ohnehin nicht gut läuft. Im hohen Bereich gibt es in einigen Szenen aber ein recht großes Problem, so dass das Spiel spürbar anfängt zu ruckeln – selbst mit 50 FPS. Das geschieht aber wiederum nicht in allen, sondern nur in einigen Sequenzen. Nvidias Frame-Doubling-Verfahren bei G-Sync hat diese Probleme bei hohen Bildwiederholfrequenzen nicht, da der Monitor einen durchgehenden Frequenzbereich unterstützt und so nicht wie bei FreeSync eine weitere Grenze für Frame Doubling schafft.


Quelle: CB
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
"38 FPS sind gerade noch spielbar, darunter werden die Einbußen dann aber schon groß. Bei 35 FPS ruckelt es und 30 FPS werden schnell unspielbar, sodass dann auch FreeSync und G-Sync nicht mehr helfen."

Schon witzig. Früher waren 30 fps bei Quake 2 super, an die 40 fps der absolute Oberhammer und das Spielerlebnis einwandfrei. Heutzutage sind 38 fps gerade noch spielbar, obwohl freeSync und G-Sync die Situation positiv beeinflussen.

Edit: Auch ich freue mich natürlich über hohe Frames, bin aber trotzdem erstaunt, wie sich die Wahrnehmung anscheinend geändert hat.
 
Zuletzt bearbeitet:
Ich muss sagen das ich bei mir persönlich, je nach Spiel natürlich, die spielbar/unspielbargrenze bei ~35FPS bewegt.
Das ganze auch nur dank Gsync.
 
Kurze Frage, läuft ein Spiel mit 60HZ bei 50 FPS, aners als mit einem 144hz Monitor mit GSYNC ON wenn man aber nur 50 FPS hat?!

Bin am überlegen ob ich mir den neuen DELL mit 144Hz und GSYNC kaufen soll, habe aber nur eine GTX 970 FTW und der Monitor hat 1440P ._.
 
50FPS sehen auf einem 60Hz Monitor genau so aus wie auf einem 144Hz Monitor.
Durch Gsync/Freesync wird bei beiden das Tearing vermieden.
 
Warum G-Sync immer noch besser ist, als FreeSync...
Welch reißerischer Titel. Gerade wegen der hohen Grenze von 58 fps würde ich gar von einem Eizo FS2735 spezifischen "Problem" reden.

Edit: Auch ich freue mich natürlich über hohe Frames, bin aber trotzdem erstaunt, wie sich die Wahrnehmung anscheinend geändert hat.
Alles eine Sache der Gewöhnung. Gerade bei schnellen Spielen wie Battlefront empfinde ich sogar 60fps zu wenig.

Sofern jemand offen für die Technik ist, kann man dies sogar schnell nachprüfen. Lass ihn für 1-2 Stunden mit 120hz/144hz und entsprechenden Frames ein paar Runden Spielen und stelle den Monitor ohne das er es bemerkt auf 60hz zurück. Die Person wird in der Regel den Unterschied sofort bemerken.
 
Naja, sorry Brainorg,

Ich habe leider andere Erfahrungen machen müssen.

Wenn man diese Sync-Features testen oder vergleichen will, dann sollte man das auch mal nur mit identischen Vorgaben, ergo gleichen Hz-zahlen machen,
denn ich sehe allein bei 120Hz+ schon den bemerkenswertesten Unterschied zu einem 60Hz Gerät,
gerade auch bei 30-58 Fps & ungeachtet des Motion+ im Desktop, Film usw..

Ich habe mir den o.g. Asus geholt, weil ich einen „Gamer“ mit 27“ IPS / 1440P,
wie eben dem tollen GSYNC haben wollte, da ich viel Wert auf smoothe Fps / Bewegungen lege.


Größter Flop dafür ist nun genau dieses Gsync, für mich ein in der Praxis reines Showfeature, was lediglich im Vergleich zu Vsync-off Settings begeistert, weil hier eben wirksam das sehr häufige Tearing verschwindet,
oder Gsync eben lediglich durch die höheren Hz jedes 60Hz Panel -scheinbbar- übertrumpft.

Zwar habe ich in meiner recht ansehnlichen Gamesammlung bei meinem Win 10 Kompatibilitätscheck auch 2 Titel (mit alter und neuer UT-Gameengine) gefunden,
welche tatsächlich mal allein von Gsync profitieren (60Hz),
jedoch allein die hohen Hz mit Vsync on zeigen auch dort eine nahezu identische Darstellung.

Dazu wirkt das 120Hz+ Motion-Plus aber zuverlässig bei einer recht großen Masse an Spielen deutlich aufwertend, wo Gsync allein (max60Hz vs 60Hz) rein gar nichts bewirkt.
Ebenso sehe ich auch keine nennenswerten Unterschiede (144Hz) zwischen Vsync-on und Gsync (30-60Fps).

Auch bei hohen Fps-schwankungen (120-77) empfinde ich ein fest eingestelltes Framelimit immer noch angenehmer, als den Gsync-Versuch diese Schwankungen nicht spürbar zu machen.

(Inputlag generell mal außen vor, den konnte ich früher bei nachweislich „bedingt spieletauglichen“ 40ms vs „0“ schon nicht aussortieren).


Daher haben mich allein die 120/144Hz völlig entschädigt und gehören für mich seit her zum Daddel-mustHave.

Eine große Auswahl bei den 27“ IPS 120Hz+ gibt es ja nun auch nicht gerade, Bild, Optik Bedienung sind klasse und gefallen mir besser als beim Acer.
Ebenso habe ich schon seit 2004 700-800 € für kleinere, aber gute sIPS Panels ausgegeben, daher gehen die 850€ vom Preis in Ordnung und mich begeistert der PG279Q,
auch mit einem derzeit für mich enttäuschendem Gsync, wenn es um die Darstellung geht, denn bei Nvidia hatte ich nie relevante Probleme mit Vsync-on.


Übrigens war ich ebenso ernüchtert, als ich bei den Books das alte Asus G751 gegen das G751 mit Gsync vergleichen konnte.
Der Hauptunterschied liegt wohl daran, dass die alten Panels/Chips nicht zuverlässig auf 75Hz laufen und genau den 15Hz „Vorteil“ kann man nebeneinanderstehend 1-2-mal herausfiltern.

Trotzdem ruckelte es bei Beiden, je nach Spiel, eher identisch unter 60Fps und Punkt. Völlig egal ob nun 60 oder 53 Ruckler pro Minute.
Auch dort letztlich Gsync eher überflüssig und absolut kein Grund, nur deswegen auf ein Acer Predator oder Alienware (beide ohne Gsync) zu verzichten!!!
(allerdings sind die „mit Gsync“ Books damals auch nicht teurer geworden ;) ).
 
Zuletzt bearbeitet:
"38 FPS sind gerade noch spielbar, darunter werden die Einbußen dann aber schon groß. Bei 35 FPS ruckelt es und 30 FPS werden schnell unspielbar, sodass dann auch FreeSync und G-Sync nicht mehr helfen."

Schon witzig. Früher waren 30 fps bei Quake 2 super, an die 40 fps der absolute Oberhammer und das Spielerlebnis einwandfrei. Heutzutage sind 38 fps gerade noch spielbar, obwohl freeSync und G-Sync die Situation positiv beeinflussen.

Edit: Auch ich freue mich natürlich über hohe Frames, bin aber trotzdem erstaunt, wie sich die Wahrnehmung anscheinend geändert hat.

weils leute gibt die ständig meckern, für die sind sogar 1000FPS schon zu wenig.

Redakteuere versuchen wahrscheinlich einen Mittelweg zu finden.
 
Zuletzt bearbeitet:
Computerbase Artikel der meint Gsync (Nvidia) ist besser als Freesync (AMD) welch ein Wunder. Ohne den Artikel lesen zumüssen und ohne tatsächlich zuwissen welches besser ist kann man getrost sagen, Computerbase ist für einen objektiven Vergleich zwischen Nvidia und AMD nicht brauchbar, nichtmal ansatzweise.
 
50FPS sehen auf einem 60Hz Monitor genau so aus wie auf einem 144Hz Monitor.

falsch.
50fps sehen auf einem 144hz monitor flüssiger aus da durch 144hz der monitor mer als doppelt so schnell signale der grafikkarte abfragen/darstellen kann und somit schon von sich aus tearing minimiert


und nur noch so neben bei
spielbar oder unspoielbar empfindet jeder anders für mich ist unterhalb von 50fps das spiel unspielbar und ab 60 gut spielbar
ich sehe auch den unterschied 60fps zu 100fps
 
Zuletzt bearbeitet:
Welch reißerischer Titel. Gerade wegen der hohen Grenze von 58 fps würde ich gar von einem Eizo FS2735 spezifischen "Problem" reden.

War wirklich etwas reißerisch. Habe ihn mal angepasst :)

Computerbase Artikel der meint Gsync (Nvidia) ist besser als Freesync (AMD) welch ein Wunder. Ohne den Artikel lesen zumüssen und ohne tatsächlich zuwissen welches besser ist kann man getrost sagen, Computerbase ist für einen objektiven Vergleich zwischen Nvidia und AMD nicht brauchbar, nichtmal ansatzweise.

IdR. gebe ich auch nicht soviel auf gewisse Seiten, aber die technischen Betrachtungen in diesem Artikel sind durchaus interessant und lesenswert.

falsch.
50fps sehen auf einem 144hz monitor flüssiger aus da durch 144hz der monitor mer als doppelt so schnell signale der grafikkarte abfragen/darstellen kann und somit schon von sich aus tearing minimiert

Zumindest bei einem 100Hz Monitor konnte ich persönliche, keinen Unterschied wahrnehmen.


und nur noch so neben bei
spielbar oder unspoielbar empfindet jeder anders für mich ist unterhalb von 50fps das spiel unspielbar und ab 60 gut spielbar
ich sehe auch den unterschied 60fps zu 100fps

Klar ist das rein subjektiv. Niemand hat etwas anderes behauptet :angel:
 
Zuletzt bearbeitet:
Ich muss sagen das ich bei mir persönlich, je nach Spiel natürlich, die spielbar/unspielbargrenze bei ~35FPS bewegt.
Das ganze auch nur dank Gsync.

Diese Grenze habe ich bei mir (je nach Spiel) ebenfalls festgestellt. Beim oben genannten Talos Principle sind 35fps ok, bei Shootern bekomme ich aber selbst bei 60fps Kopfschmerzen.
Genauso wie im Kino, in 3D Filmen sehe ich das Bild flackern wie eine alste 50hz Röhre ;)

falsch.
50fps sehen auf einem 144hz monitor flüssiger aus da durch 144hz der monitor mer als doppelt so schnell signale der grafikkarte abfragen/darstellen kann und somit schon von sich aus tearing minimiert

Tearing hast du doch auf beiden zwangsläufig, in diesem Beispiel. Ob jetzt 50fps in 60Hz müssen oder 50 in 144, das sind beides keine ganzzahligen Teiler.
 
Zuletzt bearbeitet:
Tearing hast du doch auf beiden zwangsläufig, in diesem Beispiel. Ob jetzt 50fps in 60Hz müssen oder 50 in 144, das sind beides keine ganzzahligen Teiler.

So sehe ich das auch bzw. das bestätigt auch den Eindruck bei meinem 100Hz Bsp.
 
natürlcih hat man auch tearing bei 50fps mit 144hz aber das ist nicht annährend so ekelhaft wie bei 60hz
 
Tearing bleibt Tearing und genau dagegen wurde Sync in jeder Form entwickelt.
Und genau diese verschiedenen Varianten wurden hier betrachtet bzw. sind Thema dieses Threads :)
Mir persönlich waren die Probleme die durch LFC aufkommen können, bisher nicht bewusst.
Daher soll der obige Artikel auch zur Aufklärung dienen.
 
Ich habe jetzt seit ein paar Tagen auch einen Freesync Monitor und musste relativ schnell feststellen das sich jedes Game anders verhält. Bei GTA5 und Watchdogs zb fühlen sich 45 fps noch flüssig an, unter 40 fps merkt man dann doch so eine art trägheit bzw das Spielgeschehen in Bewegungen ist nicht mehr ganz so smooth wie bei 60 fps. Bei Far Cry 4 zB merke ich wenn die Frames unter 60 fps fallen. Das Spiel wir zunehmend träger. Hat man das Spiel mal mit 80 + FPs gespielt ist der Unterschied deutlich. Es hängt als sehr viel vom Spiel ab und persönlichen Geschmack.
Ich bin sogar der Meinung das Freesync bzw Gsync die größten stärken bei hohen FPS hat. Man hat wirklich ein Saubers tearingfreies und smoothes spielgefühl. Es läuft einfach glatt und macht jede Menge Spass. Es macht auch keinen Sinn einen 144hz Monitor zu besitzen um dann im jedem Spiel mit 35 FPS zu spielen - da reicht auch ein 60 bzw 75 hz Monitor aus.

Und das Gsync besser sein soll als Freesync halte ich für einen Mythos. Alles unter 35 - 40 FPS läuft deutlich träger als 60 FPS und da hilft auch LFC und Framedoubling nichts.
 
Kann ich zum Teil bestätigen.
Auswirkungen auf die trägheit hat, in meinem Fall G-Sync, nicht wirklich. Es glättet das ganze Spielgefühl, so das quasi keine Ruckler mehr vorhanden sind. Das tut es zumindest bis gefühlt ~35Fps.
Das ändert natürlich nichts daran, dass sich das ganze viel flüssiger anfüllt, sobald man mehr FPS erreicht.
 
Naja Framedoubling dürfte ja auch nicht zaubern können. Entweder man prohjeziert das gleiche Bild nochmals auf den Monitor und hat Pseudofps oder man berechnet ein Zwischenbild was dazu führt das man ja mindestens 1 Frame hinterher hängt in der Bildausgabe was wohl ein flüssigeres Bild aber ein ordentlichen Laggy Spielgefühl produzieren dürfte.
 
Zuletzt bearbeitet:
framedoubling ist doch auch nur flickschusterei entweder man hat genung fps oder nicht
da helfen keine pseudoframes
 
Tut mir leid, ich muss mal eine Reihe von Breitseiten los werden:

Bevor man die beiden Lager der Sync-Technologien vergleicht, wäre erstmal zu ergründen, was sich die Monitore innerhalb eines Lagers so nehmen, bevor man diese aufeinander loslässt.
Vielleicht ist ja der eine Testkanditat ein ganz mieser Vertreter seiner Gattung, und der Andere ein ganz vorzüglicher.

Wer sich hier und da mal aus Einzelteilen einen Computer zusammenbaut, oder was ersetzt hat, weiß, dass zuweilen Bauteile, die von außen betrachtet so garnichts mit einem Problem oder bestimmten Verhalten zu tun haben sollten, ein System beeinträchtigen oder aber plötzlich beflügeln können.
Also wären die Monitore nicht nur am gleichen, sondern am selben! System zu vergleichen.
(Was ja wegen Free/G-Sync nicht geht.)
Und selbst wenn, gelten die Ergebnisse nur für dieses Ensemble.
Um allgemeinere Aussagen zu machen, müssten viele Geräte nach immer den gleichen Messmethoden durchgetestet werden, um ein tendenzielles Ergebnis ableiten zu dürfen.
Und trotzdem kann es schließlich bei jedem einzelnen User doch wieder etwas anders ausfallen.


Da nun ausgerechnet die FPS als zentraler Gradmesser für die Tauglichkeit der Technologie stehen soll, scheint es mir kaum möglich ein Urteil zu fällen, weil hier die Bandbreite der subjektiven Wahrnehmung und der persönlichen Erwartungshaltung ein viel zu breites Feld ergibt, um mit nur einem Fazitsatz ein Ergebnis zu verkünden.

Etwas feige hinter dem Rücken des Goldenen Messiases herausargumentiert, bin ich ebenfalls der Meinung, dass es zum Gamer-Dasein dazugehört, ständig an seinen Geräteinstellungen herumzuschrauben, um schließlich was ganz custum-nalisiertes, also einzigartiges und persönliches für sich zu finden. Dafür muss der Gamer grundsätzlich immer was auszusetzten haben, damit er immer den Antrieb findet, auch noch den hinterletzten Schieberegler auszuprobieren. Dabei gilt: Je englischer und kryptischer der Name der Einstellung, desto mehr Wunderheilung verspricht dieser.
(Letzlich verbirgt sich hier auch noch die Gefahr, dass man solange rumbastelt, bis das „Ergebnis“ deutlich mieser als out-of-the-box ist, man aber stur mit dem Finger auf den GraKa-Hersteller als stümperhafte Relais-Löt-Bude als Alleinschuldigen zeigt.)

Das mit dem Syncen würde bestimmt gut funktionieren…
…wenn wir die Maßstäbe anlegen würden, die wir vor dieser Technologie hatten.
Aber unsere Ansprüche an die Bildwiederholraten haben sich verdoppelt, und die Pixel auf unseren Monitoren ver-4-facht, während das flammneue Computerspiel soviel Rechenleistung schluckt, dass sich mit der thermalen Abwärme des Computers die halbe Wohnung beheizen lässt.
So rückt die erlösende Feststellung:
„Jau, jetzt passt alles.“
in weite Ferne.

Abschließend:
Ich gebe zu, dass ich keine Ahnung habe, welchen Einfluss die Elektronik im Monitor auf das ganze Syncen hat, aber ich vermute mal, das Meiste passiert in der GraKa, und es sind auch die Global GPU- und OS-Hersteller, die hier die Vorgaben machen, wie die Pixel huschen sollen.
Der Monitorhersteller muss nun als „Übermittler“ des miesen Bildaufbaus als Sündenbock herhalten.

Somit wäre Free- vs. G Sync ein Thema für die Grafikkarten-Threads.


Wer es bis hier hin geschafft hat:
Seit Intel, Nvidia und AMD praktisch die Monopolisten bei den Spiel-Spaß-und-Freizeit-PCs sind, werben diese plakativ mit Takt- und Bus-Zahlen oder anderen Daten, die gerade hipp sind oder toll klingen für ihre Produkte (Könnt ihr euch noch an das ominöse „+“-Anhängsel bei den AMD-Prozessoren erinnern?).
Seit 20 Jahren gilt: Trotz vergleichbarer technischer Daten, schneidet nvidia in den Tests immer ein wenig besser ab.
Dafür sind AMD-Produkte immer etwas billiger.
Ergo: Der AMD-Kunde ist enttäuscht, dass er trotz gleicher Zahlen auf der Verpackung weniger Spielfreude hat als ein nvidia-Kunde.
Und der nvidia-Kunde ist enttäuscht, weil es trotz Mehrausgabe immernoch ruckelt.

Und immer gilt: Egal was ich heute an PC-Kram kaufe, es ist in einem Jahr nur noch halb so teuer, oder aber fürs gleiche Geld doppelt so gut ausgestattet.
 
Zuletzt bearbeitet:
Somit wäre Free- vs. G Sync ein Thema für die Grafikkarten-Threads.

;)
Im Falle nVidia, sitzt das betroffene Bauteil, was für die synchronisation verantwortlich ist, im Monitor.
Im Falle AMD, sitzt das entsprechende Bauteil ebenfalls im Monitor, denn Freesync ist laut Spezifikations-Version 1.2a optionaler Bestandteil des DisplayPort-Standards und der Monitor muss passende Frequenzteiler verbaut haben.
Die Grafikkarte schickt die Bilder raus, ganz egal ob diese hinterher vom Monitor synchronisiert werden oder nicht.
Daher ist die ganze Geschichte sehr wohl ein Monitorthema das auch nur die Monitorhersteller betrifft.
Ebenso wurden bei diesem Test auch mMn. zwei gute Testkandidaten gewählt, da der EIZO wohl der beste Freesync Monitor am Markt ist, in dem auch die neuste Technik verbaut ist. Der Asus hat ebenfalls die letzte Revision des Gsync Moduls verbaut.
Und ein vergleich am selben System ist ebenfalls nicht möglich, da beide Techniken nach unterschiedlichen Grafikkarten verlangen.
 
Zuletzt bearbeitet:
Die Grafikkarte schickt die Bilder raus, ganz egal ob diese hinterher vom Monitor synchronisiert werden oder nicht.

Falsch, denn genau das ist das Problem, welches zu Tearing führt. Buffern tut nicht der Monitor, sondern die GPU.
 
Ändert trotzdem nichts daran, dass die Technik in beiden Fällen im Monitor sitzt ;)
Ebenso wenig wirst du dieses Problem bei der Grafikkarte nicht in den Griff bekommen, wenn man nicht gerade auf höheren inputlag ala Vsync steht.
Einzigste Möglichkeit ist hier eine Karte, die soviel Leistung hat und somit keinerlei Frameschwankungen produziert, so dass sie in jedem Fall immer soviel FPS zu verfügung stellt, wie der Monitor wiedergeben kann und das ganze dann auch entsprechend exakt auf den Ausgabewert gecapt wird.
 
die technologie sitzt sowohl in der gpu als auch im moni. ist aber nicht erst seit gestern so.
 
die technologie sitzt sowohl in der gpu als auch im moni. ist aber nicht erst seit gestern so.

Die Grafikkarte muss wissen, wieviel Hz der Monitor unterstützt, richtig.
Der Synchronisation erfolgt trotzdem am Monitor.
Falls ich hier falsch liege, kläre uns auf und eier nicht rum. ;)
 
lies dir halt mal durch, wie adaptive sync funktioniert.

nachdem der monitor ein bild ausgegeben hat, sendet er der gpu das ok für das nächste bild, das die gpu im buffer bereits vorhält und erst sendet, wenn monitor den befehl dazu erteilt. würde die gpu adaptive sync nicht unterstützen, würde sie bild für bild sofort nach berechnung ausgeben (so wie ohne v-/g-/f-sync halt) sodass entweder tearing entsteht oder der monitor das bild selbst buffern müsste.

monitor und gpu synchronisieren sich gegenseitig. das steckt ja schon in dem wort adaptiv. beide parteien sind maßgeblich beteiligt. asynchron wäre non-sync aka tearing bis mir schlecht wird. einfach drauf los, gpu haut dabei bilder raus bis dem monitor oder dem nutzer davor schlecht wird.

im vergleich zu v-sync ist bei g-/f-sync etwas intelligenz in den monitor gewandert. der kann nun "endlich" der gpu mitteilen, was sein "status" ist, sodass eine art kommunikation zwischen beiden partnern entsteht und die ausgabe synchronisiert wird. bis dato hat man einfach feste zyklen mit vsync nutzen müssen, weil nur die gpu "intelligenz" besaß.

ich möchte nur sensibilisieren, ist ja wie wenn man zum vesa-standard vesa-halterung sagen würde. Wenn man sich mit der Materie auseinandersetzt, sollte man die VESA-Normen prinzipielle Funktion wenigstens einmal überflogen haben.
 
Zuletzt bearbeitet:
Freesync ist eine reine Softwarelösung (abgesehen vom Adaptive-Sync-kompatiblen Scaler im Monitor und der Display-Engine in der GPU). Das bedeutet für die Monitorhersteller, dass bei der Produktion von zu Freesync kompatiblen Geräten keine zusätzlichen Kosten entstehen, da weiterhin die eigenen Scaler (oder jene von Drittanbietern) genutzt werden können. Hierdurch kann es zu einer weniger effizienten dynamischen Anpassung der Bildwiederholfrequenz kommen, da die Grafikkarte im Gegensatz zu G-Sync nicht direkt mit dem Monitor kommunizieren kann, sondern den Umweg über den Treiber gehen muss.

Und wenn ich ehrlich bin, glaube ich nicht das du sensibiliseren willst, sondern das dies lediglich einen plumpen Versuch darstellt, irgendwie zu provozieren.
Aber das sind hier alle von dir gewohnt, daher kannst du es auch gleich sein lassen :wink:
Btw.
Dennoch bin ich für jeden Beitrag von dir dankbar, der eine aufklärende Wirkung beinhaltet.
Schließlich sind hier User unter uns, mich eingeschlossen, die in Foren lesen um etwas dazu zu lernen.
Einige ander auch aus anderen beweggründen.
 
Zuletzt bearbeitet:
freesync ist keine reine software lösung, denn nach VESA (lustig, schon wieder VESA :-)) muss adaptive sync von der hardware supportet werden. ich glaube aber das hast du selbst im ersten abschnitt erklären wollen. ist aber egal, den das prinzip ist das gleiche. beide kommunizieren jetzt miteinander. nicht der monitor alleine ist verantwortlich, das war es, was mich an deiner ausgangsaussage gestört hat.

klar will ich mit dem letzten satz offensichtlich provozieren, denn im anderen fred machst du die leute nieder, weil sie vesa-standard mit vesa-halterung verwechseln. drüben klugscheißen und hier selbst nicht wissen, was sache ist...
 
Zuletzt bearbeitet:
Wahrscheinlich habe ich mal wieder eine viel zu simpel gestrickte Vorstellung von der Sache.
In meiner Vorstellung arbeitet der Monitor nach einem festen Zeitplan um sich Bilder von der GraKa abzuholen.
Aber die GraKa sagt entweder: ‚Kann grad nich‘ oder aber liefert zur falschen Zeit, und jetzt sagt der Moni: ‚Pech gehabt, nimm den nächsten Zug‘.
Für mich ist der Monitor der „Saubermann“, er kommt termingerecht, pflichtbewusst und vorhersehbar 60 bis 144 mal in der Sekunde seiner Aufgabe nach.
Die GraKa ist der Rüpel, der mit der Summe seiner Gebrechen unabgesprochen was ins Signalkabel wirft.
Um der GraKa nun entgegen zu kommen, sagt der Monitor: ‚Nun gut, ich baue mir da mal einen kleinen Horchposten ein, der mir verrät, ob Du gelegentlich mal wieder was Gefälliges zusammengeschustert hast.
Der Moni ist nunmehr nicht mehr wie die Bahn (höhö) nach Plan unterwegs, sondern wie ein Taxi nach Kundenwunsch.
Man mag vom Hersteller erwarten, dass er hier ein gutes Teil verbaut oder was taugliches progammiert, denn er lässt es sich ja auch gut bezahlen, aber letztlich dient es dazu die Zickereien der GraKa ausbügeln. Also würde ich weiterhin eher auf die schnaufende GPU, als denn den eleganten Taktzeiger (extra tendenziös formuliert) im Moni tippen, wenns mal nicht so schwuppt.

Das gewünschte und erhoffte „Entwicklungspotential“ steckt also nicht im Monitor, sondern nach wie vor und fürhin im PC-Gehäuse
 
Zuletzt bearbeitet:
klar will ich mit dem letzten satz offensichtlich provozieren, denn im anderen fred machst du die leute nieder, weil sie vesa-standard mit vesa-halterung verwechseln. drüben klugscheißen und hier selbst nicht wissen, was sache ist...

Wo mache ich den hier jemanden nieder?
Ich hatte lediglich eine Frage gestellt (klar, die Antwort wusset ich schon) und so wie ich das auffasse, haben das alle im Thread auch entsprechend wargenommen. Nämlich alles andere als aggressiv oder erniedrigend.
Im übrigen hat er es nicht verwechselt, sondern war lediglich schreibfaul.
Aber das hast du im weiteren verlauf der Unterhaltung sicher überlesen und nutzt das jetzt für dich um irgendwelche Dinge aus der vergangenheit zu kompensieren. (Achtung! Nur eine persönliche Vermutung ;))


freesync ist keine reine software lösung, denn nach VESA muss adaptive sync von der hardware supportet werden. ich glaube aber das hast du selbst im ersten abschnitt erklären wollen.

Wie du schon richtig bemerkt hast, habe ich ja extra geschrieben; "abgesehen vom Adaptive-Sync-kompatiblen Scaler ".
Das alles ändert trotzdem nichts an der Tatsache, das diese Bauteile im Monitor sitzen und deshalb das Thema hier bei den Monitoren richtig aufgehoben ist.
Das war nähmlich die Kernaussage des ganzen.
Zudem kommt ja noch hinzu, dass hier auch explizit auf die eigenschaften des EIZO eingegangen wird, da ja jeder Monitorhersteller für die unterstützende Range verantwortlich ist. (je nach verbautem Scaler)
Also halte ich deine Aussage: "drüben klugscheißen und hier selbst nicht wissen, was sache ist", für etwas überzogen.



Im Grunde ist das richtig, was du hier sehr schön, auf ein altägliches Bsp. gesprochen, dargelegt hast :)
Das "Problem" ist nur, dass du dieses Problem nicht, ohne einen immensen Aufwand an Resourcen jedweder Art, mit der Graka lösen kannst und deshalb einfach der Bildaufbau des Monitors angepasst wird. Was ja auch ein Sinnvoller Weg ist. Und deshalb ist der Fred auch bei den Monitoren gelandet.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh