Tearing, Input-Lag und Ruckler adé dank NVIDIA G-SYNC (Update)

Will ich davon weg, brauch ich mehr GPU Power. Habe ich aber genügend GPU Power, kann ich auch VSync als Alternative nutzen. Nämlich weil es nix kostet und mir im Endeffekt je nach vorhandenem Monitor ein ähnliches Ergebnis liefert.

Ok. Diese Logik ist falsch. Sie ist so falsch, dass andere Leute sich persönlich angegriffen fühlen, wenn du sie vorbringst.
Deine Logik ist: GSync ist teurer als VSync. Weil, wenn man schon genügend GPU Power hat, kann ich VSync einsetzten.
Da kann ich auch sagen: Eine Mietwohnung ist teurer als eine Eigentumswohnung, weil wenn man die Eigentumswohnung schon besitzt, kann man ja umsonst drin wohnen.

Wie ich oben schon beschrieben habe. Die Frage ist:
Wenn ich mit meiner Grafikkarte auf 60 FPS komme. Investiere ich dann in eine weitere SLI Karte oder würde ich mir diesen 180€ Chip kaufen, der mir die gleichen Probleme löst?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dazu kommt, dass man sich dann auch einen Monitor mit 120Hz kaufen sollte, um von der Mehrleistung dann auch zu profitieren.
 
Dann behaupte es nicht pauschal und/oder drück dich einfach besser aus. Und nochmal: Woher willst du wissen, dass G-Sync nicht auch das Spielgefühl trotz für dich zu niedrigen fps verbessert? Du behauptest, es bringt da nichts, das kannst du aber doch gar nicht wissen ohne es probiert zu haben.
Weil ich es stand heute schlicht und einfach nachtesten kann!?
Nimm 24Hz im normalen VSync und lass ein Objekt schnell über das Bild wandern.
Nimm 60Hz im normalen VSync bei weniger als 60 FPS und lass das gleiche Objekt über das Bild wandern.
Nimm 80Hz im normalen VSync bei weniger als 80 FPS...
usw.
Man kann das ganze doch heute nachstellen, ab wann wird es aufhören zu ruckeln. :wink: Am Umstand des Ruckelns ändert doch auch G-Sync nichts. Was ich ebenso oben mehrfach erwähnte.

Wie gesagt, drück dich besser aus, dann haben wir kein Problem.
Der Stein des Anstoßes ist dieses Zitat von dir hier:
Das G-Sync nur dann effektiv auch ein flüssigeres Spielgefühl bieten kann, wenn die FPS entsprechend hoch sind...
Dann reiß aber auch nicht die Zitate aus dem Kontext. Da fehlt schlicht noch der Entscheidende Nachsatz: "Nur habe ich entsprechend hohe FPS, kann ich im Grunde auch auf G-Sync verzichten. Siehe Beispiele von oben. Habe ich 60 min FPS, also keine Drops unter 60, kann ich mit herkömmlichen VSync das gleiche erreichen..."
Und schon wird klar, was ausgedrückt werden sollte. Nämlich das es klar an der FPS Rate hängt... Entweder ich habe die Power und kann die FPS so hoch fahren. Dann kann auch VSync eine Alternative sein. Oder eben nicht... Dann habe ich die Flexibilität durch G-Sync -> bei womöglich immernoch ruckeln durch zu niedrige FPS.

Und das ist einfach Unsinn! Es kann sein, dass trotz G-Sync das Spielgefühl für dich noch nicht flüssig genug ist, falls die fps zu niedrig sind. Aber das ist etwas völlig anderes als zu behaupten, dass G-Sync hier nichts bringt. Es könnte durchaus besser sein. Und zum x-ten Mal: Diese (unbewiesene) Behauptung von dir wurde mit den Videos ja schon widerlegt. Du könntest einfach mal zugeben, dass du dir hier nicht genug Gedanken gemacht und voreilig formuliert hast. Ich weiß inzwischen schon, was du eigentlich gemeint hast, aber das ist halt nicht das, was du gesagt hast. Ist es wirklich sooo schwer zu sagen "da hab ich mich vertan"?
Was wurde denn im Video da widerlegt!?
Ich hatte oben schon erwähnt, das es für mich keine Rolle spielt, wenn ich die Wahl zwischen Pest und Cholera habe. Beides ist nicht optimal... Das Spielgefühl wird von mir aus anders, aber es heist lange nicht, das es besser wird.
Und doch, ich habe mir dazu sehr viele Gedanken gemacht, denn scheinbar bin ich hier fast der einzige, der das ganze nicht mit Kusshand annimmt, ohne den Sinn kritisch zu hinterfragen. Genau darauf aufbauend bin ich zu dem Fazit gekommen, das der Mehrwert für mich nicht lohnt. Eben weil es genau scheinbar 1:1 agiert.
Oder irre ich da!?

Natürlich ist es ein Thema, weil du 4k eingebracht hast, um die aktuellen Grenzen von G-Sync zu zeigen. Bloß wie relevant soll das überhaupt sein? Du willst mir nicht erzählen, dass das Fehlen von 4k-Monitoren mit G-Sync aktuell ein Problem darstellt? Da beisst dich deine eigene Argumentation in den Hintern, weil mit 4k hast du so niedrige fps, dass es ja wieder ruckelt...und der horrende Preis (und immer noch ist G-Sync zu teuer???) kommt noch dazu, am besten noch für neue GPUs. Der Mehrwert von 4k ist also miese Performance und hohe Kosten. Ja, kann ich nachvollziehen, dass man das besser als G-Sync findet...

Dann hast du irgendwas falsch verstanden... Ich will nicht 4k gegen G-Sync aufwiegen oder irgendwelche Grenzen aufzeigen. Wenn Stand heute 4k Monitore mit DP 1.2 oder HDMI 2.0 kommen, scheint bei 60Hz erstmal Ende zu sein. Und dann trifft eben genau meine Argumentation oben zu. Entweder ich entscheide mich für die Pest im Sinne von zu niedrige FPS Raten. Oder ich entscheide mich für Cholera und nutze G-Sync um syncrone Bilder zu haben, die Pestlike immernoch ruckeln weil zu niedrig...
Demgegenüber steht Version drei, ich investiere kräftig in GPU Power, schraube Settings runter, drehe AA zurück oder ähnliches um die 60FPS min. zu halten -> komme aber mit herkömmlichen VSync und 60Hz genau an das gleiche Ziel.

Mal ganz davon ab, wieso sollte ich "so niedrige FPS haben, das es wieder ruckelt" bei 4k?
Ich verlange jetzt mal nicht nach Belegen und verkneife mir den Hinweis, das das ziemlich pauschal war...
Denn es dreht sich nicht nur immer alles um die neusten Blockbuster Titel :wink:

Ok. Diese Logik ist falsch. Sie ist so falsch, dass andere Leute sich persönlich angegriffen fühlen, wenn du sie vorbringst.
Deine Logik ist: GSync ist teurer als Vsync. Weil, wenn man hat schon genügend GPU Power kann ich VSync einsetzten.
Da kann ich auch sagen: Eine Mietwohnung ist teurer als eine Eigentumswohnung, weil wenn man die Eigentumswohnung schon besitzt, kann man ja umsonst drin wohnen.

Wie ich oben schon beschrieben habe. Die Frage ist:
Wenn ich mit meiner Grafikkarte auf 60 FPS komme. Investiere ich dann in eine weitere SLI Karte oder würde ich mir diesen 180€ Chip kaufen, der mir die gleichen Probleme löst?

Du verstehst nach wie vor nicht...
Ich könnte mich irren, aber wo steht bitte, was du als meine "Logik" verkaufen willst!?
Du vermischt hier zwei paar Sachen, nämlich A) die FPS Leistung der Hardware und deren Kosten -> sorgen je nach Höhe für ein ruckliges Spielgefühl und B) die (Mehr)kosten für G-Sync und die dadurch erreichte Flexibilität im Vergleich zu VSync.

Nochmal, das sind zwei paar Schuhe!!!
Entweder du hast genügend GPU Power um entsprechende FPS zu erreichen oder eben nicht.
Hast du diese, könntest du stand heute schon mit VSync eine quasi kostenfrei Alternative nutzen. Das geht bei 60 FPS/Hz genau so, wie mit anderen Settings... Nachteil -> es ist fix.
Wenn ich genau drüber nachdenke, sogar fast beliebig wählbar von 24Hz bis 144Hz.

G-Sync ersetzt dir nicht die Schwächen bei zu wenig GPU Leistung. Kostet aber imho obendrei noch. Nicht mehr und nicht weniger habe ich gesagt!
Die genügend GPU Power (wieso kommen immer alle gleich dabei auf SLI??) wird aber so oder so benötigt... Um eben die FPS zu erreichen, die man als flüssig empfindet.

Mal ganz davon ab, zu deiner Frage... Was machst du dann im nächsten Spiel!?
Dann erreicht deine vormals 60 FPS Karte ohne SLI beispielsweise nur noch 40. Du hast nun 180€/$ in G-Sync investiert und freust dich über mal mehr mal weniger 40 dafür syncrone/tearingfreie FPS/Hz. -> und es ruckelt womöglich trotzdem, weil das Spiel ein schneller Shooter ist. :haha: Mhhhh und nun!?

Luft nach oben? Wozu?

Um mehr FPS/Hz zu haben!? Wie auch sonst...
Und jetzt bitte keine Diskusion über 120Hz Monitore und deren Nutzen. Frag das die Leute, die es als unspielbar empfinden auf 60Hz zu zocken :wink:
 
Zuletzt bearbeitet:
Ich will nicht 4k gegen G-Sync aufwiegen oder irgendwelche Grenzen aufzeigen.

Ich habe farblich markiert, wo 4K gegen G-Sync aufgewogen wird.

Zum zweiten, 4k. Wer spricht von Sinn und Unsinn!? Das doch gar nicht Thema...
Zum dritten, das es theoretisch fast keine Grenzen bei G-Sync gibt, mag ja sein. Habe ich auch nicht angezweifelt ;) Es geht eher um den Mehrwert. Ich sehe keinen greifbaren Mehrwert bei syncronen FPS/Hz. Wohingegen ich einen echten Mehrwert durch 120Hz+ oder auch 4k Auflösung sehe... Es bleibt die Frage über, was man sich diese mehr Flexibilität kosten lassen will.

Ob es einem das wert ist!? -> mir stand heute nicht. Da lieber Geld in 4k und/oder 120Hz investieren... Da sehe ich persönlich einen deutlicheren Mehrwert.

Dieser ganze 4K-Kram ist so sinnfrei, als ob G-Sync 4K ausschließen würde.

Was wurde denn im Video da widerlegt!?

Deine These G-Sync würde nichts bringen.

Ich sehe keinen greifbaren Mehrwert bei syncronen FPS/Hz.

PS: nein ich meine nicht Inputlag. Und ja, ich hab die Videos gesehen ;)

Ich dachte du hättest die Videos gesehen?

Ich hatte oben schon erwähnt, das es für mich keine Rolle spielt, wenn ich die Wahl zwischen Pest und Cholera habe. Beides ist nicht optimal... Das Spielgefühl wird von mir aus anders, aber es heist lange nicht, das es besser wird.

Wenn man auf Ruckler steht wird G-Sync das Spielgefühl verschlechtern, ja. Aber ich gehe mal davon aus, dass du ein flüssiges Bild willst.

Noch ein Zitat der Hardwareluxx-Redaktion zum Schluss:

In Montreal zeigten die Kalifornier G-Sync in Aktion – im Direktvergleich mit einem normalen Monitor und wahlweise mit oder deaktiviertem V-Sync. Die Unterschiede zwischen den beiden Systemen waren bemerkenswert – gezeigt wurden die Effekte nicht nur in einer NVIDIA-eigenen Demo, sondern auch in Tomb Raider. Das Spielerlebnis verbessert sich durch G-Sync nach unserem Empfinden tatsächlich um Welten.

So, den inhaltlichen Fragen darf sich gerne Box widmen.
 
Zuletzt bearbeitet:
Ich könnte mich irren, aber wo steht bitte, was du als meine "Logik" verkaufen willst!?
Du vermischt hier zwei paar Sachen, nämlich A) die FPS Leistung der Hardware und deren Kosten -> sorgen je nach Höhe für ein ruckliges Spielgefühl und B) die (Mehr)kosten für G-Sync und die dadurch erreichte Flexibilität im Vergleich zu VSync.
Nochmal, das sind zwei paar Schuhe!!!
Entweder du hast genügend GPU Power um entsprechende FPS zu erreichen oder eben nicht.
Ok. Genau dies ist dein Denkfehler. Das brauchst du nicht.
Ich würde dir raten nochmal dann dieses Video anzusehen: da hier die NVidia Mitarbeiter genau diesen Punkt wiederlegen.
Der Punkt den GSync verkauft ist, dass ein flüssigeres Spielgefühl mit GSync erreicht werden KANN, als mit VSync, bei gleicher minimaler FPS.

G-Sync ersetzt dir nicht die Schwächen bei zu wenig GPU Leistung. Kostet aber imho obendrei noch. Nicht mehr und nicht weniger habe ich gesagt!
Das stimmt nicht.
Deine Annahme ist wie du beschrieben hast: Nur mit genug FPS wirds auch wirklich flüssig. G-Sync machts flexibler aber in Sachen Flüssig nicht besser als VSync. Richtig?
Der Mensch nimmt ab 24Hz bereits Bewegungen als flüssig war. Bis 60Hz kann er Änderungen wahrnehmen. Alles ab 60FPS sollte eigentlich flüssig sein, rein biologisch, selbst bei schnellen Drehungen.
Zwischen 24 und 60 hängt es vom Inhalt/Spiel ab, ob es flüssig ist.
Wieso wollen dann Leute dann trotzdem mehr? Wieso kommt einen ein Kinofilm mit 24FPS flüssiger vor als BF4 mit 50FPS?
Das Stichwort heißt Synchronität (Siehe Video).
Der Mensch kann extrem schnelle Änderungen nicht verarbeiten. Wenn von einem Frame auf den anderen Frame das Bild während einer kontinuierlichen Bewegung plötzlich einfriert so nehmen wir das subjektiv wahr. Genau das passiert bei VSync. Die GPU berechnet eine flüssige Bewegung des Bildes (Drehung des Spielers). Damit das funktioniert muss die GPU das Bild für eine bestimmte Anzeigedauer vorberechnen. Die technisch unmögliche perfekte Synchronisation durch VSYNC bewirkt, dass einzelne Frames nur millisekunden länger oder kürzer angezeigt werden, als die GPU eigentlich für deren Anzeige vorberechnet hatte. Ergo...es kommt zu subjektiven "Unrund/Ruckeln/NichtFlüssig" Gefühl. Und jetzt kommts......wait for it......wait for it.....mit steigender FPS nimmt dieser Effekt ab, da die Abweichung zwischen vorberechneter Anzeigedauer und tatsächlich stattgefundener Anzeigedauer geringer wird.
Bei GSync steuert die GPU den Monitor. Jeder Frame wird genau solange angezeigt wie von der GPU gewünscht, die beschriebenen Abweichung sollten praktisch verschwinden......und d.h.....und damit schließe ich jetzt ab...Du erreichst den Punkt wo es für dich subjektiv wirklich "Rund/Ruckelfrei/Flüssig" ist mit GSync früher als mit VSync und brauchst daher weniger GPU Power. Das ist genau der Punkt von GSync.

Boa...was ein Text.
Bitte berichtigen falls ich was falsch erklärt hab. Ich hab mich da nicht so.


Die genügend GPU Power (wieso kommen immer alle gleich dabei auf SLI??) wird aber so oder so benötigt... Um eben die FPS zu erreichen, die man als flüssig empfindet.
Sollte nach der obigen Erklärung eigentlich hinfällig sein...

- - - Updated - - -

Ich dachte du hättest die Videos gesehen?

Ist das das gleiche Video was ich meine??? Wenn ja, dann sollte ich vlt. aufhören beim Schreiben HWLuxx lesen White Russian zu trinken.
 
Zuletzt bearbeitet:
Ist das das gleiche Video was ich meine??? Wenn ja, dann sollte ich vlt. aufhören beim Schreiben HWLuxx lesen White Russian zu trinken.

Das Video hatte ich zwar auch gesehen, aber Boxleitnerb hat hier noch zwei weitere Videos verlinkt von denen eins mit 120 FPS in Zeitlupe aufgenommen wurde was der Darstellung zu gute kommt.

 
waro245 schrieb:
Die Hertz entsprechen immer den FPS. Es ist im Prinzip so als hätte man immer VSync an, also kein Tearing, aber ohne das man dafür eine bestimmte Framerate bräuchte oder den höheren Inputlag in Kauf nehmen muss. Ist also sowohl technisch als auch in seinen Auswirkungen nicht mit Adaptive VSync vergleichbar.

Ja ich weiß, wie Gsync funktioniert, aber seht ihr nicht den Nutzen/Ertrag Faktor?

Wieso sollte ich denn 400 Euro in Monitor, G-sync verballern, nur um damit in den Fällen wo V-sync nicht wirkt, also wenn die FPS kurzzeitig unter 60 fallen ( ich spiele nie mit unter 60 FPS), dann ein anderes Empfinden ohne Tearing habe?

Ich kapier das grade nicht ganz, warum das so toll sein soll, zumal es ohnehin noch keine wirklichen Details dazu gibt, geschweige denn Praxistests.

fdsonne schrieb:
G-Sync ersetzt dir nicht die Schwächen bei zu wenig GPU Leistung. Kostet aber imho obendrei noch. Nicht mehr und nicht weniger habe ich gesagt!

Genau in diese Kerbe wird Nvidia schlagen und propagieren, dass bei Nvidia 40 FPS mehr sind als bei AMD 40 FPS.
G-sync ist ein völliger Blender, und die Nvidia Fanboys sind wiedermal keinen Deut kritisch, im Gegensatz bei AMD´s Mantle aber voll dabei es schlechtzureden, wie immer das gleiche.

waro245 schrieb:
Deine These G-Sync würde nichts bringen.

Ich sehe nicht, dass er das behauptet hat, ich behaupte das auch nicht. Ich sehe aber den Nutzen nur sehr eingeschränkt.
Oder wo siehst beispielweise du den großen Nutzen? Nach dem Motto " dadurch wird alles besser" will ich mich hier nicht rumschlagen, nenne doch mal ein Anwendungsbeispiel.
 
Zuletzt bearbeitet:
Jap, ein Blender. Weil wir wissen: 30FPS = 50FPS.

Könnte glatt von Gipsel kommen. Aber ich schätze, so wird man ausgebildet in diesen komischen Camps.
 
Ja ich weiß, wie Gsync funktioniert, aber seht ihr nicht den Nutzen/Ertrag Faktor?

Wieso sollte ich denn 400 Euro in Monitor, G-sync verballern, nur um damit in den Fällen wo V-sync nicht wirkt, also wenn die FPS kurzzeitig unter 60 fallen ( ich spiele nie mit unter 60 FPS), dann ein anderes Empfinden ohne Tearing habe?

Ich kapier das grade nicht ganz, warum das so toll sein soll, zumal es ohnehin noch keine wirklichen Details dazu gibt, geschweige denn Praxistests.

Ich würde wenn dann bei einem Neukauf G-Sync gleich mitnehmen, nicht ausschließlich deswegen einen neuen Monitor kaufen.

G-Sync bringt dir nicht nur Vorteile, wenn die FPS kurzzeitig unter 60 fallen. Das habe ich aber alles schon mal geschrieben. G-Sync ist bei 60 Hz VSync, aber ohne dessen Inputlag. Wenn man einen 120 Hz Monitor hat ist das außerdem nochmal besser, einfach weil man nicht an die fixen VSync-Werte gebunden ist und so immer von hohen FPS-Raten, die aber nicht für VSync genügen bzw. vom 60 Hz VSync-Wert abgeregelt werden würden profitiert.
Und wenn man mit Downsampling spielt oder anderweitig mehr Wert auf die Grafik als auf hohe FPS legt und dabei die 60 FPS unterschreitet weil es sich z.B. um ein Rollenspiel handelt ist G-Sync super. Auch sonst kann man immer mal unter die 60 FPS fallen auch wenn sie sonst fast immer gehalten werden, weil z.B. im BF4 Multiplayer gerade ganz viel los ist oder man wegen 64 Spielern stellenweise ins CPU-Limit kommt. All das kann einem mit G-Sync herzlich egal sein, man hat immer ein optimales Bild.

Genau in diese Kerbe wird Nvidia schlagen und propagieren, dass bei Nvidia 40 FPS mehr sind als bei AMD 40 FPS.

Wenn die Theorie in der Praxis gut umgesetzt wird, und danach sieht es laut Hardwareluxx-Redakteuren momentan aus, dann hätte Nvidia damit recht. Natürlich darf man es nicht übertreiben, 40 FPS wären wohl immer noch nicht butterweich, aber immerhin flüssiger als zuvor. Und mehr wurde auch nicht versprochen.

G-sync ist ein völliger Blender, und die Nvidia Fanboys sind wiedermal keinen Deut kritisch, im Gegensatz bei AMD´s Mantle aber voll dabei es schlechtzureden, wie immer das gleiche.

Kannst du bitte diesen Fanboy-Mist aus dem Thread lassen? Bisher blieb das Thema, bis auf fdsonnes Stichelei, davon verschont und es wäre schön, könntest auch du dich zusammenreißen.

Ich sehe nicht, dass er das behauptet hat, ich behaupte das auch nicht. Ich sehe aber den Nutzen nur sehr eingeschränkt.
Oder wo siehst beispielweise du den großen Nutzen? Nach dem Motto " dadurch wird alles besser" will ich mich hier nicht rumschlagen, nenne doch mal ein Anwendungsbeispiel.

Ich habe ihn zitiert. Wenn dir das zu einfach ist kannst du dich ja durch seine Posts wühlen, tu dir keinen Zwang an.

Und Beispiele habe ich nun wirklich zu Hauf gebracht.
 
Zuletzt bearbeitet:
Ja ich weiß, wie Gsync funktioniert, aber seht ihr nicht den Nutzen/Ertrag Faktor?
Wieso sollte ich denn 400 Euro in Monitor, G-sync verballern, nur um damit in den Fällen wo V-sync nicht wirkt, also wenn die FPS kurzzeitig unter 60 fallen ( ich spiele nie mit unter 60 FPS), dann ein anderes Empfinden ohne Tearing habe?
Ich kapier das grade nicht ganz, warum das so toll sein soll, zumal es ohnehin noch keine wirklichen Details dazu gibt, geschweige denn Praxistests.

Der Nutzen? Echt jetzt?
Ich hab doch alles oben erklärt.

Genau in diese Kerbe wird Nvidia schlagen und propagieren, dass bei Nvidia 40 FPS mehr sind als bei AMD 40 FPS.
G-sync ist ein völliger Blender, und die Nvidia Fanboys sind wiedermal keinen Deut kritisch, im Gegensatz bei AMD´s Mantle aber voll dabei es schlechtzureden, wie immer das gleiche.
[/QUOTE]
Ist das dein Ernst? Wirklich?
Ich hab doch alles oben erklärt.
 
das einzige was ich mir einbilde in dem Video sehen zu können ist tearing und kein tearing mit diesem gsync.
is ja schön.
ich frag mich jetz, wenn ich zB mitm 60Hz Monitor zock und die fps auf zB 50 limitiere, was is mit den 10 Bildern die übrig bleiben?
krieg ich die doppelt, schön regelmäßig verteilt?

ich les hier ja eigentlich fast überall immer mit was mit GPUs und CPUs zu tun hat, und ehrlich gesagt, sehe ich in all den großartigen technischen Fortschritten sicherlich auch eben diese tollen, großartigen Fortschritte, aber auch fixe (Marketing)Ideen den Konsumenten Geld aus der Tasche zu leiern.
man schmeiße den technikscharfen Leuten irgendwelche Messungen mit irgendwelchen Werten hin und die Menge denkt sich: "hab ich ja gar nich, brauch ich aber wohl."
ich seh mich eigentlich darin nur bestärkt auch Hobby Hobby sein zu lassen.
scheiß auf 60fps/Hz, 120fps/Hz, etc..
wenn ich was flüssig empfinde, ist es in meiner Wahrnehmung flüssig.
was brauch ich mehr für mein Hobby um Spaß zu haben?
1500€ für ne Titan und nen 144Hz Monitor mit Xsync?
ich könnt Videospiele auch mit 58fps zocken, begrenze die meisten aber auf 40/45 für singleplayer und 45-55 für multiplayer.
weil: reicht mir, erscheint mir flüssig, macht Spaß, spart Strom und Lebenszeit (die ich dann für meine Kinder, meine Freundin und meine anderen Hobbys mehr habe).

nun denn ...
 
waro245 schrieb:
Ich würde wenn dann bei einem Neukauf G-Sync gleich mitnehmen, nicht ausschließlich deswegen einen neuen Monitor kaufen.

Ja das ist natürlich klar, aber die meisten werden sich sicherlich keinen Displayportmonitor kaufen und dann noch die extrakosten für G-sync mit übernehmen.

G-Sync bringt dir nicht nur Vorteile, wenn die FPS kurzzeitig unter 60 fallen. Das habe ich aber alles schon mal geschrieben. G-Sync ist bei 60 Hz VSync, aber ohne dessen Inputlag.

Welcher spürbarer Inputlag soll bei 60 FPS noch da sein, also ich merke da nichts, vielleicht bei sehr schnellen Shootern.

Wenn man einen 120 Hz Monitor hat ist das außerdem nochmal besser, einfach weil man nicht an die fixen VSync-Werte gebunden ist und so immer von hohen FPS-Raten, die aber nicht für VSync genügen bzw. vom 60 Hz VSync-Wert abgeregelt werden würden profitiert.

Ich versteh schon was du meinst, die Vorteile dadurch sehe ich aber irgendwie nicht. Wenn die FPS ohnehin schon so hoch sind, geht der Vorteil von G-sync immer weiter gegen Null und der Nutzen/Ertrag Faktor sinkt noch weiter.

Und wenn man mit Downsampling spielt oder anderweitig mehr Wert auf die Grafik als auf hohe FPS legt und dabei die 60 FPS unterschreitet weil es sich z.B. um ein Rollenspiel handelt ist G-Sync super.

Ja das wäre ein Szenario, aber sicherlich nicht für Rollenspiele oder Shooter, eher für Arcade oder Simulationen und ob g-sync so super ist, das werden wir dann erst sehen müssen.

weil z.B. im BF4 Multiplayer gerade ganz viel los ist oder man wegen 64 Spielern stellenweise ins CPU-Limit kommt.

Ich glaub du hast G-sync etwas missverstanden. Das was im Treiber oder im geschlossenen PC System passiert kann G-sync überhaupt nicht beeinflussen, sondern nimmt die Bilder die die GPU produziert direkt ab, d. h. µruckler oder Ruckler durch das CPU Limit oder sonst irgendetwas werden dadurch nicht beeinflusst, sondern nur die Zusatzeffekte die ein Monitor erzeugen würde, wenn er ein feste Bildwiederholungsrate hat, nämlich in den meisen Fällen 60 Hertz, werden verhindert.

Die Bilder werden nicht flüssiger, sondern nur im Falle von Tearing ganz ausgegeben und nicht wie bei Tearing teilweise mal ein virtel oder drittel verschluckt.
Das mit dem flüssigeren Bildraten glaube ich mal gar nicht,bevor ich es nicht mit eigenen Augen gesehen hab. Ich bin immernoch bei deinem Beispiel 64er Server BF3/4.

Kannst du bitte diesen Fanboy-Mist aus dem Thread lassen?

Sry, aber sowie das Nvidia ausbauscht, ist es nichts anderes wie ein Blender. Du hast wenn du dementsprechend die Optionen deines Grafikmenüs ausreizt mit genügend FPS und V-sync spielst nur geringfügige Nachteile ( zudem auch nur gerinfügige Nachteile im allgemeinen), ich hab keine Ahnung, warum man das plötzlich anders sieht, erzählt das mal den Konsolenspielern.

Bisher blieb das Thema, bis auf fdsonnes Stichelei,

Sry, aber man sollte sich schon mit dem Kosten/Nutzenfaktor etwas auseinandersetzen und den nicht immer völlig ignorieren, nur weil es Nvidia ist.

Ich habe ihn zitiert.

Nein, das hast du nicht, du kannst mir seine Aussage zeigen, wo er das sagt, ich habe nichts davon gelesen.

Ich will erstmal sehen wo das Bild da flüssiger sein soll. Nur weil teilweises Tearing wegfällt, was nur bei schnellen Bewegungen auftritt, wird garantiert das Bild nicht flüssiger.

Ich wäre da ganz vorsichtig was Nvidia da erzählt.

Ich weiß noch als Nvidia FCAT ingeführt hat und bis heute wird die Zeit zwischen Ingamezeit und Displaytime ignoriert und ist wahrscheinlich dar Grund warum trotz schöner FCAT Werte es noch viel stärker ruckelt als mit Single GPU bei niedrigeren FPS, eben dort wo der Inputlag sichtbar ist.

Ergo wenn Nvidia meint mit G-Sync jetzt das gemacht zu haben was sie vorgeben, dann ist das wirklich ein riesen Fail was Merketing angeht.

Denn genau das was fdsonne gesagt hat ist der Punkt, G-Ssync bringt dir womöglich nur flüssige Frameraten wenn du ohnehin schon bei 20 bis 40 FPS rumzappelst und dort der Inputlag durch den Monitor( je nach Monitor völlig verschieden!!) noch recht hoch ist.

Je höher die FPS desto weniger bringt G-sync und man kommt mit den Softwarelödungen ebenso zurecht.

Wer jetzt empfindlich gegen Tearing ist oder generell bei niedrigen FPS spielt, der hat dadurch vielleicht ( wir kennen keine unabhängigen Tests9) einen Vorteil, da hier v-sync nicht greift, ansonsten relativ unspannend, vor allem durch die Mehrkosten.
 
Zuletzt bearbeitet:
Ich glaub du hast G-sync etwas missverstanden. Das was im Treiber oder im geschlossenen PC System passiert kann G-sync überhaupt nicht beeinflussen, sondern nimmt die Bilder die die GPU produziert direkt ab, d. h. µruckler oder Ruckler durch das CPU Limit oder sonst irgendetwas werden dadurch nicht beeinflusst, sondern nur die Zusatzeffekte die ein Monitor erzeugen würde, wenn er ein feste Bildwiederholungsrate hat, nämlich in den meisen Fällen 60 Hertz, werden verhindert.

Die Bilder werden nicht flüssiger, sondern nur im Falle von Tearing ganz ausgegeben und nicht wie bei Tearing teilweise mal ein virtel oder drittel verschluckt.
Das mit dem flüssigeren Bildraten glaube ich mal gar nicht,bevor ich es nicht mit eigenen Augen gesehen hab. Ich bin immernoch bei deinem Beispiel 64er Server BF3/4.

Selbstverständlich meine ich nur das, was G-Sync auch erträglicher machen kann; nämlich Framedrops. Mikroruckler durch die CPU sind nochmal ein anderes Thema.
Das die Bilder nicht flüssiger werden ist eine Behauptung von dir, die unbewiesen ist. Alle Berichte von Redakteuren über die Demo und Tomb Raider sagen das Gegenteil. Man kann diese natürlich kritisch sehen und sagen, dass man sich noch kein Urteil erlauben will wie du es selbst an anderer Stelle tust oder zumindest noch keins zur Wirkung in bestimmten Spielen, aber unbelegt einfach das Gegenteil zu behaupten ist unsinnig.

Sry, aber sowie das Nvidia ausbauscht, ist es nichts anderes wie ein Blender. Du hast wenn du dementsprechend die Optionen deines Grafikmenüs ausreizt mit genügend FPS und V-sync spielst nur geringfügige Nachteile ( zudem auch nur gerinfügige Nachteile im allgemeinen), ich hab keine Ahnung, warum man das plötzlich anders sieht, erzählt das mal den Konsolenspielern.

Natürlich war es vorher nicht unspielbar, aber nun wird die Bildausgabe wie es scheint endlich perfektioniert. Es wird endlich logisch! Das ist doch einfach nur hirnrissig, wie es bisher ablief.

Sry, aber man sollte sich schon mit dem Kosten/Nutzenfaktor etwas auseinandersetzen und den nicht immer völlig ignorieren, nur weil es Nvidia ist.

Das kann man gerne tun, nur ohne deinen Fanboy-Müll.

Nein, das hast du nicht, du kannst mir seine Aussage zeigen, wo er das sagt, ich habe nichts davon gelesen.

Dann solltest du an deiner Lesekompetenz arbeiten. Ernsthaft schau halt in den besagten Post.
 
Man, das ist die SLI-Framemetering Diskussion nur in G-Sync Farbe. Schaffe, FDSonne, bald Skytroll - immer die selben Leute, die technische Verfahren nicht verstehen und seitenlang darüber diskutieren. Das ist mehr als ermüdend.

Es gibt genug Videos, Erfahrungsberichte und Wikipedia. Genug Material, um sich zu erkundigen. Wer es dann immer noch nicht verstanden hat, sollte sich einfach mal Gedanken um die Reaktionen auf seine Postings machen.

Achja: Natürlich ist die Bilddarstellung wesentlich runder mit G-Sync. Denn nun bleiben die Frames solange stehen, bis die Karte ein neues sendet. Und eine gleichmäßige vollständige Ausgabe führt immer zu einer geschmeidigeren Darstellung.
 
Ich habe farblich markiert, wo 4K gegen G-Sync aufgewogen wird.
Was wiegt sich da gegenseitig auf!?
Nix, absolut gar nix... Denn es sind zwei bzw. in dem Fall drei verschiedene Möglichkeiten. Der Mehrwert am Ende definiert der Endanwender.

Wenn man auf Ruckler steht wird G-Sync das Spielgefühl verschlechtern, ja. Aber ich gehe mal davon aus, dass du ein flüssiges Bild willst.

Das ist genau was ich meine... wer spricht von Spielgefühl verschlechtern!?
Das stand nirgends auch nur ansatzweise zur Diskusion.

Der Mensch nimmt ab 24Hz bereits Bewegungen als flüssig war. Bis 60Hz kann er Änderungen wahrnehmen. Alles ab 60FPS sollte eigentlich flüssig sein, rein biologisch, selbst bei schnellen Drehungen.
Zwischen 24 und 60 hängt es vom Inhalt/Spiel ab, ob es flüssig ist.
Wieso wollen dann Leute dann trotzdem mehr? Wieso kommt einen ein Kinofilm mit 24FPS flüssiger vor als BF4 mit 50FPS?
Das Stichwort heißt Synchronität (Siehe Video).
Der Mensch kann extrem schnelle Änderungen nicht verarbeiten. Wenn von einem Frame auf den anderen Frame das Bild während einer kontinuierlichen Bewegung plötzlich einfriert so nehmen wir das subjektiv wahr. Genau das passiert bei VSync. Die GPU berechnet eine flüssige Bewegung des Bildes (Drehung des Spielers). Damit das funktioniert muss die GPU das Bild für eine bestimmte Anzeigedauer vorberechnen. Die technisch unmögliche perfekte Synchronisation durch VSYNC bewirkt, dass einzelne Frames nur millisekunden länger oder kürzer angezeigt werden, als die GPU eigentlich für deren Anzeige vorberechnet hatte. Ergo...es kommt zu subjektiven "Unrund/Ruckeln/NichtFlüssig" Gefühl. Und jetzt kommts......wait for it......wait for it.....mit steigender FPS nimmt dieser Effekt ab, da die Abweichung zwischen vorberechneter Anzeigedauer und tatsächlich stattgefundener Anzeigedauer geringer wird.
Bei GSync steuert die GPU den Monitor. Jeder Frame wird genau solange angezeigt wie von der GPU gewünscht, die beschriebenen Abweichung sollten praktisch verschwinden......und d.h.....und damit schließe ich jetzt ab...Du erreichst den Punkt wo es für dich subjektiv wirklich "Rund/Ruckelfrei/Flüssig" ist mit GSync früher als mit VSync und brauchst daher weniger GPU Power. Das ist genau der Punkt von GSync.

So also ich habe mal die markanten Stellen gekennzeichnet.
Was ändert das jetzt an der Aussage, das sich sagte, genügend FPS Leistung muss vorhanden sein, damit überhaupt erstmal ein flüssiges Spielempfinden eintritt!?
Es ist und bleibt schlicht und ergreifend so, das die Anzahl der gezeigten Bilder pro Sekunde ein gewisses Level erreichen müssen, damit es flüssig wirkt. Dazu kommt, es hängt von der "Art" der Szene ab. Ein schneller Shooter neigt eher zu rucklern als ein sehr gemächliches Strategiespiel. An diesem Umstand kann G-Sync NULL ändern.
Denn das liegt einfach in der Natur der Bewegung. Bei 60 Hz liegt die Refreshrate im besten Fall bei syncronen ~16,67ms.
Das heist, alle 16,67ms springt das bewegte Objekt um einen gewissen Abstand auf dem Schrim weiter. Und ja, springt ist hier das richtige Wort. Denn es wird nicht alle 1ms refresht, oder alle 0,1ms usw. Es ist ein springen. Dieses Springen fällt um so stärker ins Gewicht, wenn A) die Bewegungsgeschwindigkeit zunimmt, B) die zurückgelegte Distanz des Objektes bei gleicher Zeit größer wird und C) die Darzustellende Fläche ansich größer wird.
Oder eben D) wenn die FPS Rate verkleinert wird!! Bzw. nicht ein gewisses Level erreicht...



PS: und ich habe mir das Video jetzt nochmals genau angesehen...
Auffallend ist, das hier alle auf dieses Video pochen. Mir zumindest fällt aber ebenso auf, das das Video einen Punkt ebenso bestätigt, den ich hier aufführte. ~3:50.
Wörtlich (wenn ich das richtig höre): "they should look identical. They both rendering perfectly!
Mhhh komisch das links 60 Hz/60 FPS im VSync und rechts G-Sync bei 60 FPS und ebenso 60 Hz aktiv war...
Offenbar ist aber links (keine Ahnung ob ich das verpasst habe) adaptives VSync aktiv. FPS Raten unter 60 Hz (in dem Fall) heist auch es wirkt im Grunde nicht... Wie auch, es ist unsyncron zur Hz Zahl. Das stottern kommt freilich wie oben mehrfach aufgeführt wurde. Entgegen adaptivem VSync sollte die normale Methode (kann man ja ausknipsen) egal ob 40 oder 50 FPS (im Beispiel des Videos) immer auf 30 zurückfallen.
Aber das war nicht meine Aussage!!
Es ging darum (und das bestätigt das Video ebenso) festzustellen, das VSync 60 Hz/FPS offenbar das gleiche Ergebnis zeigt wie G-Sync bei 60 Hz/FPS.
Jetzt komm ich und sage, stell 50 Hz fix und aktiviere VSync -> syncron und perfekt.
Nimm dir nen 120Hz Monitor, stelle auf 80 Hz -> aktiviere VSync -> syncron und perfekt.
Das gleiche lässt sich beliebig fortführen mit so ziemlich jeder FPS/Hz Rate, die der Monitor darstellen kann. Hier und jetzt stand heute :wink:
Du bist sogar soweit "flexibel", das du hohe Hz Zahlen bei halber FPS fahren kannst. Nämlich indem du nen Framelimiter rein drückst...

Das ändert nix daran, das das mit G-Sync nicht alles irgendwie hinfällig wird. Nur das wir uns da nicht falsch verstehen...
Dennoch bleibt es aus meiner Sicht eine Alternative für die jenigen, die A) kein Geld ausgeben wollen und/oder B) das ganze womöglich mit AMD Hardware ähnlich gut wollen usw.

Kannst du bitte diesen Fanboy-Mist aus dem Thread lassen? Bisher blieb das Thema, bis auf fdsonnes Stichelei, davon verschont und es wäre schön, könntest auch du dich zusammenreißen.

Ich habe ihn zitiert. Wenn dir das zu einfach ist kannst du dich ja durch seine Posts wühlen, tu dir keinen Zwang an.

Und Beispiele habe ich nun wirklich zu Hauf gebracht.

jetzt mach aber mal nen Punkt... Was soll der Mist? Ließt du meine Beiträge überhaupt!?
Ich weis fällt schwer bei viel Text, ändert aber nix an der Tatsache, das mit oder ohne viel Text die entscheiden Informationen gar nicht berücksichtigt werden, erfolgreich ignoriert werden oder sonstwie untergehen.

Hier stichelt niemand, ich kann nix dafür, wenn so mancher hier alles scheinbar pauschal gut findet. Ohne Aufwand/Nutzen abzuwiegen.
Und das hat hier im Grunde fast niemand gemacht. Wenn ja, bitte zeig mir die Beiträge dazu!

Sorry, aber das was du da von mir zusammen gequotet hast, ist irgendwie reichlich zusammenhangslos.
Denn du beziehst dich mit deinen Aussagen scheinbar einzig auf das Video. Das Video bestätigt meine Aussage aber. -> siehe ein paar Zeilen weiter oben.
Die anderen Fallbeispiele die ich brachte, laufen mit größter Warscheinlichkeit analog dazu... :wink:
Unterm Strich bleibt die Flexibilität der nicht starren FPS Rate bei G-Sync, das allseits beliegte Thema Inputlag und die Frage, ob es einem das Wert ist!

Selbstverständlich meine ich nur das, was G-Sync auch erträglicher machen kann; nämlich Framedrops. Mikroruckler durch die CPU sind nochmal ein anderes Thema.
Das die Bilder nicht flüssiger werden ist eine Behauptung von dir, die unbewiesen ist. Alle Berichte von Redakteuren über die Demo und Tomb Raider sagen das Gegenteil. Man kann diese natürlich kritisch sehen und sagen, dass man sich noch kein Urteil erlauben will wie du es selbst an anderer Stelle tust oder zumindest noch keins zur Wirkung in bestimmten Spielen, aber unbelegt einfach das Gegenteil zu behaupten ist unsinnig.

Und besagte Berichte der Redakteure haben mehr praktische Erfahrung als du, ich oder wer auch immer außerhalb von NV!?
Das ist natürlich ein Totschlagargument gegen Zweifler an dieser Technik :haha:

Und nochmal, das flüssigkeitsempfinden bestimmter Szenen mit bestimmten FPS Raten kannst du nachstellen.
Fixier die Hz Zahl deines Monitors auf die zu testenden Werte und aktivier VSync. :wink:
Kann das dein Monitor nicht unterhalb von 60 Hz, besorg dir ein 120 Hz Modell und dreh zutestende Werte *2. Solange du sicher stellst, das deine FPS Rate nicht die der Hz Zahl übersteigt und KEIN! adaptives VSync aktiv ist, hast du genau den gleichen Effekt. Nämlich das Bild und GPU Ausgabe syncron sind... Bestätigung dazu im Video (~3:50 im Fallbeispiel von 60Hz bei aktivem VSync)
 
Zuletzt bearbeitet:
Ehrlich. Ist dir der Unterschied zwischen 60 und 110FPS nicht klar?
Du sagst hier "man muss genügend Frames" haben. Eine superdupertolle Aussage. Dumm nur, dass du das erst nach dem Durchspielen weißt, an welchen Stellen(!) deine Frames(!!) mit welchen Einstellungen(!!!) aussehen und nicht vorher.
 
Da hast du natürlich recht...
Aber dafür gibt es Benches... ;)
Und es braucht mir niemand erzählen, das man das nicht rausbekommt...
Adequate System zur eigenen Konfig gibts oftmals wie Sand am Meer und die Leute schmeißen mit FPS Zahlen umsich. Mal ganz davon ab, kann dir das Problem mit den unbekannten FPS immer passieren. Und das völlig abseits von G-Sync, VSync oder weis der Teufel was, wenn in Level A) deine Settings gerade so langen und in Level B) nicht. Scheinbar ist das wählen der spielbaren Settings kein Problem für die Masse... Warum sollte das wählen der minimal Einstellung also eins darstellen!?
Wenn es hart auf hart kommt, limitiert auf den Wert der min FPS und gut ist.

PS: und doch mir ist der Unterschied zwischen 60 und 110 sonnenklar...
Nur ändert das Wissen darüber an meiner Kernaussage nix.
 
Zuletzt bearbeitet:
war245 schrieb:
Selbstverständlich meine ich nur das, was G-Sync auch erträglicher machen kann; nämlich Framedrops.

Gegen Framedrops hilft das gar nichts,die gibt es nach wie vor, was du meinst ist wohl kein Tearing.

Das die Bilder nicht flüssiger werden ist eine Behauptung von dir, die unbewiesen ist.

Lese halt mal, es geht um dein Battlefield 3 Beispiel und da wird G-sync sicherlich nicht Problematiken eleminieren, wie CPU Limit oder die Serverproblematik die so und so Ruckler ergibt, g-sync eleminiert nur Monitorprobleme.

Das die Bilder nicht flüssiger werden ist eine Behauptung von dir, die unbewiesen ist.

Erstmal muss man beweisen, dass es wirklich etwas bringt und wir sind immernoch bei deinem Beispiel und nicht bei der allgemeingültigkeit.

nur ohne deinen Fanboy-Müll.

Und was ist konkret der Müll?

Ernsthaft schau halt in den besagten Post.

Post Nr.?
 
Was wiegt sich da gegenseitig auf!?
Nix, absolut gar nix... Denn es sind zwei bzw. in dem Fall drei verschiedene Möglichkeiten. Der Mehrwert am Ende definiert der Endanwender.

Du versucht es gegeneinander aufzuwiegen. Das macht keinen Sinn, weil es wie du selbst sagst verschiedene Möglichkeiten sind. Sollte es dir nur darum gehen, dass P/L-Verhältnis gegeneinander aufzuwiegen unter dem Motto A lohnt sich mehr als B macht das aus meiner Sicht ebenfalls keinen Sinn, weil die Kosten für G-Sync im Vergleich zu 4K minimal sind.

Das ist genau was ich meine... wer spricht von Spielgefühl verschlechtern!?
Das stand nirgends auch nur ansatzweise zur Diskusion.

Du schriebst (schau bitte in das Zitat in meinem Post), dass das Spielgefühl anders werde, es aber nicht sicher sei ob es auch besser werde. Das verstand ich wie folgt: Es wird auf jedenfall anders, könnte aber deiner Meinung nach, wenn du eine Verbesserung denn als nicht gesichert siehst, folglich auch schlechter werden. Darauf habe ich reagiert.

jetzt mach aber mal nen Punkt... Was soll der Mist? Ließt du meine Beiträge überhaupt!?
Ich weis fällt schwer bei viel Text, ändert aber nix an der Tatsache, das mit oder ohne viel Text die entscheiden Informationen gar nicht berücksichtigt werden, erfolgreich ignoriert werden oder sonstwie untergehen.

Hier stichelt niemand, ich kann nix dafür, wenn so mancher hier alles scheinbar pauschal gut findet. Ohne Aufwand/Nutzen abzuwiegen.
Und das hat hier im Grunde fast niemand gemacht. Wenn ja, bitte zeig mir die Beiträge dazu!

Ich habe darauf angespielt, dass du vorhin meintest ich "pflaume dich an" weil ich Nvidia-Fanboy sei. Darauf habe ich mich bezogen, weil Schaffe89 versucht hat in die selbe Kerbe zu schlagen.

Sorry, aber das was du da von mir zusammen gequotet hast, ist irgendwie reichlich zusammenhangslos.
Denn du beziehst dich mit deinen Aussagen scheinbar einzig auf das Video. Das Video bestätigt meine Aussage aber. -> siehe ein paar Zeilen weiter oben.
Die anderen Fallbeispiele die ich brachte, laufen mit größter Warscheinlichkeit analog dazu... :wink:
Unterm Strich bleibt die Flexibilität der nicht starren FPS Rate bei G-Sync, das allseits beliegte Thema Inputlag und die Frage, ob es einem das Wert ist!

Es ging nicht um das Video an sich, ich habe in diesem Post nur deine Widersprüche abgehandelt.

Und besagte Berichte der Redakteure haben mehr praktische Erfahrung als du, ich oder wer auch immer außerhalb von NV!?
Das ist natürlich ein Totschlagargument gegen Zweifler an dieser Technik :haha:

Die Redakteure, die das am Beispiel Tomb Raider sehen konnten haben selbstverständlich mehr praktische Erfahrung als du und ich. Es mag zwar wenig sein, aber es ist mehr als garkeine.
Dabei habe ich das aber eben nicht mal als Totschlagargument verwendet, schließlich habe ich selbst direkt daraufhin gesagt, dass es legitim ist es weiterhin kritisch zu sehen. Nur aus den Berichten der Redakteure ohne jeden Hinweis darauf auf das genaue Gegenteil zu schließen halte ich für unsinnig.

Und nochmal, das flüssigkeitsempfinden bestimmter Szenen mit bestimmten FPS Raten kannst du nachstellen.
Fixier die Hz Zahl deines Monitors auf die zu testenden Werte und aktivier VSync. :wink:
Kann das dein Monitor nicht unterhalb von 60 Hz, besorg dir ein 120 Hz Modell und dreh zutestende Werte *2. Solange du sicher stellst, das deine FPS Rate nicht die der Hz Zahl übersteigt und KEIN! adaptives VSync aktiv ist, hast du genau den gleichen Effekt. Nämlich das Bild und GPU Ausgabe syncron sind... Bestätigung dazu im Video (~3:50 im Fallbeispiel von 60Hz bei aktivem VSync)

Schön, dass ich das nachstellen kann. Will ich nun für jedes Spiel das ganze austarieren, jedes mal umstellen und auf alle FPS die über dem Minimalwert liegen verzichten? Nein, will ich nicht.

- - - Updated - - -

Gegen Framedrops hilft das gar nichts,die gibt es nach wie vor, was du meinst ist wohl kein Tearing.

Lese halt mal, es geht um dein Battlefield 3 Beispiel und da wird G-sync sicherlich nicht Problematiken eleminieren, wie CPU Limit oder die Serverproblematik die so und so Ruckler ergibt, g-sync eleminiert nur Monitorprobleme.

Es geht darum, dass ich bei Framedrops, die von einem temporären CPU-Limit herrühren können (daher mein Beispiel) ich nicht plötzlich Tearing und ungleichmäßigere Frames bekomme.

Erstmal muss man beweisen, dass es wirklich etwas bringt und wir sind immernoch bei deinem Beispiel und nicht bei der allgemeingültigkeit.

Ich bin eigentlich die ganze Zeit bei einer Allgemeingültigkeit. Um meine Erläuterungen verständlicher zu gestalten greife ich zwar auf Beispiele zurück, dass heißt aber nicht, dass es mir nur um diesen einen Fall geht.

Und was ist konkret der Müll?

Viel, aber an dieser Stelle meinte ich mit Müll deine Fanboy-Unterstellungen. Ich dachte das ginge aus Kontext und Zitat hervor.


Schau ich jetzt nicht nach, war halt der auf den du dich bezogen hast.
 
Zuletzt bearbeitet:
Da hast du natürlich recht...
Aber dafür gibt es Benches... ;)
Und es braucht mir niemand erzählen, das man das nicht rausbekommt...

Klar. Nachdem ich es weiß. Du willst hier doch nicht behaupten, dass du von den ersten 5 Minuten auf die restlichen 595 Minuten Rückschlüsse ziehen willst?!

Adequate System zur eigenen Konfig gibts oftmals wie Sand am Meer und die Leute schmeißen mit FPS Zahlen umsich. Mal ganz davon ab, kann dir das Problem mit den unbekannten FPS immer passieren. Und das völlig abseits von G-Sync, VSync oder weis der Teufel was, wenn in Level A) deine Settings gerade so langen und in Level B) nicht. Scheinbar ist das wählen der spielbaren Settings kein Problem für die Masse... Warum sollte das wählen der minimal Einstellung also eins darstellen!?
Wenn es hart auf hart kommt, limitiert auf den Wert der min FPS und gut ist.

Lol, hörst du dir eigentlich selbst zu?
Na gut, vielleicht spielst du auch nur in 720p mit den geringsten Einstellungen, um wirklich immer 60FPS zu erreichen. Ansonsten ist das im Zitat einfach nur Quatsch.

PS: und doch mir ist der Unterschied zwischen 60 und 110 sonnenklar...
Nur ändert das Wissen darüber an meiner Kernaussage nix.

Hm, stimmt.
Weniger als 60FPS sind für dich nicht hinnehmbar, mehr als 60FPS vollkommen überflüssig.

2 x 3 macht 4 -
widdewiddewitt und 3 macht 9e !
Ich mach' mir die Welt - widdewidde wie sie mir gefällt ...

Passt perfekt.
 
Stelle die Hertz Zahl deines Monitors runter und aktiviere V-sync, da kannst du je nach Szenario das gleiche erreichen.
Den einzigen Vorteil den G-sync hat ist, dass das automatisch passiert, um das mal klar zu stellen, so amazing ist das ganz und gar nicht, fdsonne hat das super erklärt.
 
Stelle die Hertz Zahl deines Monitors runter und aktiviere V-sync, da kannst du je nach Szenario das gleiche erreichen.
Den einzigen Vorteil den G-sync hat ist, dass das automatisch passiert, um das mal klar zu stellen, so amazing ist das ganz und gar nicht, fdsonne hat das super erklärt.

Ich muss das erst mal für jedes Spiel einzeln austarieren, da ich den Minimalwert nicht vorhersehen kann, da hat Sontin vollkommen recht. Dann muss ich das für jedes Spiel einzeln einstellen, auf alle FPS die über diesem Minimalwert liegen verzichten, einen VSync- bzw. Triplebuffering-bedingten Inputlag hinnehmen und bei Framedrops ist dann doch wieder alles im Eimer und ich habe Tearing und unregelmäßige FPS. Ich empfinde das nicht als ebenbürtig.
 
Du versucht es gegeneinander aufzuwiegen. Das macht keinen Sinn, weil es wie du selbst sagst verschiedene Möglichkeiten sind. Sollte es dir nur darum gehen, dass P/L-Verhältnis gegeneinander aufzuwiegen unter dem Motto A lohnt sich mehr als B macht das aus meiner Sicht ebenfalls keinen Sinn, weil die Kosten für G-Sync im Vergleich zu 4K minimal sind.
Eben nicht... Ich wiege Koste und Nutzen gegeneinander ab...
Und hier stehen beispielsweise 4k Auflösung mit einem Preis X
hier stehen 120/144Hz mit einem Preis Y
und hier steht G-Sync mit einem Preis Z
Alles in Summe zu haben wäre mit größter Warscheinlichkeit perfekt (nach aktuellem Maßstab) aber darum gehts nicht...
Mir gehts eher darum, das ich durch 4k mehr geboten bekomme als durch G-Sync. Und ich bekomme mit 120/144Hz Monitoren ebenso mehr geboten. -> meine Sicht der Dinge.
Denn der entscheidende Punkt bei mir ist, das sich bei mir unter 60 FPS je nach Spiel und Szene ein ruckelempfinden einstellt. Das liegt nicht an nicht syncronen Bildern, sondern einfach in der Natur der Dinge, wenn Objektive mit einer gewissen Geschwindigkeit über eine Fläche wandern, wärend die Fläche zur Darstellung der Bewegung eben nur vergleichsweise große Refreshrates kann...
Dieses Verhalten geht nur durch höhere FPS Raten soweit zu verringern, das es nicht mehr auffällt. (überwiegend) Und hier hilft mir G-Sync sogut wie gar nicht. Deswegen ist es auch kein Mehrwert für mich, da ich versuchte so schon alles über 60 FPS zu halten um ggf. mit VSync bei fixen 60 FPS/Hz zu spielen.

Du schriebst (schau bitte in das Zitat in meinem Post), dass das Spielgefühl anders werde, es aber nicht sicher sei ob es auch besser werde. Das verstand ich wie folgt: Es wird auf jedenfall anders, könnte aber deiner Meinung nach, wenn du eine Verbesserung denn als nicht gesichert siehst, folglich auch schlechter werden. Darauf habe ich reagiert.
Ich sehe das weniger differenziert... Wenn ich durch eine Methode (G-Sync) eine Detailverbesserung bekomme, die ein Stückweit einem Problem entgegen wirkt (Flüssigkeitsempfinden durch syncrone Bilder), wohingegen aber ein anderer Umstand (zu niedrige FPS) das ganze Problem (rucklig) aber erst überhaupt aufzeigt, dann schraube ich doch eher am eigentlichen Problemumstand als an irgend nem Detail!?
Deswegen oben auch die Ausflüge zur GPU Leistung... Kann meine GPU nur 30 FPS im Schnitt, mit mal mehr, mal weniger FPS darstellen, sind auch syncrone 30 FPS/Hz rucklig.
Das Spielgefühl ist also nicht besser. Und auch nicht schlechter, sondern einfach anders... Aber besser wäre es erst, wenn es nicht mehr ruckeln würde.

Ich habe darauf angespielt, dass du vorhin meintest ich "pflaume dich an" weil ich Nvidia-Fanboy sei.

Böse unterstellung!!
Das F-Wort habe ich hier in keinster Weise erwähnt :(

Die Redakteure, die das am Beispiel Tomb Raider sehen konnten haben selbstverständlich mehr praktische Erfahrung als du und ich. Es mag zwar wenig sein, aber es ist mehr als garkeine.

Das Problem ist doch aber, das aufbauend auf dem Video eben genau der eine Umstand, der hier wichtig wäre zu testen, außen vor blieb...
Und ich behaupte, auch NV hat nicht mit den Hz Raten und VSync rumgespielt bzw. die Redaktionen haben davon nix gesehen im Vergleich. Auch wäre NV schön blöd, wenn sie zeigen würden, wie man ein ähnliches Endresultat hier und heute für lau bekommt -> und das bei der Demonstration von G-Sync :wink:
 
Ich muss das erst mal für jedes Spiel einzeln austarieren, da ich den Minimalwert nicht vorhersehen kann, da hat Sontin vollkommen recht. Dann muss ich das für jedes Spiel einzeln einstellen, auf alle FPS die über diesem Minimalwert liegen verzichten, einen VSync- bzw. Triplebuffering-bedingten Inputlag hinnehmen und bei Framedrops ist dann doch wieder alles im Eimer und ich habe Tearing und unregelmäßige FPS. Ich empfinde das nicht als ebenbürtig.

Ja aber wo ist das Problem!?
Scheinbar bekommt jeder hin irgendwie Settings zu finden, die für ihn spielbar sind...
Bei so jeglicher Hardware... Da spielen Leute Crysis 3 oder BF3 auf Hornalt Hardware und meinen das geht irgendwie. Und da wissen die Leute auch nicht, was nach 5min oder 60min Spielzeit für FPS anliegen werden...
Meinst du nicht, da wäre es irgendwie möglich die Settings so zu wählen, das der entsprechend angepeilte Minimumwert hinten bei rum kommt!?

Das es ein Aufwand ist, hier das "Optimum" zu finden, steht außer Frage, dafür kost es auch nix. Perfekt ist was anderes...

Und nein, es ging immernoch nicht darum, das so eine Methodik G-Sync "ebenbürtig" wäre. Sondern den Kosten/Nutzenfaktor abzuwiegen... Und auf der Kostenseite steht dann eben nur das austarieren der Settings für die angepeilte FPS Rate... Anstatt eben 180€/$ für ein G-Sync Device.

Hm, stimmt.
Weniger als 60FPS sind für dich nicht hinnehmbar, mehr als 60FPS vollkommen überflüssig.

Wieder nicht gelesen!?
Mal ganz davon ab, das diese Aussage so gar nix mit der Frage nach dem Unterschied zwischen 60 und 110 FPS zu tun hat :haha:
Gehst du über die VSync Methode, kannst du den Spaß (un)bequem bis zur maximalen Hz Zahl des Monitors skalieren. Gesetz dem Fall, die liegt als min FPS an... :wink:
Wenn nicht, hast du immernoch kein Geld investiert -> dafür aber auch kein syncrones Bild.
 
Eben nicht... Ich wiege Koste und Nutzen gegeneinander ab...
Und hier stehen beispielsweise 4k Auflösung mit einem Preis X
hier stehen 120/144Hz mit einem Preis Y
und hier steht G-Sync mit einem Preis Z
Alles in Summe zu haben wäre mit größter Warscheinlichkeit perfekt (nach aktuellem Maßstab) aber darum gehts nicht...
Mir gehts eher darum, das ich durch 4k mehr geboten bekomme als durch G-Sync. Und ich bekomme mit 120/144Hz Monitoren ebenso mehr geboten. -> meine Sicht der Dinge.
Denn der entscheidende Punkt bei mir ist, das sich bei mir unter 60 FPS je nach Spiel und Szene ein ruckelempfinden einstellt. Das liegt nicht an nicht syncronen Bildern, sondern einfach in der Natur der Dinge, wenn Objektive mit einer gewissen Geschwindigkeit über eine Fläche wandern, wärend die Fläche zur Darstellung der Bewegung eben nur vergleichsweise große Refreshrates kann...
Dieses Verhalten geht nur durch höhere FPS Raten soweit zu verringern, das es nicht mehr auffällt. (überwiegend) Und hier hilft mir G-Sync sogut wie gar nicht. Deswegen ist es auch kein Mehrwert für mich, da ich versuchte so schon alles über 60 FPS zu halten um ggf. mit VSync bei fixen 60 FPS/Hz zu spielen.

Gut, wenn bei dir sowieso alles immer mit 60 FPS läuft und dir die anderen Punkte wie verlorene FPS und Inputlag egal sind (der Meinung kann man ja sein), dann ist G-Sync für dich irrelevant.

Ich sehe das weniger differenziert... Wenn ich durch eine Methode (G-Sync) eine Detailverbesserung bekomme, die ein Stückweit einem Problem entgegen wirkt (Flüssigkeitsempfinden durch syncrone Bilder), wohingegen aber ein anderer Umstand (zu niedrige FPS) das ganze Problem (rucklig) aber erst überhaupt aufzeigt, dann schraube ich doch eher am eigentlichen Problemumstand als an irgend nem Detail!?
Deswegen oben auch die Ausflüge zur GPU Leistung... Kann meine GPU nur 30 FPS im Schnitt, mit mal mehr, mal weniger FPS darstellen, sind auch syncrone 30 FPS/Hz rucklig.
Das Spielgefühl ist also nicht besser. Und auch nicht schlechter, sondern einfach anders... Aber besser wäre es erst, wenn es nicht mehr ruckeln würde.

Schwanken meine FPS hingegen zwischen 40 und 70 profitiere ich massiv, außer ich begnüge mich mit fixierten 40 FPS.

Böse unterstellung!!
Das F-Wort habe ich hier in keinster Weise erwähnt :(

Ich wollte dich auch nicht schlecht darstellen, es ging mir in dem Post in dem ich die Anspielung erwähnt habe um eine Reaktion auf den Post von Schaffe89.

Das Problem ist doch aber, das aufbauend auf dem Video eben genau der eine Umstand, der hier wichtig wäre zu testen, außen vor blieb...
Und ich behaupte, auch NV hat nicht mit den Hz Raten und VSync rumgespielt bzw. die Redaktionen haben davon nix gesehen im Vergleich. Auch wäre NV schön blöd, wenn sie zeigen würden, wie man ein ähnliches Endresultat hier und heute für lau bekommt -> und das bei der Demonstration von G-Sync :wink:

"Ähnlich" und "für lau" sind halt sehr dehnbar, in meinem Post an Schaffe89 habe ich weiter oben aufgelistet, was mir an der Methode missfällt. Wenn das alles für dich ok ist ist das schön, aber für mich ist G-Sync eine tolle Neuerung die das aufgelistete besser macht/löst und die ich bei einem Neukauf miterwerben werde, außer sie enttäuscht in Praxistests oder kommt nur mit billigen TN-Paneln daher.

Anstatt eben 180€/$ für ein G-Sync Device.

Wir werden sehen. Sagen wir 2014 kommt, wie von Asus in einem Interview bei der PCGH angedeutet, tatsächlich ein Monitor mit IPS 2560x1440 und 120 Hz. Wenn da dann noch ein kleiner Aufschlag für G-Sync draufkommt macht das den Braten auch nicht mehr fett. Diese 180$ sind ja erstmal nur die UVP für das Nachrüstkit, soweit ich weiß.
 
Zuletzt bearbeitet:
Genau FDSOnne: nVidia zeigt, dass man ja alle möglichen Hz Zahlen von 30 bis unendlich selbst per Hand einstellen kann.
Denn wir wissen: Nur der Mensch ist in der Lage in die Zukunft zu schauen und den Zeitintervall zu ermitteln, die das System für einen neuen Frame braucht.

Du bist echt unglaublich. Entweder bin ich Intelligenter als der Durchschnitt oder hier wird gerade mit massiven Trollnonsens versucht Techniken gewisser Firmen schlecht zu reden...

Achja, nVidia hat es gezeigt. Die haben nämlich das Verhalten bei 60FPS mit TB gegen 60FPS mit G-Sync verglichen. Aber du musst dir ja auch nicht die Videos ansehen. Du warst ja längst schon in der Zukunft, wenn die Produkte erhältlich sind. :lol:

/edit: Der Preisunterschied für den 144Hz Monitor liegt bei $110. Wem das zuviel ist, der kauft auch erst recht keinen 144Hz Monitor für $280, sondern einen wesentlich günstigeren.
 
Zuletzt bearbeitet:
Gut, wenn bei dir sowieso alles immer mit 60 FPS läuft und dir die anderen Punkte wie verlorene FPS und Inputlag egal sind (der Meinung kann man ja sein), dann ist G-Sync für dich irrelevant.



Schwanken meine FPS hingegen zwischen 40 und 70 profitiere ich massiv, außer ich begnüge mich mit fixierten 40 FPS.

Wie gesagt, in meinem Fall Game/Szenenabhängig. Ein ruhiges Strategiespiel kann ich auch bei weniger spielen. Wärend der schnelle Shooter eher mehr als zu wenig FPS "benötigt".
Hier bietet G-Sync zweifelsfrei die Flexibilität sich ruhig zurück lehnen zu können und das einfach die Hardware machen zu lassen...
Will man dies nicht zahlen, bekommt man aber trotzdem Möglichkeiten mit halbwegs vergleichbarem Endresultat was das Flüssigkeitsempfinden und Tearing angeht.

Und man muss ja nicht zwingend auf min. FPS fixen. Weiterführend interessant ist ja die Dauer der min FPS. Wenn ich in 120min Spielzeit auf wenige Sekunden lang 40 FPS habe, weil irgend ein blöder Framedrop, dafür in diesen 120min überwiegend 50+ FPS anliegen, kann man ja auch auf 50 fixen. Das 50 natürlich keine 60 oder 100 sind, steht außer Frage.
In Kombination mit dem eingesetztem Monitor ist ja dann das max. eher bei der Hz Rate zu suchen. G-Sync bei maximal möglichen 60 Hz bringt halt nach oben hin auch nix mehr. Sprich potentielle 100 FPS, die eine Hardware schaffen würde, wären bei G-Sync wohl auch nur 60 FPS/Hz...

Der Test muss natürlich Praxisnah erfolgen. Das bringt mir nix, wenn ich im BF3 MP über die Karte latsche und in den Himmel schaue und darauf die Werte definiere... Kaum knallt es, und die FPS rutschen auf 30 oder sowas runter.
Dann ist das natürlich für die Katz... Aber um so höher die Power der GPU, desto weniger hoch läuft man wohl Gefahr, das man hier FPS drops in Regionen bekommt, die ungünstig für das Flüssigkeitsempfinden sind. Und dann ist halt auch der praktische Vorteil von G-Sync ein Stück weit dahin. Denn von 60+ auf 30 runter wird man wohl definitiv auch mit G-Sync spüren. Kann ich zwar nicht belegen, würde ich aber behaupten.

PS: weis einer wie das ganze mit MGPU ausschaut? Speziell, wenn Framemetering nicht sauber schafft, die Frametimes zu glätten!?

"Ähnlich" und "für lau" sind halt sehr dehnbar, in meinem Post an Schaffe89 habe ich weiter oben aufgelistet, was mir an der Methode missfällt. Wenn das alles für dich ok ist ist das schön, aber für mich ist G-Sync eine tolle Neuerung die das aufgelistete besser macht/löst und die ich bei einem Neukauf miterwerben werde, außer sie enttäuscht in Praxistests oder kommt nur mit billigen TN-Paneln daher.

für lau meinte dabei eigentlich ausschließlich den Preis... Da es keine mehr Kosten in Geldform erzeugt. :wink:

Genau FDSOnne: nVidia zeigt, dass man ja alle möglichen Hz Zahlen von 30 bis unendlich selbst per Hand einstellen kann.

Keine Ahnung woher du das hast, aber wo behauptet sowas!?

Achja, nVidia hat es gezeigt. Die haben nämlich das Verhalten bei 60FPS mit TB gegen 60FPS mit G-Sync verglichen.

Was ist TB!?
Ich weis nicht, ob du das besagte Video der Präsentation gesehen hast, aber anscheinden nicht... :wall:
Aber andere hier anmachen... Nichts anderes war zu erwarten von dir. Sachlichkeit = NULL, Argumente = NULL. Aber das Techniken gewisser Firmen pauschal erstmal verteidigen...
 
Zuletzt bearbeitet:
Sag mal. Und das interessiert mich jetzt wirklich:
Wenn Leute dir erklären, dass man erst in der Zukunft weiß, was in der Vergangenheit passiert ist, solltest du vielleicht nichtmal deine vollkommen sinnlose Ansicht überdenken?

Verstehst du das nicht? Ist es dir einfach nicht bewusst? Oder glaubst du wirklich, dass du Kassandra bist und die Zukunft kennst?!
 
meine vollkommen sinnlose Ansicht scheint sich irgendwie mit den Aussagen der PCGH über G-Sync zu decken...
Komisch oder!?
Zitat gefällig: "Machtlos ist G-Sync bei Stottern und niedrig-ruckligen Fps"
Noch eins? "Zwischen Hühneraugen, Fußpilz und Akne hatte man also nur die Wahl, konnte aber nicht alle drei auf einmal loswerden - außer, wenn man sehr potente Hardware sein eigen nennt, die wirklich konstant, also auch unter widrigen Umständen, die 60 Fps halten kann oder man auf entsprechend viele Spieldetails verzichtet, um dies zu erreichen"

Und noch was, wenn du schlicht keine Ahnung hast, die dir vom Hersteller zur Verfügung gestellten Mittel und Wege dahingehend zu benutzen, das du das beste Spielgefühl auf deinem Schirm hast, ist das schlicht nicht mein Problem. Also fang nicht an, mir hier irgendwas erzählen zu wollen, von Sachen, wo du offenbar keine Erfahrung hast oder wenigstens mal reingeschaut hast...

Und sontin, woher kennst du meinen Namen!? :fresse:
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh