50FPS sind nicht gleich 50FPS lol

FANLISTinfo

Neuling
Thread Starter
Mitglied seit
25.01.2015
Beiträge
91
Ort
Hamburg-Maschen
Moin, eben hab ich aus langweile gerechnet.
Also die GPU gibt 50FPS an unseren Monitor der 60hz hat.
Man würde jetzt denken das man 50Fps hat, das ist weit mehr als das was wir sehen. Monitor bekommt 50Fps aber wir sehen nur laut meiner Berechnung ca 40-42FPS.
Das ist voll krass. Es werden 8-10 FPS vom Monitor verschluckt.

So wie ich das sehe kommt man ohne Gsync/FreeSync nicht mehr aus.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Es kommen btw tatsächlich weniger "FPS" am Monitor an. Das ist aber den unterschiedlichen Frametimes bei 60hz bzw. 50fps geschuldet...
Trotzdem keine neue Erkenntnis und die Rechtschreibung im OP ist unter aller Sau :fresse:
 
Man würde jetzt denken das man 50Fps hat, das ist weit weniger als das was wir sehen.

Also siehst du mehr Bilder als die 50 FPS ? Dein Satz sagt nämlich genau das aus.

Die Berechnung würde mich auch mal interessieren. Ich behaupte einfach mal das das kompletter quatsch sein dürfte.

Und wer schreibt bitte in einen Threadtitel "lol" :wall: Deine Berechnung ist auch total lol ....
 
Zuletzt bearbeitet:
Naja ganz unrecht hat er ja nicht. Es kommt darauf an, wie gleichmäßig die Frames berechnet werden bzw. in welchen Abständen. Bei 60 FPS auf einem 60 Hz Bildschirm werden eventuell nicht 60 FPS angezeigt, wenn z.B. 3 dieser Frames schnell hintereinander berechnet werden (z.B. alle 5 Ms), aber der Monitor ja nur jede 16,6 Ms ein neues Bild anzeigen kann. Kann man mit Frame Buffering entgegen wirken, allerdings erhöht das halt dann den Input Lag.
 
wenn der monitor nur 60Hz hat, werden eben nur diese Bilder (60FPS ohne Lag) eben je nach Synchronisation (mit Lag) ausgegeben, alles andere verworfen!
 
Zuletzt bearbeitet:
wenn der monitor nur 60Hz hat, werden eben nur diese Bilder (60FPS ohne Lag) eben je nach Synchronisation (mit Lag) ausgegeben, alles andere verworfen!


Sag das bloß nicht der Fraktion, die ihre Spiele auf "HighFPS" trimmt weil sie dann angeblich flüssiger laufen usw...alles unter 200FPS geht mal garnicht.
 
wenn der monitor nur 60Hz hat, werden eben nur diese Bilder (60FPS ohne Lag) eben je nach Synchronisation (mit Lag) ausgegeben, alles andere verworfen!
Sicher?
Ich dachte immer, schafft die Graka z.B. 120Fps, dann wird im Schnitt, aber der Hälfte jeden Bildes, das neue Bild angefangen. D.h. man sieht immer nur 50% jedes einzelnen Bildes.
Es bleiben zwar damit immer noch 60 ganze Bilder pro Sekunde, die der Monitor ausgibt, aber (@B.XP) Die Informationen in diesen Bildern, sind aktueller (und eventuell auch flüssiger) als wenn die GPU nur 60Fps liefern würde.
Habe ich da einen Denkfehler?
 
Nicht flüssiger laufen sondern schneller und weiter Springen, hängt aber von der Engine ab. Wurde aber auch schon mehrfach aus technischer Sicht von einigen Redaktionen erläutert, aber du scheinst sehr resistent dagegen zu sein.
 
@DragonTear: Aus der Sicht ist das eher die "brute force" methode, dass bestimmt ein aktuelles Bild eintrudelt

@astra: Ja bei manchen Engines ist das möglich; Die Frage ist ob das dann schon als "bug" gilt oder nicht; Trotzdem hab ich noch einige Diskussionen im Kopf bei denen die Engine das eben nicht mitmacht - und trotzdem derjenige sein Notebook nach einem Monat wieder erbost verscherbelt hat nachdem er keine 200fps hinbekommen hat.

Ich find's nur lustig, dass der TE hier das fordert:
So wie ich das sehe kommt man ohne Gsync/FreeSync nicht mehr aus.

Also aus meiner Sicht kommt man durchaus auch ohne aus, wär halt schöner MIT. Aber ganz ehrlich: Scheint wohl nicht so zu sein. Solange mein Internetanschluss laggt wie blöde brauch ich mir über die 16ms die ein Bild vll. mal verzögert kommt keine Gedanken zu machen. Da werd ich halt erledigt weil ich für den Server VOR der Mauer stehe, nicht dahinter.
 
Also aus meiner Sicht kommt man durchaus auch ohne aus, wär halt schöner MIT. Aber ganz ehrlich: Scheint wohl nicht so zu sein.

Hast du denn überhaupt eigene Erfahrung mit G-Sync und plapperst du nur irgendwas nach? 99% der Leute haben nie G-Sync gesehen und fangen an irgendwelche Fazite zu präsentieren. Verhält sich bei anderen Features wie 4K oder 144 Hz leider genauso.

Solange mein Internetanschluss laggt wie blöde brauch ich mir über die 16ms die ein Bild vll. mal verzögert kommt keine Gedanken zu machen. Da werd ich halt erledigt weil ich für den Server VOR der Mauer stehe, nicht dahinter.

Ich hoffe du erkennst, dass das ganz exklusiv dein Problem ist.
 
Zuletzt bearbeitet:
Don't feed the troll? Naja zu (1) wenn 99% der Leute das nicht gesehen haben, wie kommst du dann darauf, dass es für Spieler im Allgemeinen eine derart große Relevanz besitzt? 1440p IST "nur" eine höhere Auflösung und 144Hz ist auch "nur" mehr Refreshrate. Zugegeben, zusammen sehr beeindruckend, nur eben für 95% aller Spieler nicht relevant - Bzw. Den derzeitigen Aufpreis samt Herstellerbindung nicht wert. Du kannst das gerne anders sehen. Ich störe mich an der Behauptung, dass man derzeit an den Technologien nicht mehr vorbeikommt - was schlicht nicht stimmt. Wir reden hier von einer Technologie die zwar wirksam ist, sich eben noch nicht durchgesetzt hat. Wenn der Zeitpunkt da ist, kann der TE das gerne unwiedersprochen in die Welt posaunen. Zumal das Problem bzw. Seine erkenntnis alles andere als neu ist.

Relevant ist hierzulande (2) - man verzeihe mir die Formulierung: ICH bin nicht exklusiv betroffen. Eigentlich bin gar nicht ich betroffen, dafür viele andere ;-)
 
Sicher?
Ich dachte immer, schafft die Graka z.B. 120Fps, dann wird im Schnitt, aber der Hälfte jeden Bildes, das neue Bild angefangen. D.h. man sieht immer nur 50% jedes einzelnen Bildes.
Es bleiben zwar damit immer noch 60 ganze Bilder pro Sekunde, die der Monitor ausgibt, aber (@B.XP) Die Informationen in diesen Bildern, sind aktueller (und eventuell auch flüssiger) als wenn die GPU nur 60Fps liefern würde.
Habe ich da einen Denkfehler?

was dann nicht synchronisiert wäre(bildfehler, Unschärfe zB), manche Spiele werden dadurch schneller aufgrund der Engine aber nicht flüssiger, ob man einen vorteil hat weiß ich nicht.

konstante 100FPS wären für mich vorteilhaft mit freesync/gsync.
 
Zuletzt bearbeitet:
wenn 99% der Leute das nicht gesehen haben, wie kommst du dann darauf, dass es für Spieler im Allgemeinen eine derart große Relevanz besitzt?

Habe ich das geschrieben? Ich habe geschrieben, dass Leute, welche auf dem Gebiet keine Erfahrung haben, dazu einfach mal nichts sagen sollten. Ob G-Sync für das optimale Spielerlebnis nötig oder nicht nötig ist, kann man ohne Erfahrung wohl kaum sagen.

1440p IST "nur" eine höhere Auflösung und 144Hz ist auch "nur" mehr Refreshrate. Zugegeben, zusammen sehr beeindruckend, nur eben für 95% aller Spieler nicht relevant

So sinnlos der Thread auch formuliert ist, kann man doch erkennen, dass er vom "optimalem Spielerlebnis" redet bzw. selbiges anstrebt. Natürlich kannst du auf 1080p, 30 FPS und ohne G-Sync spielen und deinen Spaß haben.
 
Ich weiß das es nicht neu ist, aber ich wusste nie genau wie viel FPS gefressen werden, dachte immer "Ehh nur 10 FPS weniger im Gegensatz zu 60fps" aber in Wirklichkeit hatte ich 40-42FPS und keine 50. Also konnte ich genauso die Details hoch drücken und mit 30FPS zocken wäre fast das gleiche.

Ich hätte da eine andere Frage, also manchmal wo ich gezockt gab wa da so ein ziemlich hmm "sitzender" Ruckler also sah wir ein Lag aus es war aber keins, wo ich auf Msi Afterburner geguckt hab hatte die eine Frame bei dem Lag von 200-400ms :-o und das passiert ca 1 mal jede paar Minuten, wieso ist das so?

144hz ist ein bisschen überzogen, man hat ein nicht so verschwommenes Bild wie auf einem 60hz Monitor. Es ist immernoch ein bisschen verschwommen wenn man zb CoD zockt und ein runner ist. Wenn man aber ein auf taktisch macht bringt es kein bisschen was. Daher nehme ich ein 4k Monitor da man eh mit Taktik weiter kommt, runner macht Spaß aber für kills geht man mit Taktik nach vorn :-)

Ich hatte den hier:
http://geizhals.de/lg-electronics-24gm77-b-a1162929.html

27" bringt mehr als 24" mit 144hz da man besser noobs vom weiten sieht.
 
Zuletzt bearbeitet:
Habe ich das geschrieben? Ich habe geschrieben, dass Leute, welche auf dem Gebiet keine Erfahrung haben, dazu einfach mal nichts sagen sollten. Ob G-Sync für das optimale Spielerlebnis nötig oder nicht nötig ist, kann man ohne Erfahrung wohl kaum sagen.



So sinnlos der Thread auch formuliert ist, kann man doch erkennen, dass er vom "optimalem Spielerlebnis" redet bzw. selbiges anstrebt. Natürlich kannst du auf 1080p, 30 FPS und ohne G-Sync spielen und deinen Spaß haben.

(1) Kam so rüber ;)

(2) Hier schreibt er:

So wie ich das sehe kommt man ohne Gsync/FreeSync nicht mehr aus.

Das unterstellt eine gewisse Notwendigkeit - Als würde der Monitor die Performance kosten. Das nächste Posting geht nämlich auch schon in die Richtung.

Ich weiß das es nicht neu ist, aber ich wusste nie genau wie viel FPS gefressen werden, dachte immer "Ehh nur 10 FPS weniger im Gegensatz zu 60fps" aber in Wirklichkeit hatte ich 40-42FPS und keine 50. Also konnte ich genauso die Details hoch drücken und mit 30FPS zocken wäre fast das gleiche.

Nope, wäre es nicht. Wenn du deine durchschnittlichen Frames auf 30 bringst, und nicht synchronisierst bist du genauso "arm dran" wie davor dass du durch Framerate-Drops unter die 30 FPS kommst, und dann Ruckler hast oder out of sync wieder Frames verlierst.

Wenn du solche Frame-Lags in regelmäßigen Abständen hast, deutet das darauf hin, dass du im System Zugriffe hast, die das komplette System lahmlegen.
 
Hm naja 50 Hertz und 50fps sind das selbe.

Ich denke er will auf das tearing auch hinaus, da er von g-sync redet.

In dem Video wird das sehr gut erklärt:

Schnell und Einfach: Screen-Tearing und V-Sync

Und ja doch wenn der Monitor 60hz hat so kann dieser auch 60 Bilder liefern. Da Grakas mehr als nur 60 Bilder liefern und wenn v-sync ausgeschalten ist, so entsteht tearing. Ist v-sync an kann es zu input lags und stutter kommen. Die meisten Casual Gamer wird das nicht stören, da sie es fast nicht bemerken, bei schnellen spielen wie shootern ist es aber wichtig da entscheiten ms über leben und tot im Spiel.

Wenn man laut seiner Aussage nie die tatsächlichen 60 Bilder hat, dann liegt dies daran das v-sync aktiviert ist, und so die Graka gezwungen wird so viele Bilder zu geben wie der Monitor Hz hat. Ist v-sync aus so hast du bis zu 200 und mehr Bilder, nur dann hast du tearing. Ich hatte mich diesbezüglich noch lange eingelesen. Die Graka richtet sich in dem Fall an den Monitor, dadurch entstehen input lags, bei einem g-sync monitor ist es genau umgekehrt, der richtet sich nach der Grafikkarte.

Tearing kann aber auch durch schlechte optimierung von einem Spiel auch entstehen.

"Man würde jetzt denken das man 50Fps hat, das ist weit mehr als das was wir sehen."

Das ist absoluter Blödsinn und eine Beleidigung für unser komplexes Auge. Der Mensch ist sehr wohl in der Lage mehr als 60Bilder zu sehen, in fps kann man das absolut nicht umrechnen.
 
"Man würde jetzt denken das man 50Fps hat, das ist weit mehr als das was wir sehen."

Das ist absoluter Blödsinn und eine Beleidigung für unser komplexes Auge. Der Mensch ist sehr wohl in der Lage mehr als 60Bilder zu sehen, in fps kann man das absolut nicht umrechnen.

Ich glaube das er es anders meinte als du es aufgefasst hast.
Er meint damit das, damit bezieht er sich auf seine "Berechnung", weit weniger FPS vom Monitor ausgegeben werden als die 50fps die der Framecounter anzeigt.
 
Dann hab ich es falsch verstanden.

Das kann durchaus sein, da der Monitor ja eine refreshrate von 16ms hat, dadurch kann es zu verzögerungen kommen. Ich glaube trotzdem das der angegeben Wert bis auf 2fps trotzdem stimmt. Er kann ja seine These nichteinmal belegen, von dem her..
 
Das kann schon sein das 50 oder 60FPS net 60FPS sind das kommt aber auch drauf an wie schnell der Monitor ist.
Ich hatte auch schon IPS Modelle gehabt wo 60FPS sehr ruckelig waren und man dachte das man eher bei 40 rumkrebst.
Beim nächste war das net so da waren 60FPS wie gewohnt schön geschmeidig (wenn man net 144hz/FPS verwöhnt ist)
 
Ich hab da eine Frage, wenn ein Monitor zb 4ms hat, wird das Bild 4ms später angezeigt oder wird zwischen jedem Bild ein 4ms Abstand?
 
Ich hab da eine Frage, wenn ein Monitor zb 4ms hat, wird das Bild 4ms später angezeigt oder wird zwischen jedem Bild ein 4ms Abstand?

das ist die reaktionszeit am monitor, keine anzahl an bildern oder informationen von der grafikkarte

overdrive oder sontiges kann das aktuelle bild etwas beschleunigen, es ist aber nur eine trickserei!
 
Zuletzt bearbeitet:
Beim inputlag ist es die Zeit ab der das Bild nach signaleingang dargestellt wird(jedenfalls wird damit angefangen)
Und die Reaktionszeit dann die Zeit in der das alte Bild vom neuen langsam überblendet wird.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh