Kann es rein technisch überhaupt flüssiger laufen bzw besser auf meinen Monitor dargestellt werden.
Ganz klar ja, kann es...
Was man dazu auf der technischen Seite wissen sollte - der Monitor stellt zwar bei 60 Hz genau genommen 60 Bilder in der Sekunde dar (und keins mehr), ABER es sind nicht 60 volle Bildeinblendungen, wie man das wohl hier immer rausinterpretiert (siehe die ganzen Aussagen dazu hier im Thread)
Der Monitor baut (historisch bedingt) die Bilder zeilenweise zusammen. Das sieht man sehr schön, wenn man mal mit der Handykamera auf den TFT hält (vor allem, wenn die Kamera schneller als der Screen ist) -> da siehst du schön wie zeilenweise aktualisiert wird. Es schieb sich so eine Welle über den Screen...
In Summe bleibt das am Ende bei vollen 60 Bildern die Sekunde, ABER die Source kommt aus dem Framebuffer der Grafikkarte - das heist, WENN dort im Framebuffer ein Frame aktualisiert wurde (bspw. weil du deutlich mehr wie 60 FPS raushaust), wird ab Fertigstellung des Bildes im Framebuffer das dann neue Bild auf dem Schirm angezeigt - der Monitor macht dabei keinen Unterschied, ob er schon bei der letzten Zeile angekommen ist. Ihm ists schlicht egal - er aktualisiert munter weiter, Zeile für Zeile. Also Pixelreihe für Pixelreihe - und ab Framebuffer Refresh dann mit dem "neuen" Bildzeilen...
Durch die neuen Bildinfos entsteht (vor allem in Seitwärtsbewegungen) Tearing auf dem Monitor - also Stellen, an denen das Bild wie Zerrissen aussieht, Kanten sind versetzt, es passt alles nicht mehr richtig zusammen. Um so mehr FPS und umso höher das Vielfache zur Refreshrate des Monitors - desto mehr dieser Versätze wirst du auf dem Monitor sehen.
Am Ende ist dieses Verhalten aber auch möglicherweise ein Vorteil. Denn du zwingst den Monitor damit IMMER das jeweils aktuelle Frame anzuzeigen. Da er nicht schnell genug refreshen kann - werden logischerweise immer nur in Teilen des Bildes die aktuellen Infos dargestellt. Der Vorteil ist dabei, das Input Lag minimiert sich, da Blickänderungen am Sichtfeld so schnell wie möglich dargestellt werden. (auf Kosten des Tearing Effekts)
Bei einem Shooter kann es dir also passieren - wenn die GPU das Bild mit dem neu sichtbaren Geger in den Framebuffer schiebt - dass der Monitor günstigerweise gerade die Zeilen aktualisiert, wo der Gegner drauf zu sehen ist -> du siehst den Gegner also quasi direkt nach Berechnung (nahezu kein zusätzliches Lag)
Im Worst Case ist der Refresh aber gerade über die Zeilen hinweg - so dass der Gegner zwar schon da ist, der Monitor aber einen vollen Refreshzyklus braucht um wieder zu den Zeilen zu kommen. (und wenn es ganz dumm kommt - ist der Gegner dann schon wieder weg - oder du tot)
Genau aus diesem Grund erzeugen schnellere Monitore hier einen Vorteil. Die Zeit zwischen Bestcase und Worstcase minimiert sich. Bei 60Hz sind das im schlechtesten Fall fast 16,667ms. Bei 144Hz "nur" noch fast 6,94ms. Bei 240Hz fast nur 4,16ms. Zwischen letzterem und ersterem liegen idealerweise also über 4 volle Bildaktualisierungen - ohne Sync ggf. sogar noch mehr Teilbilder...
Wenn das nicht gerade jemand mit eingerosteten Reflexen ist - hättest du da absolut keine Chance mit 60 Hz
Mehr als 60 Bilder pro Sekunde kann der TFT nicht darstellen, allerdings würde ich mich nach den Minimal FPS ausrichten und das Spiel in den Grafikoptionen entsprechend einstellen. Die FPS sollten bei einem Shooter m.M. nach nicht unter 60 FPS fallen, da das bei dem Genre am ehesten unangenehm auffällt.
Rein technisch betrachtet kannst du auf einem 60Hz Monitor nur 60 Bilder pro Sekunde sehen.
Kommt drauf an was für euch ein Bild ist. Die Grafikkarte aktualisiert im Zweifel schneller den Framebuffer - damit bekommt der Monitor in den Vorteil, jeweils immer die aktuellsten Infos anzeigen zu können. Das werden in Summe nicht "mehr" Bilder als in der Refreshrate - aber genau genommen stellt der Monitor auch keine ganzen Bilder dar, sondern aktualisiert Zeilenweise. Bei 60Hz dauert es also ~16,667ms um einmal alle Zeilen durchzugehen. Pro Zeile zum jeweils nächsten Intervall betrachtet bleibt das auch IMMER bei exakt diesem Abstand. Da sich bis zum nächsten Refresh der Zeile aber die Source im Framebuffer ggf. schon lange geändert hat, ist es aber kein ganzes Bild mehr. Ganze Bilder gibts nur mit (V)Sync, da dadurch sicher gestellt wird, dass der Framebuffer erst aktualisiert wird, WENN der Monitor einmal von Zeile 1 bis Zeile n durch ist. -> DAS sind dann auch die 60 (im Beispiel) Bilder. Ohne (V)Sync zeigt zwar jede Zeile des Monitors irgendwas an, im Worst Case besteht das Ergebnis auf dem Schirm aber aus so vielen verschiedenen Quellbildern, wie es Zeilen am Monitor gibt - damit sind es auch keine 60 (im Beispiel) Bilder mehr - sondern nur noch xxxx verschiedene Zeilen übereinander gestapelt aus y verschiedenen Quellbildern...
im kino werden die bilder aber nicht berechnet, sie werden nacheinander abgespielt.
es entsteht dabei keine rechenleistung. der pc funktioniert bei sowas doch total anders
auch ein grund, warum 60 fps sich trotzdem nicht flüssig anfühlen!
Logisch - wäre ja noch schöner, wenn Rechenleistung "entstehen" würde
Dann würde ich wohl den ganzen Tag im Kino sitzen und die freie Rechenleistung dann verkaufen...
Kommt auf deine Einstellungen an. Nutzt du die vertikale Synchronisation V-Sync ? Dann gehen nicht mehr als 60 FPS und das verursacht Input Lag.
Ohne Sync (=Tearing/Bildrisse) und mit Fast Sync (=Mikroruckler) gehen mehr FPS als Hz. Das reduziert den Input Lag aber verbraucht mehr Strom.
Du hast IMMER ein Lag... Egal ob VSync, non VSync, G-Sync oder Freesync. Lag ist immer drin... Einzig und allein die Geschwindigkeit entscheidet, wie viel das ist und damit auch, wie sehr man das spürt.
Mal davon ab, die meisten dürften bei VSync eher ein Einstellungsproblem haben - da ungünstige Einstellungen das Lag in die Höhe treiben. Man kann das mit geschickt gewählten Einstellungen minimieren, nicht ganz auf das Niveau von Bestcase non Sync (Zeilenaktualisierung unmittelbar bevorstehend nach Framebufferrefresh), aber so, dass es erträglich wird und im schlechtesten Fall nicht langsamer als non VSync im Worstcase ist (Zeilenaktualisierung unmittelbar vorrüber nach Framebufferrefresh)
Ein G-Sync/FreeSync Monitor ist dann auch nicht mehr besser, sofern die max. Refreshrate nicht höher liegt...
Wem also Tearingfreies Bild wichtig ist, MUSS, egal wie man es dreht, mit leicht höherer Latenz leben. Ohne geht nicht bzw. nur mit Tearing, da das Bild schlicht einmal voll von ganz oben nach ganz unten durch muss ohne sich dabei zu ändern. Die Zeile n ist also im Zweifel mindestens so alt, wie ein voller Framerefresh des Monitors dauert.