Wieviel FPS bei 60Hz Monitor

TheBl1ndHH

Neuling
Thread Starter
Mitglied seit
27.12.2017
Beiträge
39
Moin Moin,

evtl. blöde Frage aber ich stelle Sie trotzdem mal.

Habe wie oben geschrieben einen 60Hz Monitor

Spiele aktuell Pubg und Fortnite.

Bekomme bei PUGB bei niedrigen einstellungen auf so 80 FPS da ich gerne mit etwas besserer Grafik spielen würde dachte ich jetzt ich müsste die Graka aufrüsten (rest passt).

Dann ist mir aber eingefallen das mein Monitor ja "nur" 60 Hz hat. bringen mir mehr FPS also überhaupt was? oder kann ich einfach die einstellungen so hochschrauben bis ich bei so konstant 60 FPS spielen kann?

Bei Fortnite kann man ja sogar die Bildwiederholrate fest auf 60 FPS einstellen. Macht es sinn dies zu tun? läuft es dadurch quasi stabiler und ich kann mit besserer Grafik zocken und habe eigentlich keine nachteile im spiel?

Danke und Gruß
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Machen kann man prinzipiell erstmal fast alles..

Hier kann niemand wissen ob du DU mit 60fps pubg gut spielen kann oder nicht.

Probier's einfach aus ;)

Gesendet von meinem SM-G950F mit Tapatalk
 
Moin Moin,

evtl. blöde Frage aber ich stelle Sie trotzdem mal.

Habe wie oben geschrieben einen 60Hz Monitor

Spiele aktuell Pubg und Fortnite.

Bekomme bei PUGB bei niedrigen einstellungen auf so 80 FPS da ich gerne mit etwas besserer Grafik spielen würde dachte ich jetzt ich müsste die Graka aufrüsten (rest passt).

Dann ist mir aber eingefallen das mein Monitor ja "nur" 60 Hz hat. bringen mir mehr FPS also überhaupt was? oder kann ich einfach die einstellungen so hochschrauben bis ich bei so konstant 60 FPS spielen kann?

Bei Fortnite kann man ja sogar die Bildwiederholrate fest auf 60 FPS einstellen. Macht es sinn dies zu tun? läuft es dadurch quasi stabiler und ich kann mit besserer Grafik zocken und habe eigentlich keine nachteile im spiel?

Danke und Gruß

Im Kino hat man je nach Film 16-24Frames.
Dein Bildschirm kann maximal 60 Frames darstellen.
Um deine GPU zu schonen solltest du also vsync einschalten "begrenzt die frames auf 60" oder anderweitig auf 60 frames begrenzen.

- - - Updated - - -

z.b. im programm selbst oder mit drittprogrammen
Afterburner | MSI Deutschland

- - - Updated - - -

haste den ram aufgerüstet lf?
 
Machen kann man prinzipiell erstmal fast alles..

Hier kann niemand wissen ob du DU mit 60fps pubg gut spielen kann oder nicht.

Probier's einfach aus ;)

Gesendet von meinem SM-G950F mit Tapatalk

HAbe mich evtl nicht richtig ausgedrückt.

Ja damit kann ICH spielen.

Die Frage war ja ob mehr als 60 FPS überhaupt Sinn machen bei einem 60 Hz Monitor.
Bilde mir ein das es mit mehr FPS "flüssiger" läuft aber das mag auch nur gefühlt so sein.

@chauken.

Ja RAM ist aufgerüstet

CPU ist : i7 4790k
RAM 16 GB DDR @1600

Was haöt an die grenzen kommt ist die Graka : Gigabyte Radeon RX 560 4 GB oc rev.2
deswegen wollte ich die evtl aufrüsten. Aber was bringt es mir wenn ich anschließen 100 FPS habe und der Monitor aber nur 60 darstellen kann!? Läuft es trotzdem "besser" oder ist es einfach pure geldverschwendung ohne einen Monitor zu haben der zb 144hz hat?
 
Bilde mir ein das es mit mehr FPS "flüssiger" läuft aber das mag auch nur gefühlt so sein.

dann hast du ja nun die für dich zutreffende antwort.

jemand anderes empfindet das dann eben vllt wieder anders, daher gibt es eben auch keine allgemeingültige antwort auf diese frage.
 
dann hast du ja nun die für dich zutreffende antwort.

jemand anderes empfindet das dann eben vllt wieder anders, daher gibt es eben auch keine allgemeingültige antwort auf diese frage.

Evtl. aber auch nur gefühlt wie ja auch geschrieben.

Ich hatte auf eine technische Antwort gehofft.

Kann es rein technisch überhaupt flüssiger laufen bzw besser auf meinen Monitor dargestellt werden.

Oder bin ich auf einem komplett falschen weg.... Aber 60 hz ist ja die Wiederholrate oder? also nix anderes als bilder pro sekunde sprich FPS oder?????
 
Mehr als 60 Bilder pro Sekunde kann der TFT nicht darstellen, allerdings würde ich mich nach den Minimal FPS ausrichten und das Spiel in den Grafikoptionen entsprechend einstellen. Die FPS sollten bei einem Shooter m.M. nach nicht unter 60 FPS fallen, da das bei dem Genre am ehesten unangenehm auffällt.
In der Praxis liegen mit einer solchen Einstellung die maximal FPS und Durchschnitts FPS dann höher als 60 FPS, solange nicht VSync aktiv ist.
 
Im Kino hat man je nach Film 16-24Frames.
Dein Bildschirm kann maximal 60 Frames darstellen.
Um deine GPU zu schonen solltest du also vsync einschalten "begrenzt die frames auf 60" oder anderweitig auf 60 frames begrenzen.

im kino werden die bilder aber nicht berechnet, sie werden nacheinander abgespielt. es entsteht dabei keine rechenleistung. der pc funktioniert bei sowas doch total anders :rolleyes:
auch ein grund, warum 60 fps sich trotzdem nicht flüssig anfühlen!
 
ich spiele auf 60hz mit fixen 60fps :)

das ist flüssiger als mehr fps auf dem 60hz panel.
 
Ich finde je mehr FPS desto flüssiger ist es (für mich) wobei mein Monitor auch nur 60Hz packt und das langt mir.
 
Rein technisch betrachtet kannst du auf einem 60Hz Monitor nur 60 Bilder pro Sekunde sehen. Teilweise merkst du aber trotzdem Unterschiede bei 60fps+, weil das Spiel intern dann mit mehr als 60fps rechnet (bezogen auf Hitboxen, Physik etc pp). Ob das der Fall ist hängt natürlich vom jeweiligen Spiel und der Programmierung ab.Anschauliches Beispiel: Tickrate bei Counterstrike Servern. Gute Spieler merken einen Unterschied zwischen Default Tickrate und einer erhöhten.

Eine andere Baustelle wäre Tearing, das immer auftritt wenn die vom Spiel gelieferten FPS kein glattes Vielfaches der Monitorwiederholrate sind (bei 60Hz also 30fps, 60fps, 120fps und so weiter).

Ich würde an deiner Stelle mal die minimalen FPS (min.fps) beobachten und Einstellungen wählen, mit denen du möglichst nah an den 60fps bleibst. Und dazu einen Framelimiter, der die FPS bei ~65 begrenzt.
 
Denke an die ganzen CS-Spieler.
Die versuchen nicht umsonst ihre 300 FPS (oder mehr) zu erreichen.
Die Steuerung wird mit der zusätzlichen Geschwindigkeit direkter. Die Daten die Du siehst aktueller.
Wer Dir was von "Du siehst sowieso nicht mehr" erzählt, der erzählt nur die Hälfte der Wahrheit.
Ob Du das selbst "bemerkst" ... sei mal dahingestellt.
Aber vsync gibt Input-Lag, und den mag ja eigentlich niemand haben.

Mein Monitor hat auch nur 60Hz (UHD), aber PUBG spiele ich gerne mit etwa 100 FPS, und auch 144 FPS (das ist in etwa das Maximum, das meine CPU stemmt bei 4.5Ghz) sind nicht verkehrt. Die 144hz-Gamer-Monitore mit ihren ganzen Kinderkrankheiten geb ich mir (noch) nicht.
 
Zuletzt bearbeitet:
Denke an die ganzen CS-Spieler.
Die versuchen nicht umsonst ihre 300 FPS (oder mehr) zu erreichen.
Die Steuerung wird mit der zusätzlichen Geschwindigkeit direkter. Die Daten die Du siehst aktueller.
Wer Dir was von "Du siehst sowieso nicht mehr" erzählt, der erzählt nur die Hälfte der Wahrheit.
Ob Du das selbst "bemerkst" ... sei mal dahingestellt.
Aber vsync gibt Input-Lag, und den mag ja eigentlich niemand haben.

Mein Monitor hat auch nur 60Hz (UHD), aber PUBG spiele ich gerne mit etwa 100 FPS, und auch 144 FPS (das ist in etwa das Maximum, das meine CPU stemmt bei 4.5Ghz) sind nicht verkehrt. Die 144hz-Gamer-Monitore mit ihren ganzen Kinderkrankheiten geb ich mir (noch) nicht.

Genau meine meinung. vsync bleibt schön aus.
 
Denke an die ganzen CS-Spieler.
Die versuchen nicht umsonst ihre 300 FPS (oder mehr) zu erreichen.
.

CS ist sowieso ein Sonderfall. Es gibt/gab Versionen der goldsource und source engine, wo die Sprungweite und Bewegungsgeschwindigkeit von den FPS abhängt (kein Witz!). Die Unterschiede sind zwar minimal aber vorhanden.

Gesendet von meinem PRA-LX1 mit Tapatalk
 
bei wow kann man es testen. die einstellungen lassen eine FPS-begrenzung zu. dort kann sich jeder ein eigenes bild von 60 und 80 FPS machen. ich finde 60 FPS unflüssig und bei spielen wie counter-strike source merkt man es deutlich.
 
Kann es rein technisch überhaupt flüssiger laufen bzw besser auf meinen Monitor dargestellt werden.

Ganz klar ja, kann es...

Was man dazu auf der technischen Seite wissen sollte - der Monitor stellt zwar bei 60 Hz genau genommen 60 Bilder in der Sekunde dar (und keins mehr), ABER es sind nicht 60 volle Bildeinblendungen, wie man das wohl hier immer rausinterpretiert (siehe die ganzen Aussagen dazu hier im Thread)

Der Monitor baut (historisch bedingt) die Bilder zeilenweise zusammen. Das sieht man sehr schön, wenn man mal mit der Handykamera auf den TFT hält (vor allem, wenn die Kamera schneller als der Screen ist) -> da siehst du schön wie zeilenweise aktualisiert wird. Es schieb sich so eine Welle über den Screen...
In Summe bleibt das am Ende bei vollen 60 Bildern die Sekunde, ABER die Source kommt aus dem Framebuffer der Grafikkarte - das heist, WENN dort im Framebuffer ein Frame aktualisiert wurde (bspw. weil du deutlich mehr wie 60 FPS raushaust), wird ab Fertigstellung des Bildes im Framebuffer das dann neue Bild auf dem Schirm angezeigt - der Monitor macht dabei keinen Unterschied, ob er schon bei der letzten Zeile angekommen ist. Ihm ists schlicht egal - er aktualisiert munter weiter, Zeile für Zeile. Also Pixelreihe für Pixelreihe - und ab Framebuffer Refresh dann mit dem "neuen" Bildzeilen...
Durch die neuen Bildinfos entsteht (vor allem in Seitwärtsbewegungen) Tearing auf dem Monitor - also Stellen, an denen das Bild wie Zerrissen aussieht, Kanten sind versetzt, es passt alles nicht mehr richtig zusammen. Um so mehr FPS und umso höher das Vielfache zur Refreshrate des Monitors - desto mehr dieser Versätze wirst du auf dem Monitor sehen.

Am Ende ist dieses Verhalten aber auch möglicherweise ein Vorteil. Denn du zwingst den Monitor damit IMMER das jeweils aktuelle Frame anzuzeigen. Da er nicht schnell genug refreshen kann - werden logischerweise immer nur in Teilen des Bildes die aktuellen Infos dargestellt. Der Vorteil ist dabei, das Input Lag minimiert sich, da Blickänderungen am Sichtfeld so schnell wie möglich dargestellt werden. (auf Kosten des Tearing Effekts)

Bei einem Shooter kann es dir also passieren - wenn die GPU das Bild mit dem neu sichtbaren Geger in den Framebuffer schiebt - dass der Monitor günstigerweise gerade die Zeilen aktualisiert, wo der Gegner drauf zu sehen ist -> du siehst den Gegner also quasi direkt nach Berechnung (nahezu kein zusätzliches Lag)
Im Worst Case ist der Refresh aber gerade über die Zeilen hinweg - so dass der Gegner zwar schon da ist, der Monitor aber einen vollen Refreshzyklus braucht um wieder zu den Zeilen zu kommen. (und wenn es ganz dumm kommt - ist der Gegner dann schon wieder weg - oder du tot)
Genau aus diesem Grund erzeugen schnellere Monitore hier einen Vorteil. Die Zeit zwischen Bestcase und Worstcase minimiert sich. Bei 60Hz sind das im schlechtesten Fall fast 16,667ms. Bei 144Hz "nur" noch fast 6,94ms. Bei 240Hz fast nur 4,16ms. Zwischen letzterem und ersterem liegen idealerweise also über 4 volle Bildaktualisierungen - ohne Sync ggf. sogar noch mehr Teilbilder...
Wenn das nicht gerade jemand mit eingerosteten Reflexen ist - hättest du da absolut keine Chance mit 60 Hz ;)

Mehr als 60 Bilder pro Sekunde kann der TFT nicht darstellen, allerdings würde ich mich nach den Minimal FPS ausrichten und das Spiel in den Grafikoptionen entsprechend einstellen. Die FPS sollten bei einem Shooter m.M. nach nicht unter 60 FPS fallen, da das bei dem Genre am ehesten unangenehm auffällt.
Rein technisch betrachtet kannst du auf einem 60Hz Monitor nur 60 Bilder pro Sekunde sehen.

Kommt drauf an was für euch ein Bild ist. Die Grafikkarte aktualisiert im Zweifel schneller den Framebuffer - damit bekommt der Monitor in den Vorteil, jeweils immer die aktuellsten Infos anzeigen zu können. Das werden in Summe nicht "mehr" Bilder als in der Refreshrate - aber genau genommen stellt der Monitor auch keine ganzen Bilder dar, sondern aktualisiert Zeilenweise. Bei 60Hz dauert es also ~16,667ms um einmal alle Zeilen durchzugehen. Pro Zeile zum jeweils nächsten Intervall betrachtet bleibt das auch IMMER bei exakt diesem Abstand. Da sich bis zum nächsten Refresh der Zeile aber die Source im Framebuffer ggf. schon lange geändert hat, ist es aber kein ganzes Bild mehr. Ganze Bilder gibts nur mit (V)Sync, da dadurch sicher gestellt wird, dass der Framebuffer erst aktualisiert wird, WENN der Monitor einmal von Zeile 1 bis Zeile n durch ist. -> DAS sind dann auch die 60 (im Beispiel) Bilder. Ohne (V)Sync zeigt zwar jede Zeile des Monitors irgendwas an, im Worst Case besteht das Ergebnis auf dem Schirm aber aus so vielen verschiedenen Quellbildern, wie es Zeilen am Monitor gibt - damit sind es auch keine 60 (im Beispiel) Bilder mehr - sondern nur noch xxxx verschiedene Zeilen übereinander gestapelt aus y verschiedenen Quellbildern...




im kino werden die bilder aber nicht berechnet, sie werden nacheinander abgespielt. es entsteht dabei keine rechenleistung. der pc funktioniert bei sowas doch total anders :rolleyes:
auch ein grund, warum 60 fps sich trotzdem nicht flüssig anfühlen!
Logisch - wäre ja noch schöner, wenn Rechenleistung "entstehen" würde :fresse:
Dann würde ich wohl den ganzen Tag im Kino sitzen und die freie Rechenleistung dann verkaufen...

Kommt auf deine Einstellungen an. Nutzt du die vertikale Synchronisation V-Sync ? Dann gehen nicht mehr als 60 FPS und das verursacht Input Lag.
Ohne Sync (=Tearing/Bildrisse) und mit Fast Sync (=Mikroruckler) gehen mehr FPS als Hz. Das reduziert den Input Lag aber verbraucht mehr Strom.

Du hast IMMER ein Lag... Egal ob VSync, non VSync, G-Sync oder Freesync. Lag ist immer drin... Einzig und allein die Geschwindigkeit entscheidet, wie viel das ist und damit auch, wie sehr man das spürt.

Mal davon ab, die meisten dürften bei VSync eher ein Einstellungsproblem haben - da ungünstige Einstellungen das Lag in die Höhe treiben. Man kann das mit geschickt gewählten Einstellungen minimieren, nicht ganz auf das Niveau von Bestcase non Sync (Zeilenaktualisierung unmittelbar bevorstehend nach Framebufferrefresh), aber so, dass es erträglich wird und im schlechtesten Fall nicht langsamer als non VSync im Worstcase ist (Zeilenaktualisierung unmittelbar vorrüber nach Framebufferrefresh)
Ein G-Sync/FreeSync Monitor ist dann auch nicht mehr besser, sofern die max. Refreshrate nicht höher liegt...

Wem also Tearingfreies Bild wichtig ist, MUSS, egal wie man es dreht, mit leicht höherer Latenz leben. Ohne geht nicht bzw. nur mit Tearing, da das Bild schlicht einmal voll von ganz oben nach ganz unten durch muss ohne sich dabei zu ändern. Die Zeile n ist also im Zweifel mindestens so alt, wie ein voller Framerefresh des Monitors dauert.
 
Kommt drauf an was für euch ein Bild ist. Die Grafikkarte aktualisiert im Zweifel schneller den Framebuffer -

Für mich ist ein Bild erstmal nur der komplette Bildschirminhalt (also bei FullHD 1920x1080 Pixel), völlig unabhängig vom Framebuffer. Ansonsten volle Zustimmung.
 
Also zwischen 60Hz V-Sync und 60Hz FreeSync/G-Sync liegen Welten. Selbst wenn die 60FPS mit V-Sync gehalten werden ist der Input Lag doppelt so hoch und deutlich spürbar.

Woher nimmst du diese Binsenweisheiten? Das ist schlicht quatsch...
Ein sauber eingestelltes System wird kein sonderlich erhöhtes Lag haben, wenn VSync aktiv ist. Und ein sauber eingestelltes Freesync/G-Sync System kann aufgrund des Prinzips des Syncs auch nicht schneller - sofern in beiden Fällen Tearingfreiheit gegeben sein soll.

Freesync/G-Sync ist dort klar im Vorteil, wo man entweder A) die FPS nicht halten kann oder B) der Monitor im Vergleich häufiger Refreshen kann.



Mal davon ab, wie du zwischen zwei verschiedenen Monitoren "spüren" willst dass da Lag durch VSync kommt oder nicht - ist mir absolut ein Rätsel. Lag ist IMMER da... Das sagte ich aber bereits. Leider willst du das einfach nicht verstehen und postest stattdessen permanent irgendwelche Binsenweisheiten.

Fallen die FPS sogar unter 60 dann ist der Unterschied noch größer weil V-Sync mit Double Buffer auf 30FPS dropt und mit Triple Buffer noch mehr lagt und ruckeln dazu kommt.

Auch diese Stelle zeigt - du hasts immernoch nicht verstanden. "Double Buffer" ist IMMER drin, es sei denn du nutzt Tripple Buffering. Auch ohne Sync gibts zwei Framebuffer, einen für die GPU zum Arbeiten, einen für den Monitor zum Ausfassen.
Woher soll da ein doppelter Lag kommen?

Und nochmal für dich zwing die GPU dazu, unmittelbar VOR dem Bufferswitch ihr Bild fertig zu haben - DANN hast du quasi gar kein Zusatzlag. Das erreichst du bei NV mit einem Framelimiter auf 1-2 Frames (je nach Spiel und Settings) unter der Refreshrate. Bei AMD wahrscheinlich nicht anders. Wenn du hingegen die GPU einfach so schnell rechnen lässt, wie sie kann und DANN vom Monitor her erzwungen die Restzeit aus warten lässt - hast du natürlich ewig mehr Latenz... Aber Sorry, warum sollte man das tun, wo es bessere Methoden gibt??

Für mich ist ein Bild erstmal nur der komplette Bildschirminhalt (also bei FullHD 1920x1080 Pixel), völlig unabhängig vom Framebuffer. Ansonsten volle Zustimmung.

Das ist mir schon klar - aber so arbeitet der Monitor halt nicht. Der stellt nicht alle Zeilen auf einmal dar. Sondern geht Zeile für Zeile durch. Bei 1080 Zeilen in der Höhe, macht er das also 1080 mal. Je einmal pro Zeile. Die Zeit, wie er benötigt um einmal den kompletten Inhalt darzustellen, von der ersten bis zur letzten Zeile ist exakt die Dauer des Refresh-Intervals.
Das Problem dabei ist aber eben, ändert sich das Quellbild im Framebuffer der GPU - gibts Tearing - und du hast im Endeffekt zwei Hälften. Also ein Monitor mit einem Bild, was sich aus zwei (oder sogar mehr) verschiedenen Quellen zusammen setzt...

Ist das für dich/euch dann noch ein Bild?
Ich frage deshalb - die Argumentation ist ja meistens bei diesem Thema - halbe Bilder oder Bildteile sind nichts wert - sprich dass Teile des angezeigten Inhals auf Teilen neuerer Daten aus dem Framebuffer basieren, ist den Leuten dann meist nichts wert. Aber man vergisst dabei eben immer, dass der Monitor nicht ein Bild im gesamten raushaut - sondern schön Zeilenweise. Im Endeffekt ist das für mich also eher ein Verständnisproblem - wenn wer sagt, der Monitor kann nur 60 Bilder die Sekunde darstellen. Richtig wäre eigentlich, er kann jede Bildzeile 60x die Sekunde aktualisieren. Ob daraus dann 60x ganze Bilder (VSync) werden oder 60 mal x Teile von Bildern -> DAS ist Einstellungssache ;)
 
Zuletzt bearbeitet:
Wird er nie verstehen. Ich weiß nicht wie oft das jetzt schon durchgekaut ist.
Ist einfach eine Grundsatzklammer an eine direkte Übersetzung aus einer Fremdsprache.
 
Zuletzt bearbeitet:
@fdsonne

Was ist denn da sauber einzustellen, so dass es mit VSync zu keinem erhöhten Input Lag kommt?
 
Logisch - wäre ja noch schöner, wenn Rechenleistung "entstehen" würde :fresse:
Dann würde ich wohl den ganzen Tag im Kino sitzen und die freie Rechenleistung dann verkaufen...

das dumme kommentar hätte ich mir erspart, aber man kann seine dummheit natürlich auch nach außen tragen. wir leben ja angeblich in einem freien land...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh