[Guide] Mythos V-Sync kostet Leistung, mit 3DMark wiederlegt

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Warum gibt es dann Tearing wenn VSync deaktiviert ist ?
Weil entweder GSync bei Dir deaktiviert ist oder du außerhalb der Gsync Range bist (zu viele FPS)... Ganz einfache Sache. Und zum Thema Gsync wirkt nicht auf Tearing, lies einfach irgendeinen Artikel zu diesem Thema aus den letzten 10 Jahren...
Beitrag automatisch zusammengeführt:

Ich sollte also Vsync deaktivieren?
Nein, kann an bleiben. Solange Gsync / Freesync aktiv ist, ist Vsync außer Funktion gesetzt. Vsync selber limitiert dann aber die Bildausgabe nach oben (es gehen dann bei 144 Hz nicht mehr als 144 FPS) und verhindert dadurch Tearing, was auftritt, wenn die Framerate höher als die Freesync / Gsync Range liegt. (bei vielen Monitoren oft z.B. 40-144 Hz)
 
Ich sollte also Vsync deaktivieren? habe ich tatsächlich "schon" immer an, und nie getestet, ohne - oder hilft es doch, wenn der Sync Bereich unter / überschritten wird?
Du wirst beispielsweise bei PUBG mit deaktiviertem VSync Tearing bekommen, angeschalten ist schon auf jeden Fall richtig
Beitrag automatisch zusammengeführt:

Weil entweder GSync bei Dir deaktiviert ist oder du außerhalb der Gsync Range bist (zu viele FPS)... Ganz einfache Sache.
Beitrag automatisch zusammengeführt:


Nein, kann an bleiben. Solange Gsync / Freesync aktiv ist, ist Vsync außer Funktion gesetzt. Vsync selber limitiert dann aber die Bildausgabe nach oben (es gehen dann bei 144 Hz nicht mehr als 144 FPS) und verhindert dadurch Tearing, was auftritt, wenn die Framerate höher als die Freesync / Gsync Range liegt. (bei vielen Monitoren oft z.B. 40-144 Hz)
Ist aktiviert im Treiber, und ausserhalb der Range geht ja garnicht.
Beitrag automatisch zusammengeführt:

Wie sollt es, die Range von meinem Monitor ist von 30 bis 75

VSync an, alles super, VSync aus, Tearing beispielsweise bei PUBG kannst du die InGame Settings komplett knicken bezüglich VSync, da geht es nur über den Treiber.
FPS Limit drin oder nicht im Treiber, macht dabei keinen Unterschied
Genaus mit dem RTSS, VSync aus = Tearing

Das Timing ändert sich spürbar aber nunmal auch absolut garnicht, da kann ich schalten und walten wie ich will, ist egal von VSync an ist oder nicht
Beitrag automatisch zusammengeführt:

Nein, kann an bleiben. Solange Gsync / Freesync aktiv ist, ist Vsync außer Funktion gesetzt. Vsync selber limitiert dann aber die Bildausgabe nach oben (es gehen dann bei 144 Hz nicht mehr als 144 FPS) und verhindert dadurch Tearing, was auftritt, wenn die Framerate höher als die Freesync / Gsync Range liegt. (bei vielen Monitoren oft z.B. 40-144 Hz)
VSync ist nicht ausser Funktion, wie ich dir schon längst wiederlegt habe.
Aber ja VSync verursacht per se ein passendes FPS-Limit zum Bildschirm-Max :-)

Gruss Dennis
Beitrag automatisch zusammengeführt:

GSync, FreeSync schaltet man hiermit an und aus, nicht mit der VSync Option
 
Zuletzt bearbeitet:
Ist Heute schon der 9. Mai? Ich dachte ich hätte noch Zeit, mich ausgiebig mit Framebuffern, Herzen usw. zu beschäftigen. Ich werde mich noch mal intensiv in die Thematik einarbeiten.
Danke für den Denk Anstoß.
 
@NixName So tief muss man da technisch gar nicht einsteigen. Schau Dir einfach ein Video zu Vsync und eines zu Freesync bei Youtube an. Bei Freesync wird sicherlich auch der Unterschied zu Vsync erklärt werden, da ja das der große Vorteil und Existenzgrund überhaupt ist.
 
Es ist immer wieder sehr interessant, wie VSync/FPS-Limit über Treiber effizienter ist, anstelle von InGame Settings

20220504131333_1.jpg20220504132104_1.jpg20220504132330_1.jpg

Der Nvidia Treiber bevorzugt auch weniger Takt bei der Graka mit mehr Auslastung anstelle von höherem Takt mit weniger Last, NVidia Treiber ist dabei effizienter


Gruss Dennis
 
Was ist der Sinn des Ganzen?
Mit Freesync habe ich ganz klar kein Tearing (recht einfach Pendulum Demo nachzustellen ohne Popometer, geht mit AMD als auch NV)
Das bekomme ich mit 6900XT und RTX3070 auf selben Moni hin,(Sys) Range 40-144.
Das soll ich jetzt abschalten, weil? Und stattdessen V-Sync einschalten?
Die PCGH hatte vor Jahren schon Artikel über Latenz und die verschiedenen Möglichkeiten des Synchronisierens gebracht,
genau mit dem Ergebnis, NV+AMD Sync= sehr geringe Latenz, ggü jeden anderen "Trick"

Alternativ einfach mal bei Reviewer mit LDAT anhauen....(Igor zB)
 
Ein Treiber "vermittelt" die Hardware dem Betriebssystem. Nvidia als Hardware Hersteller ist stets bemüht, einwandfreie Ergebnisse zu liefern.
Es wird vom Hersteller immer ein allgemein gültiges Ergebnis für 95% der Nutzer geben. ' Türlich gibt es auch 5%, die unzufrieden sind.

Entschuldigt diesen "fast" sinnfreien Post. Alles gute Dennis, und weiterhin Dir eine gute Effizienz.
 
wieviel FPS hattest du da bei diesem Test? also wo FreeSync an war, aber VSync aus und du damit Tearing hattest?
Innerhalb der Range vom Monitor auf jeden Fall, von 60 vielleicht mal auf um 41 oder so eingebrochen, mit unnötig viel Details drin :d

Gruss Dennis
Beitrag automatisch zusammengeführt:

Alternativ einfach mal bei Reviewer mit LDAT anhauen....(Igor zB)
Das hab ich schon gemacht, gibt ja auch n eigentlich garnicht so schlechtes Video wo er alle aufdröselt.
Mit der Wahrheit kann man nur dummerweise keine Werbung machen offenbar und denn will man dich für dumm verkaufen etc.

Da wird erst gut erklärt und dann wenn es um die Wurst geht, naja, ich sehe keine entsprechenden Tests und Reviews :ROFLMAO:

Gruss Dennis
Beitrag automatisch zusammengeführt:

jupps, bei der CPU verhält sich das anders, ist anders aufgebaut, da brauchst net den Takt runterzustellen bzw runterstellen zu lassen, also CoolnQuiet sowie PSS Support, oder bei Intel eben Equivalent SpeedStep/EIST das kannste getrost abschalten bei neueren CPU's
Beitrag automatisch zusammengeführt:

Das soll ich jetzt abschalten, weil? Und stattdessen V-Sync einschalten?
Garnichts abschalten, wenn dann einschalten ja
 
Mit der Wahrheit kann man nur dummerweise keine Werbung machen offenbar und denn will man dich für dumm verkaufen etc.
???? Wer ????


Egal:KLICK

Verursacht G-Sync oder Freesync Input Lag?​

Kurz gesagt: Nein. Zumindest so gut wie keinen. Ja, mittels G-/Freesync wartet das Display bei Aktualisierung auf das nächste Bild und gibt es erst aus, wenn das vorherige vollständig aufgebaut ist. Man muss aber verstehen, dass sich bei einer dynamischen Bildwiederholrate nicht die Aktualisierungszeit ändert, wie etwa bei statischer, niedriger Bildwiederholrate. Ein Beispiel: Ist G-Sync aktiv und die GPU liefert nur 60 Fps, baut ein 144-Hz-Monitor das Bild trotzdem binnen 6,9 ms auf - und nicht in 16,6 ms, wenn die 60 Hz statisch wären. Das hat den Vorteil, dass etwa zukünftige Bilder mit kürzeren Frametimes schneller wiedergegeben werden können.
Wenn "die oder alle" natürlich wettbewerbverzerrend der "Webung" hinterherdackeln, dein "Popometer" aber selber als Referenz anführtst, ohne verifizierbare Beweise, stehst du recht alleine da (oder wie erklärst du dir grade den Gegenwind im Topic?)

Sind schon exclisiv steile Thesen....(G-Sync und Freesync erzeugen Tearing und Lag.....)
Du hast großes vor, viel Glück dabei. Mit 2 Screens 3dMark wird das nicht gelingen.....
 
@Joker (AC) :
Ohne Verzögerung geht es schonmal sowieso garnicht nech
Aber schee zu sehen, wo IgorsLab da auch mal kopiert hat, die Grafik :d

Was bringt dir eine Messung, wenn es in der Praxis einfach nichts bringt, wir sind jetzt alle trainierte Soldaten auf Reactiontime oder was ?! :d
Zumal wir auch alle sinnvoll irgendwie competitive Spielen, oh yeah :d

Falls man sich fragt wie das bei Forza 4 so sein kann mit der Leistungsaufnahme
Unbenannt.jpg
Die vs das, macht nen Himmelweiten Unterschied, nicht in der Performance aber in der Leistungsaufnahme

Und die Settings da bin ich nicht gerade "sparsam" :d
20220504152718_1.jpg20220504152721_1.jpg20220504152728_1.jpg20220504152730_1.jpg

Gruss Dennis
Beitrag automatisch zusammengeführt:

Ansonsten wäre da während des Gameplays gut 30 bis 50~60 Watt mehr am Start alleine an der Grafikkarte, plus bis zu 30 Watt an der CPU wenn ich die nicht von Hand auf 4gHz auf den Sweetspot optimiert hätte.

Gruss Dennis
 
Du jammert doch hier rum und siehst dein Heil im sturen V-Sync.
Es gehst sich um zwei Dinge.
Tearing vermeiden und Latenzen.
Teil eins kann man mit G-Sync und Free Sync erfolgreich bekämpfen ( und unsinnig nein sagen ist kein Argument)
Teil zwei kannst du ohne Equipment nichtmal ansatzweise beantworten.
Außer der Hinweis, das ich oder wir auf dem Werbegeschwubbel hereinfallen.
Offengestanden, die durchaus ernst gemeinte Beiträge dann mit Antworten und grinse Smileys zu verzieren macht es nicht glaubwürdiger.
Bin dann raus....
 
ESO Freund isst einen Süßkringel: Ohne Tearing, (Es ist ein ganzer, am Stück, nicht aus ein NANDer gerissen) :) wenn ich ihn anschaue, sehr Lecker. DAS ISST SPAM mit Zucker. vergebt mir.

Zum Thema: Worum geht es eigentlich? Ich bin zu Einfach im Hirn, um es zu verstehen. Aber ich habe gerade zu viel Zeit, und es bereitet mir doch - fast eine "diebische" Freude. Ich schäme mich. Alles Gute allen, ich Stopp mein Geschwätz jetzt. Wir haben alle Fehler und Probleme - mit oder ohne PC.
 
Zuletzt bearbeitet:
@Joker (AC) Gerne, keine Argumente, keine Formel, keine technischen Hintergründe die irgendwo einen Sinn ergeben, braucht niemand.

Tearing eliminieren wahrnehmbar geht nunmal so oder so nur mit Vsync, etwas worauf ich keine Lust habe.
FPS-Limit sowie VSync inGame, ist eben nicht die beste Lösung, gibt es auch genügend Dummstuss darüber zu lesen.

Equipment, bin ich als Messinstrument und die Hardware die ich habe, wenn ich dir sag es gibt keinen spürbaren Nachteil dann is da keiner, Fakt, ganz einfach.

Man muss dazu ja nicht immer auf Zahlen starren, wenn ich ne Verbesserung spüren würde, würd ich ja auch Vsync abschalten und notfalls auch etwas Tearing in Kauf nehmen, die Gewichtung vom Nutzen is da aber ganz klar VSync an.
Unbenannt.jpg
Desweiteren ist Fakt, das obere in Rot, das ist GSync/Freesync (-compatible) an oder aus
Nicht das untere in Orange, das ist und bleibt nunmal VSync an oder aus

Der Modus für geringe Latenz, also low Latency ist ebenso auch für VSync optimiert, also wenn man ohne VSync spielt sollte man "Ein" nutzen und eben nicht "Ultra"
1.jpg

Gruss Dennis
Beitrag automatisch zusammengeführt:

Zum Thema: Worum geht es eigentlich? Ich bin zu Einfach im Hirn um es zu verstehen.
Steht ja eigentlich im Threadtitel.

Früher war das tatsächlich, hatte ich auch noch gemessen gehabt, mittlerweile ist es aber Quatsch, einzig und allein durch Software.
Denn die 900er und die 1000er Serie kann es mit aktuelleren Treibern ja urplötzlich auch, effizienter sein.

Gruss Dennis
Beitrag automatisch zusammengeführt:

Nuja plus das alte Lied, was der totale unfug ist, deine Kiste produziert mehr FPS und dann ist die Reaktionszeit besser, ganz klar Antwort ist nein ist nicht besser, also kürzer.
Denn die Kiste nicht fehlkonfiguriert ist, dauert der Signalweg gleich lang wie mit weniger FPS, denn das Timing muss zum Bidlschirm auch passen und besonder bei Multiplayer hast du dann eh noch den Server mit der Syncronisierung dazwischenklemmen.

3 Mal darfste raten was du davon hast wenn deine Bude inkl. Monitor mit 240 FPS/Hz läuft, der Server aber für Crossplay mit Playstation etc. auf 60 Bilder begrenzt is....., abgesehen von der Syncronisation an sich.
Timing von Physik ist sicherlich nicht an FPS pro Sekunde gebunden, zumal vieles ältere ohne VSync/FPS-Limit schlichtweg zu schnell läuft sonst und da gab es einiges.

Gruss Dennis
 
Zuletzt bearbeitet:
Meine Spiele laufen mit einer GTX 1070 noch ganz gut. wie geschrieben - mit Monitor 144Hz amd g-sync kompatibel. Beim für mich wichtigsten spiel - ESO habe ich meistens über 60Hz bzw. FPS. unterschied ich nicht verstehe :) . Input Lag eher wegen LAN bzw, WAN Verbindung. Deshalb nochmal die Frage:
Was ist die Erkenntnis bzw. die Frage in diesem Thread? V-Sync kostet was? Wann? und sollte man es einschalten?
Beitrag automatisch zusammengeführt:

wobei mir diese Frage bereits in diesem Thread kompetent Beanwortet wurde.
Beitrag automatisch zusammengeführt:

Dennis: "Der Modus für geringe Latenz, also low Latency ist ebenso auch für VSync optimiert, also wenn man ohne VSync spielt sollte man "Ein" nutzen und eben nicht "Ultra"

Quelle? So nun ist Schluss, ich mache mich nicht weiter lächerlich.
 
Zuletzt bearbeitet:
Meine Spiele laufen mit einer GTX 1070 noch ganz gut. wie geschrieben - mit Monitor 144Hz amd g-sync kompatibel. Beim für mich wichtigsten spiel - ESO habe ich meistens über 60Hz bzw. FPS. unterschied ich nicht verstehe :) . Input Lag eher wegen LAN bzw, WAN Verbindung. Deshalb nochmal die Frage:
Was ist die Erkenntnis bzw. die Frage in diesem Thread? V-Sync kostet was? Wann? und sollte man es einschalten?
Beitrag automatisch zusammengeführt:

wobei mir diese Frage bereits in diesem Thread kompetent Beanwortet wurde.
Beitrag automatisch zusammengeführt:

Dennis: "Der Modus für geringe Latenz, also low Latency ist ebenso auch für VSync optimiert, also wenn man ohne VSync spielt sollte man "Ein" nutzen und eben nicht "Ultra"

Quelle? So nun ist Schluss, ich mache mich nicht weiter lächerlich.
kostet dich nichts, einschalten, weil definitiv kein Tearing damit

Lese doch die Beschreibung von Nvidia selbst dazu einfach mal
Unbenannt.jpg

Ich beantworte es ja weil ich die sinnvolle Messung dazu mache ja...
Und daraus geht auch ganz klar hervor das VSync etwas völlig anderes ist als GSync bzw GSync-compatible (also Freesync fähiger Monitor an einer NVidia Graka, wenn unterstützt)

Diese im Prinzip alte Einstellunge von Pre Rendered hat man früher schon nicht ohne Grund auf "1" für CS:GO empfohlen, also heute "Ein"
 
@Joker (AC) Gerne, keine Argumente, keine Formel, keine technischen Hintergründe die irgendwo einen Sinn ergeben, braucht niemand.

Tearing eliminieren wahrnehmbar geht nunmal so oder so nur mit Vsync, etwas worauf ich keine Lust habe.
FPS-Limit sowie VSync inGame, ist eben nicht die beste Lösung, gibt es auch genügend Dummstuss darüber zu lesen
Das klingt jetzt aber ganz anders, als Seite zurück.
Du solltest dir das einfach mal irgendwo anschauen, wenn das Setup stimmt.
Ich verspüre kein Lag Nachteil (heißt nix, bin keine Referenz) und der Junjor zockt Fortnite und Co- (selbe Moni mit 3070 gesynct)
Wehe mir, wenn er da darum laggy wäre....ich hätte keine ruhige Minute mehr. Und tearingfrei ist es noch dazu, auch wenn du es nicht glaubst.
Früher mit 60Hz auf 24" mit 08/15 TN war V-Sync gefühlt Kacke und hatte das permanent off. Da bin ich bei dir.
Mit IPS@Free/G-Sync in WQHD ist alles so wie es sein soll und ich will nie wieder was anders (außer die Range noch vergrößern)
Das sagt mein Popometer (Und zwar Optimierungen VSync off, BQ hoch.....Games werden idR bei mir um 100-130 FPS eingestellt.)
Was wieviel ms wo kostet interessiert mich auch nur sekundär, das können andere besser (nötigenfalls mit Equipment)
 
Irre ich mich oder handelt es sich hier im Thread nicht nicht um einen "GUIDE" wie im Titel angeben? Meiner Einschätzung nach sind hier keine Guidelines oder Anleitungen zu finden. Bitte richtigstellen!
 
Irre ich mich oder handelt es sich hier im Thread nicht nicht um einen "GUIDE" wie im Titel angeben? Meiner Einschätzung nach sind hier keine Guidelines oder Anleitungen zu finden. Bitte richtigstellen!
Guck in den ersten Post, du hast die richtigen Konfigurationen da stehen die du zu setzen hast
Beitrag automatisch zusammengeführt:

Das klingt jetzt aber ganz anders, als Seite zurück.
Du solltest dir das einfach mal irgendwo anschauen, wenn das Setup stimmt.
Ich verspüre kein Lag Nachteil (heißt nix, bin keine Referenz) und der Junjor zockt Fortnite und Co- (selbe Moni mit 3070 gesynct)
Wehe mir, wenn er da darum laggy wäre....ich hätte keine ruhige Minute mehr. Und tearingfrei ist es noch dazu, auch wenn du es nicht glaubst.
Früher mit 60Hz auf 24" mit 08/15 TN war V-Sync gefühlt Kacke und hatte das permanent off. Da bin ich bei dir.
Mit IPS@Free/G-Sync in WQHD ist alles so wie es sein soll und ich will nie wieder was anders (außer die Range noch vergrößern)
Das sagt mein Popometer (Und zwar Optimierungen VSync off, BQ hoch.....Games werden idR bei mir um 100-130 FPS eingestellt.)
Was wieviel ms wo kostet interessiert mich auch nur sekundär, das können andere besser (nötigenfalls mit Equipment)
ETS2 Simulation, kein "Input Lag" dann passt die Mathematik, easy ;-) (mit sowas wie nem Logitech Driving Force GT, beispielsweise)

Range vergrössern... nur wozu.... :d
Beitrag automatisch zusammengeführt:

Unbenannt.jpg
WQHD könnt ich meinem 24er auch geben, Downsampling und so halt, genügend PPI hat der dazu, bringt nur nüscht sinnvolles ausser das es mehr Leistung frisst

Bei der Kiste gibt der hersteller ja nichtmal ne Range an, is ja auch ma geil...,
da bist du laut deinem Profil was das Timing angeht aber auf jeden Fall schön gelackmeiert mit 100 bis 130 fps, das passt nie und nimmer :d
 
Zuletzt bearbeitet:
Range vergrössern... nur wozu.... :d
Meine Monis fangen bei unter 40 FPS an zu husten. Unschön, aber schon knapp darüber, ab ~45 sieht es OK aus.
Range von 30 oder 35 nach 1XX ...nur für alle Fälle, das wäre toll.

da bist du laut deinem Profil was das Timing angeht aber auf jeden Fall schön gelackmeiert mit 100 bis 130 fps, das passt nie und nimmer :d
Wenn du es sagst ;)
Einem Monitor/VGA Spezialisten brauch ich nicht die Bezeichnung nahezulegen, die Acer ist Namen versteckt, oder?
Lasse dir versichert sein, es sind 40-144.
Acer VG270UP bmiipx, neu damals 300€, war 2020 mal sowas wie P/L Tipp und ständig ausverkauft.
 
Zuletzt bearbeitet von einem Moderator:
Meine Monis fangen bei unter 40 FPS an zu husten. Unschön, aber schon knapp darüber, ab ~45 sieht es OK aus.
Range von 30 oder 35 nach 1XX ...nur für alle Fälle, das wäre toll.


Wenn du es sagst ;)
Einem Monitor/VGA Spezialisten brauch ich nicht die Bezeichnung nahezulegen, die Acer ist Namen versteckt, oder?
Lasse dir versichert sein, es sind 40-144.
Acer VG270UP bmiipx, neu damals 300€, war 2020 mal sowas wie P/L Tipp und ständig ausverkauft.
Mag sein das er ab 40 FPS synced

Das Gerat kurz nachgeschaut ist allerdings ein 75Hz Gerät, das geben die schon an
Da is nix mit 144FPS, der den du jetzt verlinkt hast allerdings ja schon ja, da passt es dann natürlich :-)

Gruss Dennis
 
Sagte ich ja...40-144Hz.
Wenn man an untere Grenze kommt zuckelt es, daher der Wunsch ab 30 Hz. Das bekomme ich mit Pendulum nachgestellt (unter 40Hz)
.....und wenn wir beim wünschen sind, dann noch ausreichend hohes HDR im Sync, aber dann sind wir beim doppelt und dreifachen Preis.

Wie gesagt, ich kann dir nur empfehlen, guck dir das real bei jemanden an (auch ob es laggy ist)
- der Acer ist die untere Liga, da gibt es viel bessere. Funktioniert trotzdem prima.
Du wirst überrascht sein, was sich da getan hat ggü starrem Sync.
 
Zuletzt bearbeitet von einem Moderator:
Sagte ich ja...40-144Hz.
Wenn man an untere Grenze kommt zuckelt es, daher der Wunsch ab 30 Hz. Das bekomme ich mit Pendulum nachgestellt (unter 40Hz)
.....und wenn wir beim wünschen sind, dann noch ausreichend hohes HDR im Sync, aber dann sind wir beim doppelt und dreifachen Preis.

Wie gesagt, ich kann dir nur empfehlen, guck dir das real bei jemanden an (auch ob es laggy ist)
- der Acer ist die untere Liga, da gibt es viel bessere. Funktioniert trotzdem prima.
Du wirst überrascht sein, was sich da getan hat ggü starrem Sync.
Kann natürlich sein das dir an der verkehrten Stelle gemessen 40 angezeigt werden die die Bude wohl grad noch packt, in wirklichkeit ist es aber doch weniger, wenn auch nur so 1 bis 2 Frames, das reicht ja schon das du unterhalb der 40 bist und somit raus bist aus der variaben Refresh Rate.
Geld ausgeben nach oben geht immer, wie sinnvoll das ist, ist was anderes, also ich benötige kein HDR, genauso auch kein 10-Bit oder sonstnochwas, ich bin kein Bildbearbeitender, Mediengestalter oder sonstwas in der Art und des was ich mache, unter anderem YouTube, dazu tuts der Kasten den ich hier habe :-)

Ich hab ja n Bildschirm mit Freesync, mein AOC hier, wie gesagt der kann auch direkt laut AOC selbst auf der Produktseite 30 bis 75, ob ich den nun "nur" zwischen 30 bis 60 oder eben 30 bis 75 nutze macht in der Praxis keinen Unterschied. (ist ja kein starres Sync, wenn du VSync an sich so bezeichnen willst ohne GSync/Gsync-compatible was dann aben FreeSync an Nvidia Graka ist)

Du bist in der tat ein Kandidat wo wir das auch mal anständig Testen können mit Sauerbraten Cube 2, rein theoretisch bist du ja mathematisch gesehen im Vorteil, weil bei mir mit 75 FPS halt schluss is, praktisch wird dann eher der Skill im Vordergrund stehen.
Faktor Glück, Faktor Map kennen, kann man ausbügeln, beide einfach nur das Gewehr wie hier:

:d

Kollege hat den schlechteren Rechner, limitiert die Frames aber nicht, ich mach ihm aber ordentlich stress, obwohl ich nichtmal geübt bin.
Das letzte mal is halt auch schon fast solange her als das Video von mir dann mal rausgehauen wurde.

Gruss Dennis
 
Wir reden hier über Millisekunden, und mit Gsync compatible aktiv ist Vsync überhaupt nicht in Funktion...
Falsch.

Es wird sogar empfohlen, VSync im Treiber zu aktivieren wenn G-Sync genutzt wird.
 
Nix mit falsch. Vsync greift nur ein, wenn man an die Gsync Grenze kommt und verhindert dadurch ein Überschreiten der Gsync Obergrenze und damit Tearing, daher wird empfohlen es zusätzlich einzuschalten. Schau Dir einfach mal an wie Gsync arbeitet, dann versteht man sofort, dass Vsync gar nicht parallel aktiv sein kein, nur alternativ.

Du hast bei einer Gsync Range von 40-144 folgende Bereiche:
  • kleiner 40 - Frame Doubling / LFC
  • 40-143,9 - Gsync
  • 144 - Vsync (sofern eingeschaltet und damit dann ein Limit bei 144 FPS
    • ALTERNATIV
  • 145+ FPS mit Tearing oder optional Nvidia Fast Sync bzw. AMD Enhanced Sync

Anstatt hier Lachsmilies zu verteilen einfach mal ins Thema einlesen und technisch verstehen, warum manche Dinge so empfohlen werden.
 
Zuletzt bearbeitet:
  • kleiner 40 - Frame Doubling / LFC
  • 40-143,9 - Gsync
  • 144 - Vsync (sofern eingeschaltet und damit dann ein Limit bei 144 FPS
    • ALTERNATIV
  • 145+ FPS mit Tearing oder optional Nvidia Fast Sync bzw. AMD Enhanced Sync

Anstatt hier Lachsmilies zu verteilen einfach mal ins Thema einlesen und technisch verstehen, warum manche Dinge so empfohlen werden.

- Monitor läuft mit einer festen Bildwiederholfrequenz, altes Lied läuft
- Freshrate läuft variable in der Range (wenn diese 40 bis 144 ist)
- Vsync ohne Triple Buffering stellt per se einfach nur ein FPS-Limit dar, ja ein bisschen mehr als das, es kostet aber 0 Leistung und auch keine Reaktionszeit
- Monitor läuft wieder mit einer festen Bildwiederholrate, dem eingestellten Maximum, oder durch VSync auf "schnell" auf ein vielfaches davon, gibt natürlich wieder Tearing
Beitrag automatisch zusammengeführt:

Eine Halbierung der FPS, wie man es vopn früher kennt, bei aktiviertem VSync auf 60HZ der Monitor auf 30 wird es nicht geben, denn alleine schon durch die Range des Monitors ist die minimale FPS ja nun auch schon nach unten gewandert.
Dann müsste bei mir beispielsweise das Game auch schon extrem die Kiste unter Volllast auf unter 30fps drücken, dann würde er auf 15 Droppen, das sind Regionen das kommt so heute einfach nicht mehr vor.

Der Vorteil abgesehen davon das man kein Tearing mehr hat mit VSync zusätzlich zu GSync/Gsync compatible hat, ist ja lediglich das die Einbrüche die man unweigerlich nunmal hat durch die variable Refreshrate gegeben in der Reaktionszeit, das dadurch das Timing immer passt.

Deine Grafikkarte bzw. der ganze Rechner kann im Gaming keine Frames produzieren die immer in derselben Zeit fertiggestellt sind, Beispielsweise durch Eingaben, weil sich dadurch jede Menge Mathematik verändert, das fürht unweigerlich zumindest zu kleinen Drops.
Mit der variablen Refreshrate juckts das aber nunmal nicht, weil das Timing immernoch 1:1 bleibt, so gut es eben geht, jedes einzelne Bild was man sieht läuft nunmal so minimal verzögert aus der Kiste zur Wiedergabe vom Bildschirm ab wie es nur geht.

Triple Buffering aktivieren ist eine gänzlich schlechte Idee, immer schon gewesen, daher kommt aber vermutlich auch der ganze Texturspeicher Blödsinn, aktiviere das mal wenn ein Game knapp 3GB an sich schon gut voll macht, bei einer 3gb Karte oder wenn ein Game schon knapp 5gb an sich voll macht mit einer Karte mit 6GB, selbst 8gb werden dann auch nicht ausreichen. (Triple=dreifach)

Interessant ist es allerdings das sich das aktivieren lässt zum einen auch ohne VSync, dann zum anderen wenn irgendein Game dann mal nicht soviel Speicher wegrödelt, das kann man nämlich durchaus machen.
Manchmal in den Games ohne das VSync aktiviert ist, ansonsten im Treiber, am besten dann per Spielprofil, wird der Reaktionszeit nur nich förderlich sein

Gruss Dennis
Beitrag automatisch zusammengeführt:

Ein Buffer ist eben immer "zwischenspeichern", wenn bei Audio der Buffer grösser ist, ist es dasselbe, das sind wieder verzögerte ebenfalls Millisekunden.
Einige Elgato's hatten mit der Hauseigenen Software soweit ich mich errinere da auch einen Bug, da der Buffer zu hoch eingestellt war, sprich der ist nicht physisch vorhanden also war jegliche Aufnahme davon dann sowie streams am Stottern weil der Buffer nicht funktionierte wie vorgesehen.

Mehr Buffer bedeutet mehr Verzögerung


Gruss Dennis
 
Zuletzt bearbeitet:
"Chicken Invaders 2" übrigens, hab ich die Tage mich mal herangeklemmt das zumindest die Errungenschaft auf Rookie mit Einsatz von Raketen ich mal die bekomme, "Mission complete"

Dieses Spiel läuft aussschliesslich mit roundabout 31FPS, es fällt da zwar echt auf das es nicht wenigstens so 60 mit wenigen Drops auf minimal um die 50 läuft, aber von InputLag kann hier bei meiner Konfiguration absolut keine Rede sein.
Dasselbe ist es auch dann noch zusätzlich mit einem Joystick mit Wing Commander Prophecy, das läuft ebenso afaik auf max 30 FPS, auch da kein spürbarer Inputlag und das ist es ja worauf es ankommt und was man haben möchte.

Kumpel wo wir da mal einige Runden Cube 2 Sauerbraten rumgeballert haben sagt ja auch wortwörtlich zu mir so in etwa "Meine Maus ist in Games wie in Windows einfach mal 1:1 seitdem du mir die konfiguriert hast"
8-) :ROFLMAO:

Also kann ich wohl kaum was grossartig falsch machen und hab wohl Recht, denn wenn du unter Windows-Oberfläche n InputLag verspürst dann ist etwas einfach mal richtig schräg.
So einen Bug gab es mal wenn man Windows 10 mit einer bestimmten Build neu installiert hatte, anstatt von der Build davor darauf zu ugraden, was auch immer da mal schiefgelaufen ist, das merkte man in Fire Strike auf meiner Hardware daran, das der 3Dmark (advanced) in Fire Strike recht typisch einfach mal roundabout 1000 Punkte weniger abgeliefert hatte im Endergebnis.

Der Takt-Manager das Fenster davon liess sich auch nur ganz merkwürdig zeitverzögert verschieben mit der Maus


Gruss Dennis
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh