Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Alienware AW2524H: Gaming-Monitor mit 500 Hz geleakt
Mit 0% nicht, du Vollhorst. Oder willst du mir jetzt erklären, das ein Blinder NICHTS sehen kann? Ein Blinder kann auch nicht zwischen UHD und 16x8 unterscheiden, er kann auch nicht zwischen einem 10" und einem 500"-Monitor unterscheiden.
Kann ein Tauber Bach von Heavy Metal unterscheiden? Sicher nicht. Aber mit nur 10% Gehör kann man das.
Sehkraft gibt die Sehschärfe wieder, das hat NICHTS mit zeitlichem Auflösungsvermögen zu tun. Aber die Wiederholrate hat eben mit der Zeit zu tun, nicht mit der Auflösung. Es steckt sogar schon im Wort: WIEDERHOLEN.
Wenn ein Monitor mit 30Hz mit jedem Hz schwarz weiß blinkt, wird selbst deine Mutter sogar OHNE Brille sehen das es flimmert. Bei 200Hz wird sie aber kein Flimmern mehr sehen, sondern nur grau.
Und wenn ein Monitor 2s (0,5Hz) braucht um ein Bild darzustellen, wird auch deine Mutter ein Lag von 2s feststellen, egal ob sie 30% Sehschärfe hat oder 2000%.
Das eine hat mit dem anderen nichts, ich wiederhole: NICHTS, ich wiederhole nochmal:
N
I
C
H
T
S
zu tun.
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mit 0% nicht, du Vollhorst. Oder willst du mir jetzt erklären, das ein Blinder NICHTS sehen kann? Ein Blinder kann auch nicht zwischen UHD und 16x8 unterscheiden, er kann auch nicht zwischen einem 10" und einem 500"-Monitor unterscheiden.
Kann ein Tauber Bach von Heavy Metal unterscheiden? Sicher nicht. Aber mit nur 10% Gehör kann man das.
Sehkraft gibt die Sehschärfe wieder, das hat NICHTS mit zeitlichem Auflösungsvermögen zu tun. Aber die Wiederholrate hat eben mit der Zeit zu tun, nicht mit der Auflösung. Es steckt sogar schon im Wort: WIEDERHOLEN.
Wenn ein Monitor mit 30Hz mit jedem Hz schwarz weiß blinkt, wird selbst deine Mutter sogar OHNE Brille sehen das es flimmert. Bei 200Hz wird sie aber kein Flimmern mehr sehen, sondern nur grau.
Und wenn ein Monitor 2s (0,5Hz) braucht um ein Bild darzustellen, wird auch deine Mutter ein Lag von 2s feststellen, egal ob sie 30% Sehschärfe hat oder 2000%.
Das eine hat mit dem anderen nichts, ich wiederhole: NICHTS, ich wiederhole nochmal:
N
I
C
H
T
S
zu tun.
Dann erkläre mir bitte wie willst du bei 1% Sehkraft den Unterschied zwischen 120 Hz und 300 Hz sehen?
Dann erkläre mir bitte wie willst du bei 2% Sehkraft den Unterschied zwischen 120 Hz und 300 Hz sehen?
Dann erkläre mir bitte wie willst du bei 3% Sehkraft den Unterschied zwischen 120 Hz und 300 Hz sehen?
Wenn es absolut nichts damit zu tun hat, macht es keinen Unterschied ob ich 2 oder 10 % Sehkraft habe. Oder könnte es vielleicht sein, dass du doch eine Mindestsehkraft brauchst und es somit ein limitierender Faktor ist?
Hab ich schon 5mal erklärt, du kapierst es nur nicht. Jetzt kommst du mit Extremwerten ala 0% und jetzt 1% an.
Ist mir schon klar, das jemand mit nur 1% Sehkraft nicht sieht, wenn auf einem UHD-Monitor nur 1px vom Kopf des Gegners um die Ecke guckt, weil er diesen einen Pixel nicht erkennen kann. Das hat aber trotzdem nichts mit der Wiederholrate des Monitors zu tun, sondern dann ist eben die Sehkraft zu schlecht um überhaupt irgendwas erkennen zu können. Wenn man den Pixel sowieso nicht erkennt, ists natürlich egal, obs 30 oder 300Hz sind.
Das ist ein klassisch falscher Umkehrschluss, aka eine Korrelation aber keine Kausalität. Wusstest du schon, das Erdbeeren nicht wachsen, wenn Menschen in Wintermänteln in der Nähe rumlaufen? Hast du schonmal Menschen in Wintermänteln reife Erdbeeren pflücken sehen? Nein, also siehst du, Erdbeeren wachsen nicht, wenn Menschen in Wintermänteln in der Nähe sind. Logisch, oder?
Du bildest dir ja auch ein, das du "schneller" sehen könntest, weil du 140% hast. Tust du nicht. Du kannst Feinheiten besser erkennen, schneller macht dich das aber nicht. Du magst den einen kleinen Pixel erkennen, aber den siehst du nur, weil du 140% hast. Du siehst ihn deswegen aber nicht früher oder schneller.
Wie schnell du den Pixel erkennen kannst, hängt eben von der Wiederholrate des Monitors ab. Sobald man also einen Pixel erkennen kann, egal ob man für UHD@27" dafür 140% Sehschärfe braucht oder ob man in 640x480 spielt und einen einzelnen Pixel somit auch mit nur 50% Sehschärfe erkennen kann, hängt die Reaktionszeit für beide gleichermaßen von der Wiederholrate des Monitors ab, hat aber nichts mit der Auflösung des Monitors und dementsprechend auch nicht mit der eigenen Sehschärfe zu tun.
Das Signal wird nicht langsamer oder schneller weil die Bandbreite eine andere ist
Die Frage ist packt es der Rechner das die "veralteten" Bilder konsisten jung genug sind oder eben nicht, selbst ohne Eingaben im Benchmark ist das bei alten Schinken schon für die Tonne
Ist schon ein Unterschied ob die Frametime Rechnerseitig 2 oder eben 4ms sind oder halt sogar bloß 8ms
Das stimmt nur bedingt. Denn die Latenz, also die Zeit zwischen Tasteneingabe und Reaktion auf dem Screen, ist die Summe aus System Latency + 1Hz.
(1Hz = die Zeit, die der Moni für einen Bildaufbau zum nächsten benötigt.)
Genau, klar, für den kompetitiven Vorteil ist die Reaktionszeit dann natürlich entscheidend, aber mir gehts nur um das "direktere Empfinden", ich bewege die Maus und warte auf die Reaktion des Bildschirms. Diese Zeit ist ja um einiges kürzer. Bringt mir jetzt direkt anteilig nicht soviel, wie schon richtig erkannt, aber fühlt sich halt deutlich angenehmer an in Spielen. Reine Komfortsache.
Die bessere Reaktionszeit kommt sicherlich nicht durch Frames per Second
Der Signalweg im Rechner wir nicht kürzer sondern länger, blöderweise geht genau dort ohnehin die meiste Zeit drauf, da die virtuellen Welten ohnehin dadrin nur durch die Schalterrei existiert.
Man schaut ohnehin verzögert hinein, das ist anders überhaupt nicht möglich.
Weniger verzögert schaut man bestimmt nicht rein wenn die Verarbeitung mehr wird anstelle weniger
Hab ich schon 5mal erklärt, du kapierst es nur nicht. Jetzt kommst du mit Extremwerten ala 0% und jetzt 1% an.
Ist mir schon klar, das jemand mit nur 1% Sehkraft nicht sieht, wenn auf einem UHD-Monitor nur 1px vom Kopf des Gegners um die Ecke guckt, weil er diesen einen Pixel nicht erkennen kann. Das hat aber trotzdem nichts mit der Wiederholrate des Monitors zu tun, sondern dann ist eben die Sehkraft zu schlecht um überhaupt irgendwas erkennen zu können. Wenn man den Pixel sowieso nicht erkennt, ists natürlich egal, obs 30 oder 300Hz sind.
Das ist ein klassisch falscher Umkehrschluss, aka eine Korrelation aber keine Kausalität. Wusstest du schon, das Erdbeeren nicht wachsen, wenn Menschen in Wintermänteln in der Nähe rumlaufen? Hast du schonmal Menschen in Wintermänteln reife Erdbeeren pflücken sehen? Nein, also siehst du, Erdbeeren wachsen nicht, wenn Menschen in Wintermänteln in der Nähe sind. Logisch, oder?
Du bildest dir ja auch ein, das du "schneller" sehen könntest, weil du 140% hast. Tust du nicht. Du kannst Feinheiten besser erkennen, schneller macht dich das aber nicht. Du magst den einen kleinen Pixel erkennen, aber den siehst du nur, weil du 140% hast. Du siehst ihn deswegen aber nicht früher oder schneller.
Wie schnell du den Pixel erkennen kannst, hängt eben von der Wiederholrate des Monitors ab. Sobald man also einen Pixel erkennen kann, egal ob man für UHD@27" dafür 140% Sehschärfe braucht oder ob man in 640x480 spielt und einen einzelnen Pixel somit auch mit nur 50% Sehschärfe erkennen kann, hängt die Reaktionszeit für beide gleichermaßen von der Wiederholrate des Monitors ab, hat aber nichts mit der Auflösung des Monitors und dementsprechend auch nicht mit der eigenen Sehschärfe zu tun.
Ne, ich glaube du hast es immer noch nicht verstanden.
Was ich geschrieben habe war: Ich verstehe nicht wie es dazu kommt - zumindest habe ich 140 % Sehkraft, daran kann es schon mal nicht liegen.
Was ich nicht geschrieben habe war: ich habe 140 Sehkraft, ich müsste das doch sehen können.
Ich habe also nicht gesagt, dass meine Sehkraft gut ist und deswegen müsste ich einen Unterschied sehen können. Ich habe gesagt meine Sehkraft ist nicht so schlecht, dass es daran liegen kann.
Ich habe also nicht die Behauptung aufgestellt, dass eine hohe Sehkraft zu einer hohen HZ Wahrnehmung für sondern nur, dass meine Sehkraft nicht so schlecht ist, dass sie Wahrnehmung dadurch limitiert ist.
Ich weiß nicht wie oft ich das noch erklären soll, bis du es begreifst.
Ich habe, so wie ich das schon x Mal schrieb eine Limitierung geschrieben. Ich hätte auch schreiben können: Meine Sehkraft ist 0< und daher bin ich nicht limitiert.
Ich habe nicht geschrieben meine Sehkraft ist =140 und daher sollte ich die unterschiede sehen können. 140 ist also kein erweiternder Faktor.
Dem hast du jetzt auch schon mehrfach indirekt zugestimmt aber irgend wie macht es bei dir immer noch nicht klick.
Alleine da ist schon kein Unterschied zu bemerken
16,6 oder 13,3ms hätte der Rechner also Zeit Pro Frame
Chicken Invaders lief zuletzt mit 30, der 2er ?
Auch da ist kein wahrnehmbarer InputLag, das kannst du auf nem P4 sicherlich genauso Zocken wie auf nem Ryzen x xxxx
Die Sehkraft limitiert die zeitliche Wahrnehmung NIE. Beides hat miteinander nichts zu tun. Immernoch.
Wenn du einen Pixel nicht erkennst, fehlt dir die nötige Sehkraft. Wenn du einen Pixel mangels Sehkraft (und/oder zu hoher Monitorauflösung in Relation zu deiner Sehkraft (und Betrachtungsabstand)) sowieso nicht erkennen kannst... oder anders gesagt: Wenn deine Sehkraft nicht ausreicht um eine Änderung erkennen zu können, ist die Frage nach der Wiederholrate sowieso hinfällig, weil was du nicht sehen kannst, siehst du halt nicht.
Das ist eine Korrelation, keine Kausalität!
Merkst du eigentlich, das es hier um die Wiederholrate geht? Nicht um die Auflösung des Monitors, nicht um die Größe des Monitors, nicht um die Pixeldichte des Monitors. Sondern um die 500Hz die dieser Monitor hat. Und diese 500Hz sind UNABHÄNGIG von der Auflösung, Größe oder Pixeldichte des Monitors.
Dein Problem ist also, das jemand mit nur 50% Sehkraft auf einem 25" mit nur FHD einzelne Pixel möglicherweise eh nicht erkennt und somit auch nicht reagieren kann. Auf was man nicht sieht, kann man nicht reagieren. Klar. Hat aber weiterhin nix mit den 500Hz zu tun.
Du mit deinen herausragenden 140% Sehkraft, wärst aber bei nur FHD auf 25" eher in der Lage nebenbei noch die Pixel zu zählen. Weil du sie sehr gut siehst. Schneller oder langsamer macht dich das aber weiterhin nicht.
Die Sehkraft limitiert die zeitliche Wahrnehmung NIE. Beides hat miteinander nichts zu tun. Immernoch.
Wenn du einen Pixel nicht erkennst, fehlt dir die nötige Sehkraft. Wenn du einen Pixel mangels Sehkraft (und/oder zu hoher Monitorauflösung in Relation zu deiner Sehkraft (und Betrachtungsabstand)) sowieso nicht erkennen kannst... oder anders gesagt: Wenn deine Sehkraft nicht ausreicht um eine Änderung erkennen zu können, ist die Frage nach der Wiederholrate sowieso hinfällig, weil was du nicht sehen kannst, siehst du halt nicht.
Das ist eine Korrelation, keine Kausalität!
Merkst du eigentlich, das es hier um die Wiederholrate geht? Nicht um die Auflösung des Monitors, nicht um die Größe des Monitors, nicht um die Pixeldichte des Monitors. Sondern um die 500Hz die dieser Monitor hat. Und diese 500Hz sind UNABHÄNGIG von der Auflösung, Größe oder Pixeldichte des Monitors.
Dein Problem ist also, das jemand mit nur 50% Sehkraft auf einem 25" mit nur FHD einzelne Pixel möglicherweise eh nicht erkennt und somit auch nicht reagieren kann. Auf was man nicht sieht, kann man nicht reagieren. Klar. Hat aber weiterhin nix mit den 500Hz zu tun.
Du mit deinen herausragenden 140% Sehkraft, wärst aber bei nur FHD auf 25" eher in der Lage nebenbei noch die Pixel zu zählen. Weil du sie sehr gut siehst. Schneller oder langsamer macht dich das aber weiterhin nicht.
Das dein Kopf nicht durch kognitive Dissonanz explodiert wenn du diese Zeilen schreibst ist mir ein Rätsel.
Du schriebst in einem Kommentar: Die Sehkraft limitiert die zeitliche Wahrnehmung NIE.
In einem anderen Kommentar schreibst du: Ist mir schon klar, das jemand mit nur 1% Sehkraft nicht sieht,[..] weil er diesen einen Pixel nicht erkennen kann.
Der Signalweg im Rechner wir nicht kürzer sondern länger, blöderweise geht genau dort ohnehin die meiste Zeit drauf, da die virtuellen Welten ohnehin dadrin nur durch die Schalterrei existiert.
Man schaut ohnehin verzögert hinein, das ist anders überhaupt nicht möglich.
Und wie kommst du jetzt darauf, dass die meiste Zeit durch die Rechnerei draufgeht? Weil der Balken in der Grafik länger ist? Es steht doch sogar da "Blocks not to scale".
Ich hatte mal einen Reflex Latency Analyzer Monitor und dort habe ich 8ms button-to-pixel-latency gemessen. Da machen 4ms mehr oder weniger (120Hz vs 240Hz) 50% aus!
Und ja natürlich ist stabile Frametime auch wichtig, daher limitiere ich ja auf 220fps, damit ich auch in der VRR-Range bleibe. Unlimited würde der Rechner hier weit über 400fps schaffen, also die Rechnerei ist nicht der Flaschenhals. Moderne Prozessoren schaffen sogar weit mehr als 600fps in Rainbow Six.
Und wie kommst du jetzt darauf, dass die meiste Zeit durch die Rechnerei draufgeht? Weil der Balken in der Grafik länger ist? Es steht doch sogar da "Blocks not to scale".
Ich hatte mal einen Reflex Latency Analyzer Monitor und dort habe ich 8ms button-to-pixel-latency gemessen. Da machen 4ms mehr oder weniger (120Hz vs 240Hz) 50% aus!
Und ja natürlich ist stabile Frametime auch wichtig, daher limitiere ich ja auf 220fps, damit ich auch in der VRR-Range bleibe. Unlimited würde der Rechner hier weit über 400fps schaffen, also die Rechnerei ist nicht der Flaschenhals.
Wie gesagt, ich glaube schon, dass es Menschen gibt, die daraus tatsächlich etwas verwandeln können aber nur mal um das einzuordnen: ich habe gefunden, dass die durchschnittliche menschliche Reaktionszeit, unter Idealbedingungen, zwischen 180 und 200 ms liegt. Daher halte ich es für den normalen User eher für unwahrscheinlich, dass ein unterschied von 4 ms einen ernsthaften unterschied macht im Ergebnis.
Es mag auch sein, dass es Menschen gibt, die einen ästhetischen Unterschied wahrnehmen. Das kann ich aber nicht bewerten, da ich keinen sehen kann.
@cresent15
Nochmal, es geht nicht darum wie schnell ich auf den Bildschirm reagiere sondern wie schnell der Bildschirm auf mich reagiert. Etwas zu klicken und abzuwarten wann etwas passiert ist doch wesentlich schneller erledigt als auf eine Aktion zu warten und dann daraufhin zu klicken.
@cresent15
Nochmal, es geht nicht darum wie schnell ich auf den Bildschirm reagiere sondern wie schnell der Bildschirm auf mich reagiert. Etwas zu klicken und abzuwarten wann etwas passiert ist doch wesentlich schneller erledigt als auf eine Aktion zu warten und dann daraufhin zu klicken.
Kein Thema. Hier spielt ja auch viel "Einstellung" mit rein.
Ob ich etwas 4 ms früher sehe oder nicht bei einer Reaktionszeit von 200 ms... mir fehlt einfach die Vorstellungskraft, dass dabei ernsthaft etwas bei raus kommt. Ich glaube schon ,dass es Leute gibt... aber begrenzt, Wie gesagt, ich kann es nicht bewerten, ich kann da einfach nichts sehen bei einer Blindvorführung. Da ist meine Trefferquote 50 %.
Na, immerhin Einer.
Die Anderen verfahren nach dem Motto: "Ich les mir ja nich'mal die eigenen Posts durch. Und folglich die der Anderen keinesfalls 2mal."
Das menschliche Auge als d e n Maßstab für die Bewertung von Monis anzusehen ist ja durchaus ein Steckenpferd von mir…
aber wenn ich hier so auf die letzten Posts blicke: Sorry, tlrd.
240hz hab ich bei nem kollegen auf nem Benq tn panel gesehen.
bild sah aus wie scheisse aber es war merklich flüssiger als mein 120hz aw3420dw.
bin mit dem oled aber mehr als zufrieden. spiele tatsächlich nur auf 120hz da es für mich ausreicht und die gpu dabei nicht auf anschlag laufen muss. und der oled ist so fix dass die 120hz so aussehen wie 165hz aufm IPS.
langt
die 500hz kannste aber eh nur selten nutzen. selbst in cs wird man in einem 5on5 nicht durchgehend die 500 halten., spätestens wenn der bombspot zugesmoked wird
trotzdem nett was mitlerweile möglich ist. wird aber sicher nen tn panel sein?
Und wie kommst du jetzt darauf, dass die meiste Zeit durch die Rechnerei draufgeht? Weil der Balken in der Grafik länger ist? Es steht doch sogar da "Blocks not to scale".
Ich hatte mal einen Reflex Latency Analyzer Monitor und dort habe ich 8ms button-to-pixel-latency gemessen. Da machen 4ms mehr oder weniger (120Hz vs 240Hz) 50% aus!
Und ja natürlich ist stabile Frametime auch wichtig, daher limitiere ich ja auf 220fps, damit ich auch in der VRR-Range bleibe. Unlimited würde der Rechner hier weit über 400fps schaffen, also die Rechnerei ist nicht der Flaschenhals. Moderne Prozessoren schaffen sogar weit mehr als 600fps in Rainbow Six.
Dennoch stimmt es so auch wenn da steht "Blocks not to scale"
Ist doch logisch das die nicht gegen sich selbst "Marketing" betreiben, das ist das eine, das andere ist immernoch das deine Grafikkarte für die Frames zuständig ist, nicht die CPU.
Witzig wenn ich ne Frametime von 2ms habe und die Glotze 1ms braucht das umzusetzen, komm ich durch die Eingaben vielleicht insgesamt mal auf 6ms und das mach ich mit 74 bzw 60, mit mehr wird es länger sein, mehr Queue, längere Warteschlange und bis es soweit ist werden dann auch noch die älteren aus der Warteschleife verworfen.
Solange du nicht mit Absicht durch Fehlkonfiguration in Limits rennst wird es immer gut laufen.
Guck die die Konfigurationen mal genauer an, sogar die am Ende des Tages auch entsprechenden Beschreibungen in der Nvidia-Systemsteuerung
Das was unlimited oder mit einem höheren Limit mehr Last auf der CPU erzeugt sind jedenfalls mal keine Frames an sich, da muss Physik genauer berechnet werden.
Mal ganz davon abgesehen das du in Probleme gerätst das die Games das garnicht richtig können, Pfützen unter Lara deren Wellen eskalieren, nen Blaskowicz der ne Leiter womöglich 10 mal so schnell hochrennt.
Das gibt es bei alten Schinken sowie bei aktuelleren Games gleichermaßen.
Anhand der Benchvergleiche von mir kannste auch sehen das des schon ohne Eingaben schlechter läuft, da weissde auch gleich was wirklich sinnvoll von bei mir roundabout 350fps avg nachher in der Konsole übrig bleibt, des bringt einem 0,0, ausser das man eben mehr Leistungsaufnahme hat, zudem eben der Nachteil das es schlechter läuft.
Takt bei der Grafikkarte macht da halt auch genauso 0 aus, wenn dann eher die CPU ja, aber des ist an sich garkein Thema mehr.
Das Vsync ebenso keine Leistung kostet hatte ich ja auch schonmal festgestellt, im Alltag ist das nicht der Fall und genauso auch nicht im Benchmark, klar hat man damit nicht die meisten Punkte dort das ist aber nunmal auch nen ganz anderer Vergleich zumal eben ohne Eingaben.
Ohne Limits, wird die Kiste immer reagieren wie die Maus sich auf der Windowsoberfläche bedienen lässt, gefühlt eben Verzögerungsfrei und dazu braucht es keine x FPS
Die 60 die will und sollte man haben ja, mehr macht da aber nunmal Tatsache absolut keinen Sinn, nicht für die Reaktionszeit des Gesamtsystems und auch nicht für die Wahrnehmung des Bildes.
Leichte Einbrüche die man nunmal zwangsweise hat, dafür ist Freesync(Gsync-compatible)/Gsync ne feine Sache, denn die paar Frames mal mehr, mal weniger kriegst du dadurch einfach nicht mit und der Bildverlauf ist eben Sauberer.
Gruss
Beitrag automatisch zusammengeführt:
Ausserdem @SynergyCore
wie kommst du darauf das nicht die meiste Zeit durch die Rechnerrei draufgeht, wann soll die denn draufgehen...
Klickst du war das Signal sofort da, das dauert nicht lange, Strom fliesst mit Lichtgeschwindigkeit, dürfte schnell genug sein.
Deswegen auch das Signal wegen dem Bildschirm, das bleibt nunmal gleich schnell und da geht nur 1ms drauf.
Das ne PS/2 Maus oder eine USB-Maus mit entsprechendem Adapter aus PS/2 geringfügig noch etwas schneller ist, aus technischen Gründen einfach, das wird schon niemand mehr feststellen in der Praxis, messbar isses aber.
Warum das so ist, nuja USB, wird abgefragt von der CPU, PS/2 labert nunmal direkt voll, kann man ebenso messen mit LatencyMon, da ist es für Shit auf der CPU ein Himmelweiter unterschied, da brauchst nur 20sekunden maximal mal so und mal so im IDLE messen.
Und komm mir net mit dem Argument das alle Wege gleichlang wären wie Kabel etc., mehr Last innerhalb der CPU bedeutet, mehr Schaltkreise und die sind bei weitem nicht nur parallel sondern eben auch in Reihe, da wird er Weg innerhalb der CPU nunmal definitiv länger.
So nen Bullshit hab ich auf Facebook mal von jemanden gelesen, der meinte er hätte an ner FH studiert, wenn ich so nen Blödsinn quatsche würd ich echt nicht herumtönen das ich studiert hätte, peinlich ist sowas, kann er sein Studium auch gleich an den Nagel hängen gehen
Fakt ist nunmal auch, das Software die dann angeblich anders arbeiten soll als die Mathematik des PC's hergibt und mehr Frames per Second benötigen soll einfach mal auch eine Fehlkonstruktion sind an Programmcode.
Aber sei es drum, gut programmiert wie früher wird eben auch nicht mehr, oder hat mal wieder jemand sowas gesehen wie die Omega-Treiber damals für ATI-Karten ?
Also ich nicht, so ein wenig Windows entschlacken oder NVidia Treiber, vielleicht auch AMD Treiber indem man nach dem Entpacken vor der Installation bisschen was an Dateidaten löscht, das ist echt mal sehr profan.
NVCleanstall beispielsweise verursacht ja nichtmal Signaturprobleme, die dann irgendwie niemand in den Griff bekommen würde, da braucht man nichtmal grossartige PC-Kenntnisse dafür
Denn kommen noch die ganzen Multiplayer dazu, syncronisiert ist nunmal syncronisiert, wenn dir die entsprechenden Bilder fehlen oder die zu alt sind, tjoa denn kriegst halt die Kugel in den Hintern, obwohl du bei dir schon um die Ecke gelaufen bist, dumm gelaufen 🤣