[Sammelthread] Abgespeckte Windows Versionen für bessere Performance (FPS / Frametimes / Latenz)

Und du bekommst es nicht hin, die Frage von mir zu beantworten.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und du bekommst es nicht hin, die Frage von mir zu beantworten.
Du stellst die verkehrten Fragen, so sieht es halt nunmal aus.

CX_2022-06-09_00-16-59_Comparison.pngFPSAimTrainer-Win64-Shipping_2021_12_14_16_40_21_825.jpgFPSAimTrainer-Win64-Shipping_2021_12_14_16_58_02_067 (1).jpg
Einfach die Augen auf machen

160Hz Monitor laut deinem Avatar, also weissde was du mit Vsync/G-Sync zu tun hast mit dem FPS-Limit, ganz einfache Kiste

Gruss
 
Genau. Wenn man eine Frage nicht beantworten kann, dann ist die Frage verkehrt......
Ja wenn man einfach nicht versteht wie das System funktioniert im EVA Prinzip und auf völlig verkehrte Werte schaut.
Ich kann es seit gefühlt Ewigkeiten erklären, habe es sinnvoll gemessen und somit bewiesen, Punkt Ende aus
 
Du verstehst doch den csgo screenshot von dir nicht mal, denkst du hast die geringsten Frametimes weil bei obersten (und auch deinem favorit) am meisten blau <2ms ist :ROFLMAO:
 
Na Dennis, dann erkläre es doch. Nimm dir Zeit, formuliere es verständlich und reagiere auf Nachfragen mit klar formulierten Antworten. Du schaffst das!
 
Du verstehst doch den csgo screenshot von dir nicht mal, denkst du hast die geringsten Frametimes weil bei obersten (und auch deinem favorit) am meisten blau <2ms ist :ROFLMAO:
Oben steht Prozent in der kompletten Länge von links nach rechts, ja exakt das ist es blöderweise.
Das was dunkelblau ist oder sogar gelb, exakt das ist bei dir dein Nachteil.

@RoBBe07
Habe fertig :d

Gruss Dennis
Beitrag automatisch zusammengeführt:

100 Prozent sind die FPS max pro Sekunde, prozentuale Teile davon eben 2, 4 und 8ms
Daher ergab sich in dem NVidia eigenem Tool folglich auch eine Verbesserung mit entsprechend VSync und Cap.
Beitrag automatisch zusammengeführt:

Aber naja wer halt auch wehement behauptet man könnte nen 1080p Video nativ auf irgenwas höher an Auflösung von 1920x1080 ohne Skalierung wiedergeben im Vollbild, da ist eh Hopfen und Malz verloren.

:coffee2::popcorn:
.......
 
Zum Thema selbst
AtlasOS

Defender ist draussen, ja ist ja auch kein Problem
Bei mir zeigt sich dasselbe wie in Tests die schon existieren, also entweder ohne Fahren oder eben Avast

Meltdown/Sprectre mach ich schon seit Jahren

Damit es mit dem alten i7 2600 richtig funktionierte hab ich denn halt auch mal was spezielleres gemacht

Dazu muss man aber kein OS neu installieren, aber immerhin könnte man da nachgucken auf GitHub wie es scheint ist ja alles Quelloffen

Gruss
Beitrag automatisch zusammengeführt:

Das Popcorn schmeckt Leute :d
Fachkräftemangel, mehr fällt mir dazu nicht mehr ein :d
 
Oben steht Prozent in der kompletten Länge von links nach rechts, ja exakt das ist es blöderweise.
Das was dunkelblau ist oder sogar gelb, exakt das ist bei dir dein Nachteil.

@RoBBe07
Habe fertig :d

Gruss Dennis
Beitrag automatisch zusammengeführt: Vor 27 Minuten
100 Prozent sind die FPS max pro Sekunde, prozentuale Teile davon eben 2, 4 und 8ms
Daher ergab sich in dem NVidia eigenem Tool folglich auch eine Verbesserung mit entsprechend VSync und Cap.

Dacht ich mir, dass du den Screenshot nicht checkst.

Die % haben nichts mit max FPS pro Sekunde zu tun.
In dem Screenshot werden die aufeinanderfolgenden Frametimes angezeigt und verglichen. Da du auf 74 FPS gecapt hast, sind das bei dir 1000/74 = 13,51 ms pro FPS.

Da du wie eben geschrieben auf 74 gecapt hast und die "sogar" halten kannst, hast du fast durchgehend 13,51ms pro Frame, beim nächsten Frame wieder 13,51ms, beim nächsten wieder, und wieder, und wieder.
Der unterschied von 13ms zu 13ms sind unter 2ms, daher ist dein blauer Balken auch so lang und blau, verstehste?

Aber 13,51ms pro Frame zu brauchen ist beschissen, deswegen hast du nicht die besten Frametimes, sondern halt einfach nur konstant beschissene.

Aber naja wer halt auch wehement behauptet man könnte nen 1080p Video nativ auf irgenwas höher an Auflösung von 1920x1080 ohne Skalierung wiedergeben im Vollbild, da ist eh Hopfen und Malz verloren.
Zeig mir doch mal, wo ich sowas behaupte? Ich hab dir nur geschrieben, dass deine Twitch quali einfach nur durchschnitt ist, mehr nicht.
 
AtlasOS, ReviOS usw.. das ist so lächerlich 🤣 schmeiß auch kurz NTLite an, hau alles mit einem der Templates raus und nenn es anschließend HoizOS.
 
Bleibe da wirklich hinterher nurnoch etwas über 30 Prozesse übrig ja ?
So weit runtergedengelt hab ich "früher" Windows 7 und 8 bzw 8.1, also wenn das geht, dann hab ich einiges bisher noch nicht so geblickt/hinbekommen am laufendem System.

Gruss
 
Grade mal auf einen Beitrag zu einer abgespeckten Windows Version gestoßen. Vllt für den Einen oder Anderen interessant....
 
Dacht ich mir, dass du den Screenshot nicht checkst.

Die % haben nichts mit max FPS pro Sekunde zu tun.
In dem Screenshot werden die aufeinanderfolgenden Frametimes angezeigt und verglichen. Da du auf 74 FPS gecapt hast, sind das bei dir 1000/74 = 13,51 ms pro FPS.

Da du wie eben geschrieben auf 74 gecapt hast und die "sogar" halten kannst, hast du fast durchgehend 13,51ms pro Frame, beim nächsten Frame wieder 13,51ms, beim nächsten wieder, und wieder, und wieder.
Der unterschied von 13ms zu 13ms sind unter 2ms, daher ist dein blauer Balken auch so lang und blau, verstehste?

Aber 13,51ms pro Frame zu brauchen ist beschissen, deswegen hast du nicht die besten Frametimes, sondern halt einfach nur konstant beschissene.


Zeig mir doch mal, wo ich sowas behaupte? Ich hab dir nur geschrieben, dass deine Twitch quali einfach nur durchschnitt ist, mehr nicht.
Du verstehst die Mathematik immernoch noch nicht.
Alle Frames bei x Frames per Second, wieviel Prozent davon diesen x Frames per Second dem besseren Timing entspricht, entsprechend ist mehr hellblau besser weil in kürzerer Zeit prozentual.

Da ist nicht auszurechnen in irgendeiner Zeit, denn das Ergebnis ist dor bereicht aufgeführt, wieviel Prozent in 2ms funktioniert haben, wieviel in 4ms und wieviel in 8ms.
Dafür ist das Balkendiagramm ja da um es zu vergleichen.

blödsinn entsprechen.... der Rest deines Postings.

Deine Behauptung war schlichtweg falsch weil du zur Wiedergabe auf deiner nativen Auflösung skalieren musst im Vollbild und wenn das nix taugt sieht es nunmal kacke aus, ich mach mir jetzt nicht die Mühe ein wiedermal wegen dir geschlossenes Thema herauszusuchen.
Beitrag automatisch zusammengeführt:

Unbenannt.jpg
Render Queue wird länger, stumpf ausgedrückt, befindet sich innerhalb der PC-Latency die ohnehin die längste Zeit ist die vergeht im EVA-Prinzip, so oder so.
Ist da schematisch richtig dargestellt und wurde auch richtig "kopiert" mal von Igorslab, er hatte es sogar recht gut aufgezeigt das man versteht warum ne PS/2 Maus sogar noch besser funktioniert als USB....

So einfach ist das ganze dann auch schon.

Gruss und fröhliche Weihnachten
Beitrag automatisch zusammengeführt:

Im übrigen wird es noch etwas besser wenn ich anstelle von 74 auf 60 limitiere.
Ich weiss jetzt aus dem Kopf nicht mehr wie das noch genau war im CS:GO Bench ob das andere uncapped war oder 120 oder sonstwas, das wird sich aber so oder so gleich verhalten.

Weniger Hz/Frames per Second als Maximum, pro Sekunde, insgesamt die Frametime besser
Mehr Hz/Frames per Second als Maximum, pro Sekunde, insgesamt die Frametime schlechter.

Weil der PC nunmal so funktioniert, wie er nunmal funktioniert, nun und das alleine schon ohne Eingaben im Benchmark
Der Test mit dem Nvidia Tool dazu, spricht wohl eben auch die entsprechenden Bände, das meine Treffsicherheit so rapide hochgeht....
Beitrag automatisch zusammengeführt:

Du kannst sogar das EVA drunterlegen, Eingabe, Verarbeitung und Ausgabe.

Peripheral Latency = Eingabe
PC Latency = Verarbeitung
Display latency = Ausgabe

Wenn, dann kann und sollte man also am Rechner selbst ansetzen, mit der richtigen Konfiguration eben

Gruss
Beitrag automatisch zusammengeführt:

Irgendwo in "CPU (OS/GAME)"
Da gehört dann noch der steigende API-Overhead mit hin, und was man eben so kennt, das die CPU die Grafikkarte limitieren kann.
Was eben genau das Problem ist und immer sein wird, wenn man nicht aus den Limits heraus konfiguriert.

Der Takt den die Grafikkarte gerade mit wieviel Last fährt ist dabei sogar egal, CPU ist interessant, aber Intel sowie auch AMD agieren ohnehin passend mit dem Takt, daher gibt es da kein Problem.
Beispiel Ryzen Power Plan, Minimum 90%.... joa 85% macht ihn etwas effizienter, ob das aber tatsächlich was bringt mit dem Wirkungsgrad des Netzteils muss man eben ausprobieren "ab Wand" messen @Induktor ;-)

Wenn ich nun also Chicken Invaders zocke was bei 30fps capped ist und keinen Inputlag spüre, weil es einfach garkeinen gibt, weil man das schon auf nem Pentium 4 damals Zocken konnte ohne Leistungsprobleme, ist es dasselbe, die 2ms wird man nicht merken.

Was machte Asio nochmal möglich.... (Studiozeug at Home zur HiFi-Wiedergabe)
Unbenannt.jpg
Upps :d

Gruss Dennis
 
Zuletzt bearbeitet:
Du verstehst die Mathematik immernoch noch nicht.
Alle Frames bei x Frames per Second, wieviel Prozent davon diesen x Frames per Second dem besseren Timing entspricht, entsprechend ist mehr hellblau besser weil in kürzerer Zeit prozentual.

Da ist nicht auszurechnen in irgendeiner Zeit, denn das Ergebnis ist dor bereicht aufgeführt, wieviel Prozent in 2ms funktioniert haben, wieviel in 4ms und wieviel in 8ms.
Dafür ist das Balkendiagramm ja da um es zu vergleichen.

blödsinn entsprechen.... der Rest deines Postings.
Was soll bei dir in 2ms funktioniert haben? Bist du eig schon so früh morgens am trinken?
Das Diagramm zeigt genau was ich geschrieben hab, und zufällig auch das, was als Überschrift über dem Diagramm steht.
Deine Behauptung war schlichtweg falsch weil du zur Wiedergabe auf deiner nativen Auflösung skalieren musst im Vollbild und wenn das nix taugt sieht es nunmal kacke aus, ich mach mir jetzt nicht die Mühe ein wiedermal wegen dir geschlossenes Thema herauszusuchen.
Deswegen hab ich dir ein Bild in allen möglichen Auflösungen gezeigt, + ein Bild vom iPhone 13, die sahen alle gleich beschissen aus.
Im übrigen wird es noch etwas besser wenn ich anstelle von 74 auf 60 limitiere.
Ich weiss jetzt aus dem Kopf nicht mehr wie das noch genau war im CS:GO Bench ob das andere uncapped war oder 120 oder sonstwas, das wird sich aber so oder so gleich verhalten.

Weniger Hz/Frames per Second als Maximum, pro Sekunde, insgesamt die Frametime besser
Mehr Hz/Frames per Second als Maximum, pro Sekunde, insgesamt die Frametime schlechter.
Achwas, DAS Diagramm wird besser, wenn du es deinem PC noch leichter machst, noch beschissenere Frametimes raus zu hauen? Wär hätte es denn gedacht, dass ein Diagramm, welches zwei aufeinanderfolgende Frametimes vergleicht, BESSER wird, wenn man die FPS REDUZIERT und eine HÖHERE Frametime erhält???????????????????

:oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops:
 
Zuletzt bearbeitet:
Ich würde ja lachen, wenn es nicht so unendlich traurig wäre.
ich kann nicht mehr, Moderatoren meinten schon die schauen sich das mal an, weil er ständig Unfug schreibt, aber passiert halt nichts hier.
 
Was soll bei dir in 2ms funktioniert haben? Bist du eig schon so früh morgens am trinken?
Das Diagramm zeigt genau was ich geschrieben hab, und zufällig auch das, was als Überschrift über dem Diagramm steht.

Deswegen hab ich dir ein Bild in allen möglichen Auflösungen gezeigt, + ein Bild vom iPhone 13, die sahen alle gleich beschissen aus.

Achwas, DAS Diagramm wird besser, wenn du es deinem PC noch leichter machst, noch beschissenere Frametimes raus zu hauen? Wär hätte es denn gedacht, dass ein Diagramm, welches zwei aufeinanderfolgende Frametimes vergleicht, BESSER wird, wenn man die FPS REDUZIERT und eine HÖHERE Frametime erhält???????????????????

:oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops::oops:
Es zeigt das die meisten der produzierten Frames von maximal 74fps in ms erledigt waren.

Ja weil die Skalierung auf deinen Monitor mit höherer Auflösung schlecht war, ganz einfach

höhere Frametime prozentual mit mehr FPS, heisst du kannst schlechter deinen Skill umsetzen

...
Beitrag automatisch zusammengeführt:

Lernt einfach mal Diagramme lesen...
Beitrag automatisch zusammengeführt:

ich kann nicht mehr, Moderatoren meinten schon die schauen sich das mal an, weil er ständig Unfug schreibt, aber passiert halt nichts hier.
Die Moderatoren haben sich neutral zu verhalten und solange so paar Leut wie du die offensichtlich 0 Ahnung von Sigalverarbeitung haben und keine Gegenbeweise liefern können weil es nunmal nicht anders ist, passiert da rein garnichts.

Bildung vs. wiederlegbarer Religion, wir wissen das da draussen um unseren Planeten herum der Weltraum ist....
Beitrag automatisch zusammengeführt:

Unbenannt.jpg
"PC Latency" das ist das Einzige wo man ansetzen kann um es zu verbessern, ganz einfache Kiste
Die avg im Bench von CS:GO sind also mal ziemlich schietegal
Beitrag automatisch zusammengeführt:

Und selbst wenn, bei mehr Frames pro Sekunde darf es logischerweise nicht länger dauern zwischen den Frames, damit die Frametime besser wird, zumal konstant.
Was sich ja nunmal mit der Treffsicherheit ohne lange herum zu machen mit dem Tool von NVidia eindeutig zeigt
Beitrag automatisch zusammengeführt:

Die Überschrift übersetzt:
Zeitunterschiede zwischen zwei aufeinanderfolgenden Framtime-Werten
Durch mehrere Messungen eben, es geht immer um die Frames alle, und wieviel prozentual davon mit welcher Zeit geschafft worden sind und das im Vergleich.
 
Zuletzt bearbeitet:
Wenn dein rechner 74 Frames pro Sekunde und pro Frame nur 2ms (74*2ms = 148ms) (eine Sekunde 1000ms) braucht, was macht dein Rechner dann die anderen 852ms? Chillen? Standbild? Regale einräumen?
 
Wenn dein rechner 74 Frames pro Sekunde und pro Frame nur 2ms (74*2ms = 148ms) (eine Sekunde 1000ms) braucht, was macht dein Rechner dann die anderen 852ms? Chillen? Standbild?
Du verstehst immernoch nicht das es um die Verzögerung geht, nach der Verarbeitung.
Du schaust quasi immer 2ms zeitlich verzögert in die digitale Welt in deinem Schaltkasten....
Der Bildschirm bekommt innerhalb seines Timings seine xHz/FPS pro Sekunde.
Du hast da immernoch den Äpfel mit Birnen Vergleich....
Beitrag automatisch zusammengeführt:

Ist doch nur logisch, wenn die nächsten 74FPS für die nächste Sekunde kommen, ist dieses Signal eben 2ms alt, um nichts anderes geht es
Und wenn prozentual zu einem grösseren Teil, die x FPS älter sind, ist das eben für die Tonne, die Toilette im Vergleich, du kannst halt nur später reagieren und da kannst du schon ne Kugel im Hintern haben, oder im Kopf.
Weil einer eben soviel schneller sein konnte wie du
 
In dem Diagramm geht es bestimmt nicht um Verzögerung, die einzige Verzögerung die du hast, ist das du pro Frame 13ms brauchst und jemand der High FPS hat halt nur 2ms.
Dein Bildschirm gibt halt dann Frame Nummer 74 bei Hz 74/75 aus, bei mir gibt er halt den Frame 500 bei Hz 160 aus, deswegen ist mein Bild trotzdem VIEL aktueller als deins.
 
In dem Diagramm geht es bestimmt nicht um Verzögerung, die einzige Verzögerung die du hast, ist das du pro Frame 13ms brauchst und jemand der High FPS hat halt nur 2ms.
Dein Bildschirm gibt halt dann Frame Nummer 74 bei Hz 74/75 aus, bei mir gibt er halt den Frame 500 bei Hz 160 aus, deswegen ist mein Bild trotzdem VIEL aktueller als deins.
...
Fakt ist das du mit 60 sogar genug Frames pro Sekunde hast
Bei dir werden viele Bilder verworfen was von Nachteil ist...
FPSAimTrainer-Win64-Shipping_2021_12_14_16_40_21_825.jpgFPSAimTrainer-Win64-Shipping_2021_12_14_16_58_02_067 (1).jpg
Wie oft denn nun noch ?

Ausserhalb des Timing von deinem Bildschirm bist du schlechter dran und nicht besser
Es ging bei Frametime schon immer darum wie alt die Frames sind, dein Grafikkarte produziert die Bilder nichts anderes und die braucht nunmal Zeit X für x FPS pro Sekunde.
Die Weltsimulation ist nicht die Bilderstellung pro Sekunde.
Die Grafikkarte kann also so oder so immer nur zu spät was rendern, weil es dann schon geschehen ist auf der CPU....
2ms sind gefühlt garnichts und so ziemlich das beste was du schaffen kannst

....
Beitrag automatisch zusammengeführt:

eine bessere Frametime ist die, die kürzere Zeit hat, das ist schon asbach uralt und mehr gibt es dazu abschliessen nicht mehr zu sagen
 
Zuletzt bearbeitet:
1000 /60 = 16,6
1000 /74 = 13,5

Wenn man stumpf das hier macht, kommt dabei lediglich heraus das die Kiste bei mehr FPS Pro Sekunde natürlich nicht länger pro Frame an Zeit brauchen darf.
Was der Fall ist bzw da gewesen ist, das ergibt die Messung

Es gibt keine Formel FPS = ms
Das ist Blödsinn

Wenn die Framtime mit weniger FPS pro Sekunde maximal besser wird, liegt das daran das es halt mal länger dauert als beispielsweise 4ms dann mal 8ms und das ist dann schlechter, weil später, also ein älterer Frame irgendwann mitten drin.
Was am Bildschirm passiert ist das dann Frames ausgelassen werden müssen, sonst würde die bei Video und Audio ja alles nur noch weiter später werden, also noch verzögerter, zu alte Frames sind aber nunmal nicht brauchbar.
Wenn es aber gerade auf ein solches Frames ankommt, biste eben gelackmeiert

Das Argument das irgendein Frame "aktueller Wäre" ist somit also quatsch, die Kiste muss es schaffen das schnell genug rauszuhauen und wenn die das nicht tut, weil das System einfach fehlkonfiguriert ist, biste eben im Nachteil.

:d
Beitrag automatisch zusammengeführt:

Ich find's ehrlich gesagt einfach nur respektlos gegenüber den Arbeitern bei Netto. Er sollte lieber froh sein das es volle Regale gibt.
Das ausserdem ja, aber wenn man keine Arguente hat, muss man beleidigend werden, ist ja nichts neues :rolleyes:

Gruss
Beitrag automatisch zusammengeführt:

Worauf ich hinaus will ist, wenn mit mehr FPS als Limit die Frametime, ohne Eingaben schon schlechter wird, wird die das mit Eingaben eben nicht noch besser sondern schlechter
Und es es ist eben nicht aktueller/besser mit schlechterer Frametime dafür max an FPS zu Daddeln, weil man eben mit zeitlich späteren Frames spielt.

Einfach mal nachkonfigurieren und merken das des alles viel besser läuft, zumal NVidia auch was für die Effizienz getan hat, das ist noch ein Bonus obendrauf
1.jpg2.jpg3.jpg

Die Optimierungen und somit zurück zum Thema die man besser selber macht, die verbessern es natürlich zusätzlich noch, dadurch wird ein SOTTR aber beispielsweise nie gescheit auf ner GTX 750Ti laufen :d

Ich kann gerne mal meine Notizen in nem extra Thread zusammenfassen und wer Bock hat, macht einfach mal nach und misst vorher/nachher LatencyMon, CapFrameX wie ich in CS:GO

Gruss Dennis
 
Zuletzt bearbeitet:
Zeit durch fps pro Zeit, is die formel
Über den kompletten benchmark hin gemessen willst du keine Varianzen zum einen haben zum anderen ist es besser und nicht schlechter wenn die Zeit kürzer ist
Zwischen frames pro Sekunde, von Sekunde zu sekunde

100prozent sind immernoch alle frames insgesamt über den kompletten bench

Die 2ms sind besser nicht schlechter, denn alle x fps pro Sekunde sind 2ms Sekunden alt

Die Benches mit mehr frames/Sekunde wo denn mehr 4 und 8 ms Sekunden aufgeführt sind, sind zuviele davon klar viel älter

So sieht die Sache aus
...
Beitrag automatisch zusammengeführt:

1000 /160 was simply schaffen müsste
Hätte seine Kiste pro frame während einer Sekunde nur 6,25ms zeit
Um halt 160 frames pro Sekunde sauber zu schaffen, so sauber es halt geht.
Weil sich so eben 1 Sekunde durch 160 frames pro Sekunde teilt
Wenn die Kiste das nicht schafft dann sieht es eben nicht so aus wie bei mir dort mit 74er limit vs uncap oder cap 120 oder sonstwas

Alleine da macht ihr ja schon den Fehler, ihr sprecht bei dem Ergebnisse 1000 / frames schon von einer Zeit die so an sich erstmal irrelevant ist

Ob die Kiste das gut packt oder nicht ergibt sich am balken
Durch die Messungen im vergleich
Wenns die meiste Zeit 2ms dauert und eben nicht 4ms von Sekunde zu Sekunde, frames von Sekunde zu Sekunde...

Zu alte Bilder kannste eben knicken, die bringen nichts sinnvolles
Treffsicherheit, Screenshot is schon da

Aber ihr glaubt sicherlich auch nich an den Weihnachtsmann, ich sag ja, von Signalverarbeitung keinen Plan aber erzählen... 🤣
 

Anhänge

  • Screenshot_20221224-185247.jpg
    Screenshot_20221224-185247.jpg
    41,8 KB · Aufrufe: 36
Zuletzt bearbeitet:
Ihr solltet Dennis mal dankbar sein, was er allein in diesem Jahr an Fachkompetenz gezeigt und vor allem geteilt hat mit der Community ist für mich allein schon ein Award wert => Forenuser des Jahres 2022! :bigok:


Jetzt liken
 
Es gibt keine 2ms, :rolleyes2: Auf dem CapFrameX-Screenshot werden nur die Frametimes miteinander verglichen und mehr nicht. Ich habe es doch sehr verständlich erklärt. :rolleyes2:

Ich vergebe euch beiden den Troll-Award 2022/2023. :bigok: Dem einen für seine Wall@Brain und den anderen für Benchmark-Cheating.
Was meinst du wohl wird für das Timing des Monitors rausgeschickt, im Prinzip ist wenn es da bei mir gut läuft mit cs go, jedes frame bei 74fps limit 2ms Sekunden alt, also wie bei asio Nutzung im Studio sehr jung

Strom fließt mit Lichtgeschwindigkeit, Maus und Monitor kann man, brauch man aber garnicht mehr grossartig aufaddierrn, die gesamt latency ist sicherlichlich weniger als 10ms,das spürt niemand

Denn was passiert wohl mit nem fertigen frame, nach den 2 ms... 🤦‍♂️

Der troll award gebührt dir, sowie simply und die paar anderen lernresistenten Konsorten wie shirkhan ja...

Keine technischen zusammenhänge, keine geltende Mathematik, nichts verstanden und mist verbreiten
 
@BF2-Gamer lass es, er wird es nicht blicken. Ich glaub ich bin dann für 2023 soweit ihn auf die IL zu setzen.
 
Das mit der Frametime hatte das CB anno um 2000 herum schonmal wenigstens gebacken bekommen, spielt doch mit nachteilen und unnötigem Energieverschwenden, habt ihr Pech gehabt, ganz einfach.
Die bessere Frametime ist und bleibt die, die weniger Zeit hat und eben nicht mehr, genau das ist ein Teil der Systemlatency und zudem der grösste Teil.

Ich kann des CS:GO ja auch mal genau so mit 60er Cap auf dem FX 6300er laufen lassen mit der 750Ti, da wird das gelbe, das schlechtere mehr sein und vermutlich sogar noch rot auftauchen.

Ihr habt echt den Bullshittalksaward verdient...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh