Maximusprime
Enthusiast
- Mitglied seit
- 30.12.2011
- Beiträge
- 255
Ich versteh den Zusammenhang zwischen Frage und Zitat nicht, aber vielleicht meintest du ja das mit dem Delta_t zwischen ingame und Anzeige-time.
Das kannst du nur klein halten, wenn deine Renderzeit kleiner als dein Zeitintervall für die Ausagbe ist. Also Minimum-FPS von >60 FPS. Dann kannst! du das so machen, dass du eben immer genau das gleiche Zeitintervall von 1/60s renderst. Jedes mal wenn du aber länger als 1/60s für das Rendern eines Bildes brauchen würdest, müsstest du den Rendervorgang abbrechen und dein Glück aufs neue Versuchen. Sprich du plättest das "Problem" einfach durch ne Worstcase-Abschätzung, und da die Worstcase-Situationen eben mal locker 50% unter dem AVG-FPS liegen, brüchtest du also Situationen, wo du im AVG-FPS sicherlich mit >120FPS rumrennen würdest. Für nen 120Hz Monitor müssten es dann natürlich 240 FPS sein, wenn man von den 50% ausgeht :ugly:
Nein sehe ich nicht so, zum einen haben wir keine Vergleichswerte für T-Game sondern nur zu T-present und hier könnte man ja schon eingreifen von Seite des Grafiktreibers weil man einfach den Call verzögern könnte, wie willst Du das messen? Als Referenzwert hat man ja nur T -present , an der Stelle an der auch FRAPS misst. Und du gehst von einem fixen Zeitinterval aus, was aber nicht zwingend sein muss, oder?
Um das auf zuzeigen was du vorhast wäre es aber wohl besser Sleepsequenzen einzubauen um dann zu sehen wo der Schwellenwert liegt, ich bin sicher das hier mit Medianwerten gearbeitet wird alles andere wäre Wahnsinn.aber auch hier würde eine Verzögerung des Calls die Meßbarkeit zumindest mit den uns zur Verfügung stehenden Mitteln faktisch unmöglich machen oder übersehe ich da was? Du müsstest in diesem Fall ja zuerst mal ermitteln wie groß die Latenz zwischen T-game und T-present ist und auch hier ist eine Abhängigkeit zum Call gegeben wie man wiederum bei Fraps Messungen sehr gut sehen kann, leider ist das nicht so einfach.Ok, etwas blöd ausgerügt. Ich hatte Output-Lag sagen müssen, das triffts besser. Ich wüsste aber nicht, wie man das in der Form wie FCAT es macht, messen will. Du willst ja keinen Relativen Lag messen, sondern einen absoluten, da die Ausgabe, jetzt völlig unabhängig von dem, was der Bildschirm nochmals dazu generiert erfolgt. Du musst also ein Bild mit ner Timemark versehen. Bedenkt man, wie FCAT es Misst, solltest du sogar alle 10 Zeilen oder so die Timemark sogar erneuern, damit du die Information auch wirklich immer hast. Alles nicht so wirklich einfach. Deswegen sollte man sich auch nen synthetischen Bench überlegen, der theoretisch auch 1k FPS oder mehr schaffen kann, damit man gezielt die Frames verzögern/beschleunigen kann, um zu sehen, wie das System darauf reagiert.
Z.B. einfach eine Bitmap rendern, die sich fortlaufend wiederholt, und eben die Zeitmarke alle 20/10 Zeilen enthält. Am Anfang wird einfach durchgerendert. Da solltest du so um die 1k+ FPS erreichen. Dann tastest du dich mal an die 60 FPS ran, indem du einfach nen Sleep(x) reinpackst. Wenn du den Wert hast, machst du einfach folgendes. Du alternierst immer zwischen Sleep(x) und Sleep(x*0.25). Damit generierst du also sehr unsymmetrische Frames. Diese Ungleichverteilung muss sich dann auch in FCAT zeigen. Tut Sie es nicht, dann wird das bereits fertig gerenderte Bild [Sleep(x*0.25)] zurückgehalten. Wenn das passt, sollte man noch alle 5/10/20/30/60/120/240/600 Frames einen schnellen [Sleep(x*0.25)] Frame einwerfen. Da kann man dann testen, ob man sich an irgendwelchen Medianwerten orientiert.
Sonst währ es ja so, dass FRAPS Messungen auf beiden Karten gleich aussehen würden nur hinten was anderes rauskommt. Dem ist jedoch nicht so, Es besteht schon eine gewisse Abhängigkeit zwischen dem was Fraps vermessen tut und den Ergebnissen die FCAT ausgibt um hier mal Pest aus dem 3DC zu zitieren, " Nen Variationskoeffizient von 50% wird sich auch durch Framepacing nicht magisch in Luft auflösen" Gemeint sind hier die Werte die sich aus einer Fraps-Messung ergeben und mit Frapo das Tool von Pest aufbereitet werden.
Mal ein ganz anderer Ansatz ;-) PRAD | Reportage: Inputlag der auf Seite 9 und 10 durchaus auch bei dem Meßverfahren mit FCAT Fragen aufwerfen könnte, denn wer von uns kann schon mit absoluter Sicherheit sagen ob hier selbst bei VSync nicht Abweichungen vorliegen die wir nicht auf dem Schirm haben interessant währe in diesem Zusammenhang auch mal eine Vermessung von zwei Fire Pro Karten. Denn die Messung (Aufzeichnung) und die Ausgabe auf den Monitor erfolgt bei PCper nicht am gleichen Ausgang das wird zumindest mal so beschrieben in der Erklärung des Testverfahrens. Bitte nicht von dem Titel abschrecken lassen ich habe das schon geschnallt mit dem Outputlag aber wenn ein Monitor ein Inputlag von 0 hat ist dies auch gleichzeitig das Outputlag der Grafikkarte Mach Dir mal die Mühe und lese das mal komplett.