Intel vs. AMD, Akt 2: Skylake-X und Kaby-Lake-X im Test gegen Ryzen

Wie werden denn die Frametimes ermittelt? Link usw. würde reichen, Google spuckt mir ziemlich viel Unnützes Zeug dazu aus.


Wie ist das gemeint?
Vorausgesetzt man würde die exakt gleiche Szene/Spielablauf rendern lassen, und beim zweiten Durchlauf die Details erhöhen, was den Rechenaufwand mindestens bei der Grafikkarte und vielleicht auch bei der CPU erhöht, MÜSSEN die Frametimes steigen! Die CPU muss ja von Medium zu Ultra nicht weniger rechnen, eigentlich, oder?

Ich könnte mir vorstellen, dass:
A. Ich weiß nicht wie man in Battlefield 1 die FPS/Frametimes misst, wenn es keinen integrierten immer gleich bleibenden Benchmark gibt, sondern man jedes mal eine Spiel starten muss, kann es natürlich zu stark unterschiedlichen Szenen führen, erst recht in einem Online/-Multiplayerspiel. Für Tester wäre das ziemlich ätzend.
B. Battlefield 1 tauscht diverse Effekte/Features, welche zuvor in Medium mit der CPU berechnet werden, gegen "bessere" Effekte, die mit der GPU berechnet werden. Vielleicht das was Performer impliziert.
Es gibt zwei Möglichkeiten die Frametimes auszulesen:
1. von der Spiel Engine über user.config oder Befehls Console im Spiel.
2. Mit den Riva Tuner Statistik Server (das ist z.B. beim MSI Afterburner dabei)

FPS sind grobe 1000ms Abfrage Intervalle von Frametimes (Zeit die vergeht bis das nächste Bild komplett berechnet ist)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wie warm bzw. heiß wird eigentlich der 7820x? Ich überlege, ob ich bei der CPU zugreifen soll. Aber eine "Heizung" möchte ich eigentlich nicht im Gehäuse haben.
So schlimm wie man es überall liest, ist es nicht. Ich hab den 7820X auf nem ASUS TUF X299 Mark 2 mit Noctua NH-D15. Der Läuft bei mir auf 4,5 GHz. Bei Prime ohne AVX erreicht der bei 0,924 V VCore (fraglich, ob die Anzeige stimmt - könnte auch 1,06V sein) je nach Core 70 - 80°C. Dabei zieht er 250W aus der Steckdose. Für AVX hab ich nen Offset drin, so dass er damit weniger verbraucht.
Die Rechenleistung pro Watt ist bei meiner Anwendung (Schach) besser als bei meinem Ryzen 1800X.
 
Es gibt zwei Möglichkeiten die Frametimes auszulesen:
1. von der Spiel Engine über user.config oder Befehls Console im Spiel.
2. Mit den Riva Tuner Statistik Server (das ist z.B. beim MSI Afterburner dabei)

FPS sind grobe 1000ms Abfrage Intervalle von Frametimes (Zeit die vergeht bis das nächste Bild komplett berechnet ist)

Vielen Dank für die Erläuterung, aber so meinte ich meine Frage nicht. Ich weiß was Frametimes (Zeit zwischen zwei aufeinanderfolgende Frames) und FPS (Frames per second) sind, und wie man diese protokollieren kann. Meine Frage bezog sich direkt auf die Antwort von dbode.

Beispiel zu dieser Seite:
Intel vs. AMD, Akt 2: Skylake-X und Kaby-Lake-X im Test gegen Ryzen - Hardwareluxx
Dort stehen die Frametimes zu : Battlefield 1 (DX12) – 1920x1080 - Medium
Der Intel Core i7 7700K hat 9,1 ms

Mich interessiert jetzt, wie man auf die 9,1 ms kommt. Wie funktioniert das System, welches aus z.B. 100 Sekunden Daten zu den FPS/Frametimes diese eine Zahl errechnet? Nimmt man die schlechtesten Frametimes, bis man eine Sekunde voll hat und errechnet davon den Durchschnitt?
 
@ Goderion
Ich vermute, das wird rein rechnerisch ermittelt: Frametime (in ms) = 1/FPS * 1000
 
Das sieht mir aber eher nach einem Kurzschluß durch einen verbogenen Pin im Sockel aus.
 
Vielen Dank für die Erläuterung, aber so meinte ich meine Frage nicht. Ich weiß was Frametimes (Zeit zwischen zwei aufeinanderfolgende Frames) und FPS (Frames per second) sind, und wie man diese protokollieren kann. Meine Frage bezog sich direkt auf die Antwort von dbode.

Beispiel zu dieser Seite:
Intel vs. AMD, Akt 2: Skylake-X und Kaby-Lake-X im Test gegen Ryzen - Hardwareluxx
Dort stehen die Frametimes zu : Battlefield 1 (DX12) – 1920x1080 - Medium
Der Intel Core i7 7700K hat 9,1 ms

Mich interessiert jetzt, wie man auf die 9,1 ms kommt. Wie funktioniert das System, welches aus z.B. 100 Sekunden Daten zu den FPS/Frametimes diese eine Zahl errechnet? Nimmt man die schlechtesten Frametimes, bis man eine Sekunde voll hat und errechnet davon den Durchschnitt?
:fresse: Na dann hab ich das Falsch verstanden.

Im Artikel unter Testsystem steht:
Dies ist die Zeit, in dem 99% aller Frames im Testablauf berechnet werden können. Das obere 1% wird verworfen, um Fehler im Rendering bei den Messungen auszuschließen.

Die Gegenrechnung passt nicht das stimmt, daher vermute ich zwei unterschiedliche Messmethoden FPS und Frametimes getrennt.
 
Langweilig und wie immer liegt der 7700K vorn weil die Spieleindustrie in den letzten Jahren für 4 Kerne programmiert und optimiert hat.
Das wird auch noch eine ganze Weile so bleiben denn Spiele die jetzt in der Entwicklung sind werden wohl erst ab 2020 erscheinen. :angel:

Als ob der PC bei der Entwicklung irgend eine Relevanz hätte. :rofl:

Und es gibt bereits Spiele, welche mit mehr als 8 Kernen problemlos skalieren. Also nix 2020 sondern heute. :rolleyes:
 
Zuletzt bearbeitet:
Im Artikel unter Testsystem steht:
Dies ist die Zeit, in dem 99% aller Frames im Testablauf berechnet werden können. Das obere 1% wird verworfen, um Fehler im Rendering bei den Messungen auszuschließen.

Die Gegenrechnung passt nicht das stimmt, daher vermute ich zwei unterschiedliche Messmethoden FPS und Frametimes getrennt.
Danke, das ist schon mal ein guter Hinweis.
Jetzt frage ich mich allerdings, was mit dem oberen 1% gemeint ist. Aufgrund von meinen vorigen Rechnungen müssen mit oberen die schnelleren Frametimes gemeint sein. Worauf bezieht sich 1%? 1% von der Messzeit oder 1% von der Anzahl der Frames? Vermutlich letzteres, wenn man es z.B. mit Excel oder Ähnlichem berechnet hat.

Was wird mit diesen berechneten Frametimes ausgesagt?! Was weiß ich dadurch? Nochmal zu meinem zuvor gewählten Beispiel:
Battlefield 1 (DX12) – 1920x1080 - Medium = FPS: 193,1 - Frametimes: 9,1
Battlefield 1 (DX12) – 1920x1080 - Ultra = FPS: 151,1 - Frametimes: 8,3

In Medium Frametimes von 9,1 und in Ultra 8,3 .... und was sagt mir das jetzt? In Ultra bessere Frametimes als in Medium bei weniger FPS. ERROR! :fresse:

Gibt es eine Möglichkeit die Daten der beiden Fälle, die zu diesen Zahlen (FPS und Frametimes) führen, zu erhalten? Per z.B. 7Zip sind das doch nur ein paar KB.
 
@Goderion
Bei 99% (percentil of time) müssten die hohen Peaks gemeint sein mit 100ms+, z.B. wenn das Level neu geladen wird (respann).
Der Artikel hier erklärt das ganz gut: Immersion: Performance vs. Glätte - THDE intern: So messen und bewerten wir die Grafik-Performance
Bei den sehr hohen 9,1ms sind wohl alle Peaks (200FPS Cap?) mit drin, daher zieht es den Frame Schnitt herunter.

Man kann die Frame-Varianz als auch die Render-time als Frametimes nutzen, die Varianz ist besser um Ruckler zu erkennen.
 
Zuletzt bearbeitet:
@Goderion
Bei 99% (percentil of time) müssten die hohen Peaks gemeint sein mit 100ms+, z.B. wenn das Level neu geladen wird (respann).
Der Artikel hier erklärt das ganz gut: Immersion: Performance vs. Glätte - THDE intern: So messen und bewerten wir die Grafik-Performance
Danke für den Artikel, sehr interessant, aber ich finde da nichts, wo ein einzelner Wert aus den protokollierten Frametimes errechnet wird.

Bei den sehr hohen 9,1ms sind wohl alle Peaks (200FPS Cap?) mit drin, daher zieht es den Frame Schnitt herunter.
Also wie bereits vermutet, sind mit dem einen Prozent die besten/kürzesten Frametimes gemeint, die man aus der Rechnung entfernt. Du übrigen Daten sind dann die restlichen 99%, die dann auch die schlechtesten/längsten Frametimes beinhalten. Davon dann der Durchschnitt? Ne, das wäre doch Quark... also wie funktioniert das? Wie errechne ich aus z.B. 10000 Zahlen/Frametimes eine 9,1?

Man kann die Frame-Varianz als auch die Render-time als Frametimes nutzen, die Varianz ist besser um Ruckler zu erkennen
Der Artikel ist nicht wirklich gut geschrieben, bzw. ist nicht komplett klar, was dort mit Frame-Time-Varianzen gemeint ist. Ich gehe mal davon aus, damit sind die Unterschiede der Frametimes relativ zueinander gemeint.

Beispiel:
Ich habe 10 Frametimes: 12, 11, 12, 13, 11, 17, 12, 15, 11, 9
Die Frame-Time-Varianzen wären dann: 0, 1, 1, 1, 2, 6, 5, 3, 4, 2

Beispiel-Diagramm (in µs):
Clipboard02.jpg
Das wären 77 FPS, eine durchschnittliche Frametime von 12,8ms und eine durchschnittliche Varianz von 5ms. Die durchschnittliche Varianz sieht zwar interessant aus, aber sagt leider auch nix wirklich aus, bzw. kann man daran nicht erkennen, ob das Programm flüssig oder ruckelig läuft.

Und darüber habe ich nochmal überlegt:
Die Gegenrechnung passt nicht das stimmt, daher vermute ich zwei unterschiedliche Messmethoden FPS und Frametimes getrennt.
Das wäre doch unnötig doppelte Arbeit.
 
Danke für den Artikel, sehr interessant, aber ich finde da nichts, wo ein einzelner Wert aus den protokollierten Frametimes errechnet wird.
Die Gesamtanzahl der Frames / Zeit müsste das sein, ich weiß es nicht, das kann nur dbode beantworten. :)

Also wie bereits vermutet, sind mit dem einen Prozent die besten/kürzesten Frametimes gemeint, die man aus der Rechnung entfernt. Du übrigen Daten sind dann die restlichen 99%, die dann auch die schlechtesten/längsten Frametimes beinhalten. Davon dann der Durchschnitt? Ne, das wäre doch Quark... also wie funktioniert das? Wie errechne ich aus z.B. 10000 Zahlen/Frametimes eine 9,1?
Nein, das 1% enthält höhere Times wie die 99% und entspricht somit den Ausreißern.
99% percintil = Avg Minimum @ 9,1ms ~ 109FPS
Der Artikel ist nicht wirklich gut geschrieben, bzw. ist nicht komplett klar, was dort mit Frame-Time-Varianzen gemeint ist. Ich gehe mal davon aus, damit sind die Unterschiede der Frametimes relativ zueinander gemeint.

Beispiel:
Ich habe 10 Frametimes: 12, 11, 12, 13, 11, 17, 12, 15, 11, 9
Die Frame-Time-Varianzen wären dann: 0, 1, 1, 1, 2, 6, 5, 3, 4, 2

Beispiel-Diagramm (in µs):
Anhang anzeigen 406926
Das wären 77 FPS, eine durchschnittliche Frametime von 12,8ms und eine durchschnittliche Varianz von 5ms. Die durchschnittliche Varianz sieht zwar interessant aus, aber sagt leider auch nix wirklich aus, bzw. kann man daran nicht erkennen, ob das Programm flüssig oder ruckelig läuft.

Und darüber habe ich nochmal überlegt:

Das wäre doch unnötig doppelte Arbeit.
Richtig, daher wäre es auch gut zu wissen, wo die Frametimes ausgelesen werden, wie FRAPS bzw. PerfMon oder die Engine direkt in der GPU welche auch zwischen CPU und GPU Render-time unterscheiden kann.
 
Zuletzt bearbeitet:
Nein, das 1% enthält höhere Times wie die 99% und entspricht somit den Ausreißern.
99% percintil = Avg Minimum @ 9,1ms ~ 109FPS
Das kann so nicht passen. Würde man die schlechtesten/längsten Frametimes aus der Rechnung entfernen, müsste man mit den Frametimes eine höhere FPS "zurückrechnen" können, aber genau das Gegenteil ist der Fall. Rechnet man aufgrund der Frametimes die FPS aus, erhält man ein niedrigeres Ergebnis, als die angegebenen FPS, das geht nur, wenn man Frametimes entfernt, die besser/kürzer als der Durchschnitt sind.
 
Das kann so nicht passen. Würde man die schlechtesten/längsten Frametimes aus der Rechnung entfernen, müsste man mit den Frametimes eine höhere FPS "zurückrechnen" können, aber genau das Gegenteil ist der Fall. Rechnet man aufgrund der Frametimes die FPS aus, erhält man ein niedrigeres Ergebnis, als die angegebenen FPS, das geht nur, wenn man Frametimes entfernt, die besser/kürzer als der Durchschnitt sind.
Evt. kannst du damit was Anfangen: Der Durchschnitt entspricht 2/sigma, also es kommt darauf an welche min/max Werte im Schnitt zu 99% näher an der 0 dran sind (+/-).
Aber das ist dann immer noch auf den PC Bezogen und noch nicht am Monitor (Tdisplay) angekommen.

@dbode
Sag doch mal was! :wink:

€dit: Bei BF1 wird bei den Presets eine dynamisch VRAM Einstellung genutzt, ohne und mit Ultra Preset: https://abload.de/img/bf1_2017_07_23_17_44_y9uue.jpg
Frametime Varianz: 2ms DirectX 11 @ CrossfireX
 
Zuletzt bearbeitet:
Evt. kannst du damit was Anfangen: Der Durchschnitt entspricht 2/sigma, also es kommt darauf an welche min/max Werte im Schnitt zu 99% näher an der 0 dran sind (+/-).
Damit kann ich leider nichts anfangen. Vielleicht kannst Du ein es mit einem Beispiel erklären, reicht ja, wenn man es anhand von 10 Frametimes erklärt.

Aber das ist dann immer noch auf den PC Bezogen und noch nicht am Monitor (Tdisplay) angekommen.
Wie meinst Du das? Die "Zeitverzögerung" bis das Bild von der Grafikkarte am Monitor "angekommen" ist, ist doch eigentlich unerheblich, da diese meist extrem kurz ist und vor allem konstant/gleichmäßig.

@dbode
Sag doch mal was! :wink:
Denke der wird am Wochenende sicher anderen Beschäftigungen/Verpflichtungen/Hobbies nachgehen und nicht hier im Forum surfen. Ich würde mich vermutlich am Wochenende auch nicht hier aufhalten, wenn ich schon immer innerhalb der Woche beruflich im Forum präsent wäre.

€dit: Bei BF1 wird bei den Presets eine dynamisch VRAM Einstellung genutzt, ohne und mit Ultra Preset: https://abload.de/img/bf1_2017_07_23_17_44_y9uue.jpg
Frametime Varianz: 2ms DirectX 11 @ CrossfireX
Die Frametime passt rechnerisch zu den FPS, ist also wohl der (berechnete) Durchschnitt.
Woher hast du die 2ms Varianz? Durchschnittliche Varianz oder Maximale? 2ms maximale Varianz wäre ja mega! Der Frametime-Verlauf sieht ja ziemlich gleichmäßig aus.
 
Damit kann ich leider nichts anfangen. Vielleicht kannst Du ein es mit einem Beispiel erklären, reicht ja, wenn man es anhand von 10 Frametimes erklärt.

dibujo20090924_sigma_significance_data_from_gaussian_model.jpg
3/sigma wären 99,74% daher 2/sigma 95% innerhalb min/max
Die Abstände zwischen den Frames können zum vorherigen Frame ein positiven oder negativen Wert erhalten.

99% von nvidia erklärt: Analysing Stutter – Mining More from Percentiles | NVIDIA Developer

Wie meinst Du das? Die "Zeitverzögerung" bis das Bild von der Grafikkarte am Monitor "angekommen" ist, ist doch eigentlich unerheblich, da diese meist extrem kurz ist und vor allem konstant/gleichmäßig.
Na so einfach ist das auch nicht, oder gibt es für jedes Pixel ein Datenleitung?
Da sitzt noch der Anzeige Prozessor dazwischen, wird schon gründe haben warum FreeSync und GSync im Monitor verbaut sind. ;)

Denke der wird am Wochenende sicher anderen Beschäftigungen/Verpflichtungen/Hobbies nachgehen und nicht hier im Forum surfen. Ich würde mich vermutlich am Wochenende auch nicht hier aufhalten, wenn ich schon immer innerhalb der Woche beruflich im Forum präsent wäre.
Sei ihm gegönnt. :)

Die Frametime passt rechnerisch zu den FPS, ist also wohl der (berechnete) Durchschnitt.
Woher hast du die 2ms Varianz? Durchschnittliche Varianz oder Maximale? 2ms maximale Varianz wäre ja mega! Der Frametime-Verlauf sieht ja ziemlich gleichmäßig aus.
Das ist nur innerhalb der Frame Linie, also nicht gemessen nur abgeschätzt, subjektiv sehr schneller Bildverlauf und Reaktion auf Tastatur und Maus.
Nur beim beenden des Spiel gibt es eine kleine Verzögerung.
 
Zuletzt bearbeitet:

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh