Hmm, also ich kann mich speziell mit den Spielebenchmarks nicht so wirklich anfreunden - zumindest was das Testverfahren angeht. Mal völlig wertfrei von den Ergebnissen, die lasse ich jetzt mal aussen vor.
Der erste Kritikpunkt wäre wohl die GTX 1060. Auch wenn ich selbst eine habe, sollte man wohl mal überdenken zumindest eine 1080 zu verwenden, in 1080p kann man bei "generell guten Settings" (Was heißt das überhaupt? Genaue Settings der jeweiligen Spiele aufzuführen wäre hier angebracht) schon hier und da deutlich ins GPU-Limit laufen, was man in CPU-Tests vermeiden muss.
GTA V: Was genau wird da getestet? Der integrierte Benchmark? Der ist nicht wirklich aussagekräftig, zumal der bei mehreren Durchläufen auch gerne mal völlig unterschiedliche Ergebnisse bringt.
Dazu wäre es sinnvoll, hier nicht nur einen sturen "fps - mehr ist besser" Balken hinzuballern. Sind das max, avg oder min FPS? Max FPS interessiert nicht wirklich, wichtig sind min FPS - und evtl noch avg. Da aber nix an dem Balken markiert ist, ist das so ziemlich nutzlos. In anderen Games habt ihr das anders gelöst, wenn auch wieder mit extrem schlechter Beschriftung (2 Balken, aber ohne Kennzeichnung was was darstellt... (z.B. Far Cry Primal - da gibts zwei Balken, aber was bedeuten die? Unterm Schaubild heißt es auch da nur "fps - mehr ist besser" Aber was genau sind jetzt die Balken? Max und Avg FPS? Avg und Min? Max und Min?
Zudem hängt gerade GTA V CPU-technisch extrem an der Graseinstellung, der Sichtweite, dem Verkehr und der Passantendichte. Da ist mir ein "mit generell guten Settings" und sonst unkommentierter einzelner Wert nicht aussagekräftig genug.
Ich kann beispielsweise mit meinem 3570K@4,4 NICHTmal durchgängig 60fps halten in 1080p ingame. Gras niedrig, Verkehr und Passantendichte schon relativ niedrig. Was hilft mir da ein Wert eines praktisch gleichschnellen 4690K von 120fps?
Far Cry Primal: Offensichtlich überwiegend im GPU Limit oder sehr nahe dran, da praktisch alle CPUs relativ identische (wieder die Frage, was bedeuten die jeweiligen Balken? min+max?) Werte ausspucken. Auch hier die Frage nach den expliziten Gamesettings, aber das würde ich gerne grundsächlich mit angegeben haben. Siehe oben, GTX 1060 ist wohl suboptimal.
Zu F1 2015 kann ich nicht viel sagen, ausser dass auch dort zumindest (wie grundsätzlich sinnvoll!) immer minimum, average und max fps angegeben werden sollten. Ein einfacher Balken ist auch hier nicht wirklich aussagekräftig genug. Das gilt im übrigen auch für alle anderen Benchmarks der restlichen Spiele.
Tomb Raider: Praktisch alle CPUs schaffen ~300fps. Okay. Minimum??? Vor allem, in welchem Tomb Raider? Tomb Raider I? Sollte es Rise of the Tomb Raider sein, sicher nicht. 2013, oder welches ist das?
Hier ist die Kritik: Weder angegeben, welches Tomb Raider, noch welche Settings, noch sonst irgendwas. EIN Balken.
Sorry, sowas kann man sich dann auch sparen.
Ich verlange ja keine 30-minütigen Aufzeichnungen von fps-Verläufen oder 99-percentile-Frametimes. Das macht Arbeit, ist mir klar. Aber ehrlich gesagt, für einen Test der neuesten CPU-Generation seit Sandy Bridge und vor allem ggü alten AMD CPUs, hätte ich mir dann doch etwas mehr Einsatz gewünscht. Ich weiß, die Zeit vor Release war extrem knapp, aber da hätte man auch im Vorfeld schonmal vorbereitend das Testsystem, die Auswahl der Spiele, sowie die Grafiken anpassen können.
Im allgemeinen solltet ihr ernsthaft mal abwägen, Eure Testsysteme und die Benchmarkparcours zu überarbeiten. In CPU-Tests bencht ihr mit einer 1060, in den kommenden Tests zur 1080Ti mit der alten 3930K-"Möhre". Das ist irgendwie völlig inkonsistent und wirkt durcheinander. Ist klar, daß das Nachtesten alter Hardware und das Einfliessen dieser in einen neuen aktuellen Test viel Arbeit ist, aber irgendwann muss man dann auch mal nen Schnitt machen - Frische aktuelle Systeme, einen erneuerten Spieleparcours. Irgendwann muss es sowieso sein.