Angesichts der Tatsache, dass die Hersteller mittlerweile ihre Treiber öfter wechseln als die eigenen Unterhosen bleibt anzumerken, dass man irgendwann eine "Testbasis" braucht. Ständiges Hin- und hergewechsel ist nämlich Unfug.
Es ist ebenso wenig sinnvoll wie praktikabel, ALLE aktuellen Karten sofort nach Release eines Alpha/Beta/XY-Treibers komplett neu zu benchen, da dieser Arbeitsaufwand in keiner Relation zum Nutzen steht.
Was würdet ihr denn zu folgendem Szenario sagen: Jede Karte wird mit den beiliegenden Treibern getestet. Wäre das fair? Sicherlich nicht, weil es dann sehr gut vorkommen kann, dass total unterschiedliche/veraltete Versionen getestet werden.
Beispiel: Im Januar kommt Karte X mit aktuellstem Treiber Z. Im März dann Karte Y mit dann aktuellem Treiber Q und im Mai wiederrum Karte K mit Treiber J. Auf welcher Basis sollen die Karten treiberseitig getestet werden? Zuerst Z, dann X mit Q nachtesten und später dann nochmal X und Y mit J nachtesten? Am besten noch den für die Karte optimalen Treiber raussuchen? Wieviele Nvidia-Treiber kommen auf den Zeitraum eines Jahres raus? Wieviele sind es von ATI? ...
Deswegen ist es aus redaktioneller Sicht mehr als vertretbar, pro Kartengeneration einen Referenztreiber auszuwählen und diesen dann einige Zeit beizubehalten. Im Zweifelsfall gilt ohnehin, dass mit aktuellen Treibern naherzu immer ein anderes Bild gewonnen werden kann, als mit dem zur damaligen Zeit durchgeführten Testsetup.
Ich möchte auch noch erwähnen, dass sich die Treiberproblematik analog zu den Tests mit "Release Candidates" oder "PR-Samples" etc. verhält. Inwiefern das Endprodukt (bzw. der finale Treiber, die Performance) mit dem des durchgeführten Testgeräts übereinstimmt ist völlig ungewiss. An dieser Stelle jetzt einen "falschen Test" zu unterstellen halte ich für sehr anmaßend.