Und "Schummelei" ist es nicht, wenn man es genau nimmt. Man betrachtet ja nicht ALLES, sondern nur einen Teilaspeckt, und über den Rest legt man das "Mäntelchen des Schweigens". Das ist ein ganz normales vorgehen, bei dem man sich zu Nutze macht, dass die Leute sich eben "gewisse Dinge" denken, und sich "gewisse Schlüsse" überlegen, die aber so überhaupt nicht zutreffend sind. Das ist die gleiche Schose wie mit dem "Transferspeed upto equivalent to PCI-E 3.0 transferrate". Der Hersteller/Verkäufer sagt A, der Kunde versteht B, und der Hersteller/Verkäufer lacht sich ins Fäustchen und hält die Schnauze...
Das nVidia sich des Schlupfloches der Verzögerung bedient liegt ziemlich nahe. Das gesamte Testsystem schreit praktisch in Neonleuchtreklame dieses Schlupfloch in die Welt hinaus. Bei AMD sieht man ja auch, das auf einen sehr kurzem Frame meist ein längerer Frame kommt. Ich würde mir dabei aber keine Aussage dazu zutrauen, ob der "kurze" Frame von der Main-GPU oder von der Second-GPU kommt. Gibt Argumente/Gründe für beide Varianten.
Was leider noch überhaupt nicht beachtet wird ist, wie sich die Ingamezeit ergibt. Wird da einfach ein starres Zeitintervall genommen (war früher so, heute gibts das eigentlich gar nicht mehr meines Wissens nach, bei manchen Konsolenports würde ich aber keine Wette abschließen), oder nimmt man die Zeitpunkte, die ermittelt werden, wenn ein Frame angestoßen wird?
Wenns letzteres ist, dann stellt sich sofort weiter die Frage, wie denn die CPU die Frames verarbeitet, für die beiden GPUs. Läuft das parallel, oder wie oder was? Das sind einfach unglaublich viele Unbekannte noch mit dazu, die man gar nicht wissen kann... Sie spielen aber noch mit rein, ob man eine womögliche Verzögerung eher positiver sehen kann, oder noch negativer.
Was mir leider NOCH IMMER! nicht klar ist, ist wie nun genau die Manipulation erfolgt?....
Funktioniert das auch mit OpenGL-Anwendungen? Wenn ja, könnte man sich ja eventuell mal daran machen, einen Test zu schreiben, der aufzeigt, ob eine Verzögerung stattfindet oder eben nicht. Hätte da auch schon eine ganze Reihe an Ideen, wie man das sehr schön aufzeigen könnte. Aktuell fehlt mir aber einfach die Zeit dafür so etwas zu implementieren, und es müsste eben AUCH mit OpenGL funktionieren, wobei man es da glaub expliziet programmieren muss, um mehrere GPUs zu verwenden... Also erstmal viel lesen, bevor ich so nen Test wirklich implementieren könnte... -.-
Naja, wie definierst du "Schummeln"? Hier hat man halt gewisse Randbedingungen, an die man sich hält, und dreht wohl an einem Schräubchen, das man ausgesspart hat. Das ist apriori ja auch völlig legitim. Wenn man dann aber nen Tool raus bringt, und genau dieses eine Stellschräubchen unbetrachtet lässt, aber SUGGERIERT! man würde es durchaus berücksichtigen, dann ist das schon ein wenig "Cheaten", aber nicht unbedingt "Schummeln". Man ist halt nicht ganz ehrlich, und auf dieses "Wir haben uns doch genau an das gehalten, was wir gesagt haben, und der Punkt war uns halt unbekannt
" kann man sich dann immer zurückfallen lassen. nVidia hat das schon SEHR geshickt angestellt. Da muss man schon den Hut ziehen. Auf die Idee muss man ja erstmal kommen, wie die das machen, und welche Randbedingungen überhaupt gelten.
Von nem "normalem" Hardwareredakteur kann man in keinster Weise erwarten, dass er das durchschaut, oder eben dieses Schlupfloch erkennt. Ich hab auch einige Zeit gebraucht, bis mir ein Licht aufgegangen ist, und ich hatte das Glück, das ich einfach schon viel mit Zeitmessungen auf Computersystemen gemacht habe, und daher WEISS wie schwierig das ist, und daher dieser scheinbar ach so "trivialen" Lösung sehr verwundert gegenüber stand. Zeitspannen im µs Bereich zu messen ist nämlich gar nicht so trivial auf dem PC...
.