Ersteinmal ein grundsätzlicher Irrtum deinerseits: Mehrfache Durchläufe haben keinerlei Einfluss auf den maximalen Messfehler. Du kannst eine Münze 10x werfen und immer Zahl bekommen - nur die Wahrscheinlichkeit sinkt mit weiteren Wiederholungen. Soviel dazu, widmen wir uns nun der konkreten Abschätzung am Beispiel Dirt 2, wie von dir erwähnt:
Du erwähntest den i5 661 und pochst auf Werte ohne Turbo - von mir aus. Wir haben 58,66 zu 59,44fps, also eine Differenz von ~1,3% - wie hoch sind jetzt die größten Messfehler, die im Test bei CB auftraten?
Beispiel 1:
In 800x600 liegt der Q8200 noch >20% vor dem E8400. Selbst bei völliger CPU-Limitierung würde in 1680x1050 maximal Gleichstand herrschen, was passiert aber? Der E8400 führt auf einmal
-> folglicher Messfehler: Mindestens ~1,1%.
Beispiel 2:
Im Test zum X5 erreicht der 1090T ohne Turbo in 800x600 52,43fps. Selbst bei völliger CPU-Limitierung könnte er in 1680x1050 maximal identisch schnell sein, die Last wird schließlich nicht geringer. Die fps steigen allerdings auf 55,03fps an!
-> folglicher Messfehler: Mindestens ~5%.
Beispiel 3:
Im Test zum i3 530 wird ein i5 ohne Turbo auf Multi 22 gegen einen "echten" i3 530 getestet. Beide CPUs sind performancetechnisch absolut identisch (das deaktivierte AES des i3 ist hier irrelevant) und sollten auch absolut identisch performen. Stattdessen ist der simulierte i3 aber geringfügig langsamer (in 800x600 übrigens noch leicht schneller, macht die Messschwankungen noch deutlicher), selbst bei 133MHz Mehrtakt als simulierter i3 540.
-> folglicher Messfehler: Mindestens ~2,2%.
Beispiel 4:
In 800x600 liegt ein i7 870 noch >50% vor einem i3 530. In 1680x1050 führt der i3 gegen den i7 870, mit mehreren fps. Dabei hat der i7 870 mehr Takt, eine schnellere Speicheranbindung, mehr Cache und ist dem i3 in keinem einzigen Punkt unterlegen. Er liegt sogar leicht hinter dem identischen, aber niedriger taktenden i7 860! Das ist schlicht vollkommen unmöglich, außer durch Messfehler.
-> folglicher Messfehler: Mindestens ~5,6%
Das sollte an Beispielen vorerst genügen, es gibt unzählige weitere. Klar ist: Eine Differenz von 1,3% liegt ganz erheblich unter der Messfehlergrenze.
Ich warte übrigens weiter auf deine Erklärung, in wie weit das Rendertarget der GPU einen Einfluss haben soll. Notwendig wäre eine Erläuterung, wie in diese Vorstellung das Bild von Anno passt, wo mehrere CPUs - ich erwähnte den i7 975, ein weiteres Beispiel wäre der X4 925 oder auch der i3 530 mit SMT(!) - mit der höheren Auflösung sogar schneller werden. Das ist schlicht durch Messfehler zu erklären, es wird aber deutlich: Die Auflösung ist für die Framerate, die eine bestimmte CPU ohne Limitierungen durch die Grafikkarte liefern kann, vollkommen irrelevant. Begrabe deine I/O Theorien bzw. wende sie dort an, wo sie Sinn machen: Z.B. auf den VRAM der Grafikkarte. Das hat mit dem Einfluss von SMT aber auch wirklich rein gar nichts mehr zu tun.
Also, auch wenn es deine perfekte AMD-Welt zusammenbrechen lässt: SMT kostet als Feature heutzutage keine Leistung mehr. Solange du auch immer wieder nur ohne Quelle und mit "Fakt" um dich wirfst macht das nur noch deutlicher, dass dir einfach jeglicher Beleg zu fehlen scheint. Ich wette bereits jetzt darauf, dass auch dein nächstes Posting einen solchen nicht enthalten wird - woher soll er auch kommen. Über Windows XP/Vista oder Probleme verschiedener Software mit zu hohen Threadzahlen brauchen wir dabei nicht reden, dass hat mit der SMT-Problematik nichts zu tun.
Es wäre schön, wenn wir damit zum Thema zurückkehren könnten. Wenn du allerdings weiterhin falsche und schlicht provokativ intensionierte Behauptungen wie diese Diskussion mit ihrem Ausgang in #251 postest, wird es auch weiterhin entsprechende Korrekturen geben. Es liegt ganz an dir.
Over and out.