test, ums mal ganz klar udn deutlich zu sagen, wenn ein AMD die doppelte Menge Wärmeenergie übertragen müsste wäre er immer noch kühler als ein Intel, der mit dem ThermalIsolationMaterial von Intel ab Werk einfach mal total an der Anforderung vorbei konstruiert wurde.
Die Temperatur der CPU intern ist total unwichtig, sofern diese im für die CPU spezifizierten Rahmen bleibt, ich habe schon Xeon X5560 für Stunden bei 100°C betrieben! Die Drosseln dann natürlich, aber das passiert auch nicht mal eben so.
Dass die 92°C real nur 82°C waren, wegen dem 10°C ffset bei X Prozessoren hattest du auf dem Schirm? und wie heiß war denn die Ablüft des CPU-Kühlers? 45°C?
Bei Intel hats du das Problem, dass du die Wärmeenergie nicht weg bekommst. Punkt.
AMD hat kein Wärmeproblem an sich, und wenn ist irgendwas im Eimer.
Dass ein 2600x mehr Strom (eigentlich ja nur Energie) braucht als ein 8400 ist wohl normal, wenn alle Threads ausgelastet sind, schließlich wird dort die CPU eigentlich belastet wie bei einem i7 8700.
Die Verbrauchswerte auf der Seite sind übrigens Peak-Werte? Das ist dann null aussagekräftig, weil es dabei lediglich um eine Punktlast geht. Der Mittelwert wäre deutlich interessanter, da dieser den Realverbrauch über die Zeit deutlich realistischer wieder gibt und damit eine bessere Leistungs/Effizienz-betrachtung möglich wäre.
Wenn du also Punkte kritisieren möchtest, geh bitte wissenschaftlich heran, und vergleiche. Ohne OC war, laut einigen Zeitschriften die Effizentz von Intel und AMD sehr nah beieinander; was diese Seite ja nun gar nicht wiedergibt.