Das GPU limit hast du weder mit der ti noch mit der xt getroffen? also tatsächlich durchweg cpu limit?
Es gibt nicht durchweg Limit xyz...
Wenn man die Werte mal übereinander legt, dann sieht man sehr schön, dass die CPU hier teils wirklich extremsten Einfluss auf die Leistungsaufnahme der GPU hat - aber irgendwo quasi nichts an Leistung bei rum kommt.
Für mich sieht das FC6 Beispiel eher so aus, dass hier ne Szene relativ ungeeignet für einen sinnigen Vergleich genommen wurde, weil es eben komisch eskalierende Werte gibt, ohne Mehrwert.
Mal als Bild:
Die helle Orange Linie ist der Verbrauch der 6900XT auf dem KS - die rote der Verbrauch der gleichen 6900XT auf dem K. Die dunkel Orange ist Verbrauch auf dem 5800X
Der Leistungsunterschied bei Intel ist winzig. Da stehen aber phasenweise 50% mehr Verbrauch auf der Uhr für ne Hand voll Prozent weniger Frame-Renderzeit. Auf dem Ryzen ist es sehr viel langsamer (grob teils 50%), dafür säufts auch teils weniger als die Hälfte.
Extrem auffallend im mittleren Bereich bei dem Intel Vergleich - bei AMD ists quasi durchweg.
Leider macht Igor es hier schwer direkt zu vergleichen, weil die Bilder fast alle unterschiedlich skalierte Achsen haben, sodass man das nicht gut auf ein gemeines Bild legen kann.
Um auf die Eingangsfrage zurück zu kommen - man sieht sehr extrem gut, dass es viele verschiedene Limits gibt, die nicht von der GPU kommen und teils sich auch zwischen CPUs und Ausbaustufen stark unterscheiden. Das vordere Fünftel im Bild hängt viel mehr vom Takt bei Intel ab als bei AMD - und noch witziger, bringt trotz mehr Takt nahezu gar nichts an mehr Leistung. Der Teil nach dem Einbruch hinterm ersten Fünftel zeigt ein ganz anderes Bild von Limit - die Leistungsaufnahme der GPU bricht stark zusammen, auf allen Intel CPUs - aber der Rücklauf beim Alder Lake (beide 12900er) ist drastisch viel höher als beim 5800X - beim 5800X ist quasi über das ganze Band die Frametime relativ gleichbleibend langsamer als bei Intel - in Relation zur Frametime ist das beim 5800X auch sehr viel homogener als bei den beiden Alder Lakes. Man sieht hier gerade sehr schön, dass es absolut keinen Sinn ergibt, wie du es immer wieder sagst, EIN CPU Limit zu erzeugen. -> weil es gibt nicht EIN CPU Limit, sondern haufenweise verschiedene Limits, die nicht die GPU betreffen.
@Kammi Aber dein Vorhaben mit DDR3800 kannste dir komplett sparen weil es quasi nichts bringt.
da bekommst 1-3% Mehrleistung in den Games und da lohnt sich der aufwand einfach nicht.
Das müsste man halt erstmal noch raus evaluieren. Denn es kommt auch weiterhin der Punkt NACH dem L3 Cache. Dann geht der Traffic wieder über die IF und IF Takt bzw. indirekt auch RAM Takt skalieren entsprechend wie gehabt. Die Frage ist halt, ob das in Games im Schnitt der Fall sein wird oder nicht - weil dort wo der Cache zieht, zieht idR auch IF OC und andersrum.
Was hier immer wieder falsch verstanden wird - der Cache senkt!! interne Latenzen für alles, was in den Cache passt. Und das um Welten ggü. dem Weg, der sonst über die IF in den RAM führt. Mehr Cache sorgt dafür, das einfach mehr Daten rein passen. Also verlieren alle Anwendungen weniger Leistung, die auf Daten lokal vom Cache zugreifen ggü. dem, wo es eben nicht rein passt. Deswegen skalieren gerade Games sehr gut, weil FPS Benches (oder Frametime Messungen und Co.) relativ kleine Datenmengen nutzen und diese kleine Datenmengen sequenziell immer und immer wieder neu angefasst werden. Nämlich in jedem Frame was da berechnet wird. Spare ich also genau hier Latenz, dann skaliert das extrem gut.
Und ich sag dir noch was - um so höher die FPS, desto mehr bringt der Cache. Warum? Weil die Einsparung der Latenz relativ unabhängig der FPS immer ziemlich gleich lang ist - denn man spart den Weg über die IF zum RAM - und der ist immer gleich lang. Das heist, um so häufiger du diese Latenzen also sparst, desto besser wird das auch skalieren.
Fiktiv gesprochen - wenn du eine Milisekunde sparst und nur 1 FPS hast, dann ist das faktisch irrelevant. Wenn du 500 FPS hast, also jedes Frame ca. 2ms kostet, dann ist 1ms zu sparen - pro Frame! mal eben 100% mehr FPS. Das ist auch der Grund, warum LowRes Benches für diesen Part von Limitation eher kontraproduktiv sind