Warum steigt die maximale Taktrate handelsüblicher CPUs üblicherweise mit der Anzahl der Kerne?

@2k5lexi

Und hier auch noch eine kleine Erklärung.


Falls du jetzt immer noch der Meinung bist, dass die Qualität der Chips egal ist, wenn die den Nenntakt nicht schaffen, gibts halt mehr Spannung, dann weiß ich auch nicht mehr weiter.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Kauft man die CPU mit der höchsten Single Core Performance, also z.b. ein i9, dann hat man in der Praxis auch deutlich mehr Stromverbrauch, auch wenn man nur maximal drei Cores verwendet, ist das korrekt?
Nein, nicht wenn die BIOS Einstellungen vernünftig sind und die C-States aktiviert sind. Dann brauchen die nicht genutzten Kerne auch so gut wie keinerlei Strom. Mein 13900K kommt z.B. im Idle auf nur Minimal über 2W Package Power.

Muss man die ungenutzten Kerne immer aktiv mitziehen und dafür Strom zahlen oder kann man die deaktivieren oder wie verhält sich das in der Praxis?
S.o., nicht wenn man die richtigen BIOS Einstellungen hat. Keine Ahnung wieso die Idle Leistungsaufnahme der vergleichbaren Intel CPUs in den meisten Reviews so viel höher liegt als die meines 13900K, aber die meisten Reviews sind auch auf Boards sie sich an extrem OC richten und die dürften schon ab Werk nicht nur die CPUs massiv übertaktet, sondern auch Energiespareinstellungen deaktiviert haben. Mein i9 läuft dagegen auf einem ASRock Z790 Steel Legend WIFI mit den Default Einstellungen und nur nach unten angepassten Power Limits.

Viele Prozessoren reichen ja die höchste Boost-Taktrate nur wenn so nicht alle Prozessorkerne aktiv sind, sondern zum Beispiel nur 4 von 12 Kernen.
Klar, denn der maximale Boosttakt ist ja auch nur bei Last auf einem oder maximal 2 Kernen vorgesehen, nicht bei Last auf allen Kernen. Dies wäre dann massives Allcore-OC und würde zu einer entsprechenden Leistungsaufnahme führen. Ein Kern eines 14900K hat bei 6GHz so knapp 40W Leistungsaufnahme, was dann alleine für die 8 P-Kerne 320W wären, wenn man alle 8 mit diesen 6GHz unter Last betreiben will. Intel sieht für den 14900K aber im Extreme Profile maximal 253W vor, von daher wäre es schon ein gewaltigen Übertakten, denn auch Allcore-OC ist Übertakten. Man muss eben akzeptieren, dass es umso schwerer wird alle Kerne auf den maximalen Boosttakt zu treiben je mehr Kerne eine CPU hat, sofern alle Kerne überhaupt in der Lage sind, diesen Takt zu erreichen.
 
Falls du jetzt immer noch der Meinung bist, dass die Qualität der Chips egal ist, wenn die den Nenntakt nicht schaffen, gibts halt mehr Spannung, dann weiß ich auch nicht mehr weiter.
Ihr habt beide Recht, weil Intel z.B. beides macht.
Üblicherweise werden die besten Chips für die Modelle verwendet, die auch am höchsten Takten sollen. Wird ein Zielwert nicht erreicht, gibt es gewisse Toleranzen für einen Offset.
Beim 14900K/S z.B. hat Intel es sich aber besonders einfach gemacht. Zwar hat Intel über Monate brav weiter gute Chips aussortiert aber es wurde nicht etwa noch feineres Binning betrieben, um nur die letzten Promille an Top-Chips zu Filtern. Nein, man hat letztendlich die Offset Toleranzen einfach weiter erhöht. Hintergrund ist, weil man sonst zu geringe Stückzahlen erhalten hätte für eine weitere Produktserie.
Resultat war demnach auch spürbar, sehr sehr viele K/S waren alles andere als ein Golden-Sample.
 
Und hier auch noch eine kleine Erklärung.
Mir ist das Konzept durchaus bekannt, ich denke allerdings nicht dass es in dieser Generation groß zutrifft. Weil:
Kurz: Mehr Takt braucht mehr Spannung. Die Kurve ist annäherungsweise Linear.

Jetzt hats du ne Statistik welche Spannungen bei den Chips anliegen.

Für den 14900k würd ich im Mittel mal 1468mV annehmen.
1729009987310.png

Für die 14700k würd ich im Mittel mal 1408mV annehmen.
1729010198488.png

Für die 14600k würd ich mal im Mittel 1289mV annehmen.
1729010258780.png

Hier ist die Taktübersicht der Produktreihe 14000er Serie:
Jetzt bilden wir Mittelwerte mit dem Boostclock, aber ohne TVB:
14900k hat 5,8 GHz / 1,468V = 3,95 GHz/V
14700k hat 5,6 GHz / 1,408V = 3,97 GHz/V
14600k hat 5,3 GHz / 1,289V = 4,11 GHz/V.
Also weiter, was wäre ein OC Ziel, wenn man davon ausgeht, dass die Voltage Frequency Curve halbwegs Linear ist?
14700k auf 5,8GHz = 5,8/5,6*1,408V = 1,458V und damit unter den 1,468V eines durchschnittlichen 14900k. Sollte erreichbar sein.
14600k auf 5,8GHz = 5,8/5,3*1,289V = 1,401V und damit unter den 1,468V eines durchschnittlichen 14900k. Sollte ebenfalls erreichbar sein.
Mir erscheint bei dieser Überlegung, dass da nicht allzuviel (oder kein) Aufwand ins Binning fließt, sondern eher mit Spannung gearbeitet wird. Einfach mehr Brechstange und weniger GHz/V bei den höheren SKU.

Weiter gehts:
Ein 14900k ist 257mm² groß.
Im Vergleich: Ein Ryzen 7000 CCX Chiplet ist 36mm² groß.
Bei einer statistischen Anzahl Treffer pro Wafer hast du halt ne höhere Wahrscheinlichkeit dass ein großer Chip nen Treffer hat als ein mini-Chip.
Ich glaube daher aufgrund der großen Chips und überproportional mehr Spannung bei den großen Chips an ein Yield Thema intakte Chips im Vollausbau zu bekommen als an ein Binningthema.

Ich kann mir nicht vorstellen dass Intel funktionierende 14900k Vollausbau Chips absichtlich beschneidet wegen Binning, da die statistische Wahrscheinlichkeit solche Chips zu bekommen sehr viel geringer ist als Chips mit nem Treffer im P oder E Core zu bekommen, wo dann einfach ein Teil getrennt wird und dann ein 14700k oder 14600k draus wird.
Nen Defekt kannst du nicht ausgleichen, Siliconvarianz kannst du mit Spannung ausgleichen, solang der Chip nicht verreckt.

Meine Theorie basierend auf den vorliegenden Daten mag falsch sein. Wissen tu ich es nicht.
 
Zuletzt bearbeitet:
Die Spannungs / Takt Kurve ist aber nicht linear, sondern steigt immer steiler an. Hier hat die jemand für den 13700K ermittelt:

i7-13700K_VF_Curve.png


Wie man sieht, ist der letzte Punkt der noch unterhalb von 0,8V liegt, be 2,4GHz. Der letzte Punkt der noch unterhalb von 0,9V liegt, ist mit 3,4GHz, also genau 1GHz höher für 100mV mehr Spannung. Aber unter 1V gehen nur noch maximal 4GHz, man bekommt also für nochmal 100mV nur noch 600MHz mehr Takt und für die nächsten 100mV sind es dann nur 4,5GHz, damit man unter 1,1V bleibt. Bei 4,9GHz bleibt man gerade noch unter 1,2V, jetzt bekommt man also nur noch 400MHz mehr für 100mV mehr Spannung und in dem Bereich ist die Kurve dann auch mal recht linear, denn mit 5,3GHz bekommt man wieder 400MHz mehr wenn man bis 1,3V geht. Die Kurven sind halt nicht wie gemalt, wie man auch hier für den RYZEN 2700X sieht:

r7-1700-2700x-der8auer-comparison.png


Es hängt halt auch von der Temperatur ab und davon wie gut das jeweilige Die gelungen ist.
 
@2k5lexi

Das so abzuleiten, ist Käse.

Ich hatte selber 4 14900K und einen 13600K

Alle hatten sich anders verhalten, sei es bei der Spannung, zum Verbrauch bis zur Wärmeentwicklung.

Ein 14900K mit einer niedrigen Spannung kann, muss nicht, kann aber wärmer werden und auch mehr verbrauchen als einer mit einer höheren Spannung.

Ich hatte z. B. extra den mit der höchsten VID behalten, weil ich diesen am besten unter Luft kühlen konnte und auch nicht so schnell ins thermische Limit gekommen bin, somit war die CPU unter Luft, die den höchsten Takt hatte.

Da kommen noch so einige andere Faktoren zusammen als nur die Spannung und deswegen kann man das auch nicht nur mit der Spannung ableiten, da müsste man schon noch den Verbrauch und die Wärmeentwicklung kennen und selbst dann greifen da noch andere Faktoren.

Früher war es Z.b so, dass eine niedrige VID höhere fließende Strom hatte und entsprechend wärmer wurde, ob man das mit den heutigen CPUs noch gleich setzten kann, weiß ich natürlich nicht.

 
Das so abzuleiten, ist Käse.
Lies mal was Chio geschrieben hat.
Ein 14900ks ist nur ein 14900k mit mehr Brechstange und Preiserhöhung. Bei dem ist es gut untersucht.
Ich gehe davon aus dass sie es bei allen anderen Chips genau so machen wie sie es am obersten Ende machen.
Warum auch sollten sie bei den "billigen" Chips mehr Aufwand treiben als beim Flagschiff. 🤷‍♂️

Dass da am Ende noch anderes reinspielt außer einfach nur Spannung was das OC Ergebnis beeinflusst... Jo ist so. Ob es Intel aktuell kümmert? Ich habe nicht den Eindruck 🤷‍♂️
 
Zuletzt bearbeitet:
Hat das physikalische Gründe? Eigentlich würde man erwarten, dass bei einer CPU, die weniger aktive Kerne hat, höher takten kann. Aus den Gründen der weniger entstehenden Wärme und aus der Logik heraus, dass bei CPUs, bei denen mehr Kerne deaktiviert sind, besser nach maximaler Taktrate der verbliebenen Kerne "gesiebt" werden kann als bei den wenigen Modellen, bei denen die QS ergibt, dass alle Kerne einsatzfähig sind. Ich verstehe das nicht.
Das ist auch der Fall, alleine aufgrund des größeren thermischen Spielraums. Bei den ersten QuadCores hatten die DualCores immer höhere Taktraten. SingleCore-Leistung ist immer noch trumpf, und das würde eben dazu führen, dass kleinere Modelle bevorzugt werden. Reine Produktpolitik.
 
Lies mal was Chio geschrieben hat.
Ein 14900ks ist nur ein 14900k mit mehr Brechstange und Preiserhöhung. Bei dem ist es gut untersucht.
Ich gehe davon aus dass sie es bei allen anderen Chips genau so machen wie sie es am obersten Ende machen.
Warum auch sollten sie bei den "billigen" Chips mehr Aufwand treiben als beim Flagschiff. 🤷‍♂️

Dass da am Ende noch anderes reinspielt außer einfach nur Spannung was das OC Ergebnis beeinflusst... Jo ist so. Ob es Intel aktuell kümmert? Ich habe nicht den Eindruck 🤷‍♂️

Das ändert aber nichts an deiner Aussage, dass die Qualität der Chips egal ist, wenn die den Nenntakt nicht schaffen, gibts halt mehr Spannung und das ist halt falsch.

Das ein KS mit der Brechstange zustande gekommen ist, ist klar, aber selbst da schaffen nur wenige die Anforderungen, weil auch da gleichzeitig die Max. Verlustleistung und Temp usw.. Stimmen muss.

Hier ist auch noch ein schönes Video

Das ist auch der Fall, alleine aufgrund des größeren thermischen Spielraums. Bei den ersten QuadCores hatten die DualCores immer höhere Taktraten. SingleCore-Leistung ist immer noch trumpf, und das würde eben dazu führen, dass kleinere Modelle bevorzugt werden. Reine Produktpolitik.
Was hat das mit der Single Core-Leistung zu tun? Bei den ersten QuadCores, hatte Intel bestimmt nicht so ein hauseigenes binning, wie das jetzt der Fall sein dürfte.
 
Zuletzt bearbeitet:
Was hat das mit der Single Core-Leistung zu tun? Bei den ersten QuadCores, hatte Intel bestimmt nicht so ein hauseigenes binning, wie das jetzt der Fall sein dürfte.
Es geht um den thermischen Spielraum der zwangsläufig größer ist bei CPUs mit weniger Cores. Das wiederum erlaubt höhere Spannungen und Taktraten.
Es ist reine Produktpolitik. Damals gab es diese noch nicht, da man glaubte, die Software würde schnell nachziehen.

Man könnte ja auch Einsteiger-CPUs mit niedrigem Takt einen freien Multi spendieren. Das passiert aber seit Einführung der K-Modelle eben nicht. Auch das ist Produktpolitik.
Es spricht nichts dagegen, weshalb eine CPU mit wenigen Kernen nicht einen mindestens sehr ähnlichen Taktspielraum haben sollte. Eher ist es so, dass sich diese Modelle besser takten lassen, aufgrund des größeren thermischen Spielraums.
 
Es geht um den thermischen Spielraum der zwangsläufig größer ist bei CPUs mit weniger Cores. Das wiederum erlaubt höhere Spannungen und Taktraten.
Es ist reine Produktpolitik. Damals gab es diese noch nicht, da man glaubte, die Software würde schnell nachziehen.
Der thermische Spielraum spielt bei der Single Core-Leistung keine Rolle, da die CPU überhaupt nicht an die Grenze kommt, wenn du einen 14900K mit 8 Performance Kernen hast, wechselt sich jeder Kern bei der Leistung ab und jeder darf mal seine Stärken ausspielen, dabei haben alle Kerne schon untereinander andere Eigenschaften und andere Spannungen.

Man könnte ja auch Einsteiger-CPUs mit niedrigem Takt einen freien Multi spendieren. Das passiert aber seit Einführung der K-Modelle eben nicht. Auch das ist Produktpolitik.
Es spricht nichts dagegen, weshalb eine CPU mit wenigen Kernen nicht einen mindestens sehr ähnlichen Taktspielraum haben sollte. Eher ist es so, dass sich diese Modelle besser takten lassen, aufgrund des größeren thermischen Spielraums.
Hier sind wir wieder am Anfang.
 
Es geht um den thermischen Spielraum der zwangsläufig größer ist bei CPUs mit weniger Cores.

Eher ist es so, dass sich diese Modelle besser takten lassen, aufgrund des größeren thermischen Spielraums.
Da wirfst Du nun aber bei beiden Aussagen Allcore und Singlecore durcheinander. Bei einem 14900K braucht ein Kern bei 6GHz vielleicht so 40W, bei meinem 13900K sind es so 35W und wenn die C-States aktiv sind, brauchen die anderen Kerne praktisch nichts. Dies sollte man noch ausreichend gekühlt bekommen und auch die Power Limits, außer vielleicht bei den T Modellen, aber die haben sowieso nicht so einen hohen Singltthreadtakt, begrenzen hier nicht.

Alle Kerne auf den maximalen Singltthreadtakt, zu bringen, ist dann ein anderes Thema, denn da reden wir von Allcore-OC und umso aufwendiger, je mehr Kerne die CPU hat.

Es spricht nichts dagegen, weshalb eine CPU mit wenigen Kernen nicht einen mindestens sehr ähnlichen Taktspielraum haben sollte.
Dagegen dürfte nur sprechen, dass man ja auch CPUs mit geringeren Specs haben muss, um dort die Dies zu verwerten, die eben nicht besonders taktfreudig geraten sind. Müsste jede Gen14 CPU von Intel die 6GHz eines 14900K wenigstens auf einem Kern schaffen, würden da eine Menge Dies übrig bleiben, die dies nicht schaffen und was macht man dann mit denen?
 
Ich meine natürlich immer Allcore Singlecoreleistung. Was interessiert mich Singlecoreleistung auf einem einzelnen Kern am Besten noch für wenige Sekunden um in Benchmarks gut auszusehen.
Singlecoreleistung brauch ich zum Zocken. In allen anderen Anwendungen merken doch viele nicht Mal ob da ein Q6600 mit SSD oder ein 14900k drin steckt. Die Anwendungsperformance kommt zu 90% von der SSD.
 
Ich meine natürlich immer Allcore Singlecoreleistung. Was interessiert mich Singlecoreleistung auf einem einzelnen Kern am Besten noch für wenige Sekunden um in Benchmarks gut auszusehen.
Singlecoreleistung brauch ich zum Zocken. In allen anderen Anwendungen merken doch viele nicht Mal ob da ein Q6600 mit SSD oder ein 14900k drin steckt. Die Anwendungsperformance kommt zu 90% von der SSD.
Na jetzt wird es aber ganz verwunderlich.
Allcore Singlecoreleistung was ist das? Ich versuche das mal in deinen Augen zu verstehen, wenn ich einen 14600K gegenüber einen 14900K stelle, werden bei dem 14900K, wenn 6 Kerne aktiv sind auch ein höherer Takt anliegen, genauso wenn nur 2 oder 4 Kerne aktiv sind.

Und der Single Core liegt immer an, der bricht nicht nach Sekunden ein
 
Zuletzt bearbeitet:
Hatte ganz vergessen, dass PL2 mittlerweile PL1 wieder entspricht. Ändert aber nichts daran, dass eine CPU mit weniger Kernen einen größeren Spielraum in Sachen TDP und Temperatur erlaubt, und somit auch einfacher höhere Taktraten bzw höhere Spannungen möglich sind. Darauf basiert ja auch das Konzept, dass der Turbo auf einem Kern kurzfristig höher sein darf, was ja gerade im Notebook gerne praktiziert wird. Die Allcore Taktraten sind entsprechend niedriger aufgrund von Temperatur und TDP Limit. Es ist reine Produktpolitik den Topmodellen ein paar 100MHz mehr zu spendieren.



Und wie gesagt, mich interessiert der max Turbo (Singlecoreleistung) auf einem einzelnen Kern einfach 0, da ich schlicht keine Anwendung für diesen Fall habe. Das ist nett für Benchmarks, aber nicht real-world.
 
Zuletzt bearbeitet:
Und wie gesagt, mich interessiert der max Turbo (Singlecoreleistung) auf einem einzelnen Kern einfach 0, da ich schlicht keine Anwendung für diesen Fall habe. Das ist nett für Benchmarks, aber nicht real-world.
Du bist aber nicht der Nabel der Welt.
Im gesamten Videospielbereich setzt überwiegend genau die Singlecoreleistung das Limit. Eigentlich sind meiner Erfahrung nach hochparallelisierbare Anwednungsfälle nachwievor eher die Ausnahme (zumindest im Anwenderbereich, bei Servern sieht das wieder komplett anders aus), und nur diese profitieren uneingeschränkt von mehr Kernen. Das wäre z.B. Video-/Bildbearbeitung, Software kompilieren oder auch rein mathematische Berchnungen. Alles andere hat Abhängigkeiten, wo man zwar Teilberechnungen auf verschiedenen Kernen ausführen kann und das somit trotzdem beschleunigt, aber dadurch werden multiple Kerne nicht dauerhaft vollständig ausgelastet. Irgendein Kern berechnet irgendwas was eben nicht parallelisierbar ist und auf den müssen dann alle anderen Kerne immer warten. Und genau dieser Kern stellt immer ein Singlecorelimit dar, egal wieviele Kerne überhaupt irgendwas zu tun haben, denn diese müssen am Ende immer auf diesen Kern warten. Damit ist egal wieviele Kerne vorhanden sind, schneller als dieser eine Kern kann, wirds nicht... solange dieser eine Kern seine Berechnungen nicht fertig kriegt, müssen alle anderen auf dessen Ergebnis warten, können also nichts tun.
 
Zuletzt bearbeitet:
Hatte ganz vergessen, dass PL2 mittlerweile PL1 wieder entspricht. Ändert aber nichts daran, dass eine CPU mit weniger Kernen einen größeren Spielraum in Sachen TDP und Temperatur erlaubt, und somit auch einfacher höhere Taktraten bzw höhere Spannungen möglich sind. Darauf basiert ja auch das Konzept, dass der Turbo auf einem Kern kurzfristig höher sein darf, was ja gerade im Notebook gerne praktiziert wird. Die Allcore Taktraten sind entsprechend niedriger aufgrund von Temperatur und TDP Limit. Es ist reine Produktpolitik den Topmodellen ein paar 100MHz mehr zu spendieren.

Und wie gesagt, mich interessiert der max Turbo (Singlecoreleistung) auf einem einzelnen Kern einfach 0, da ich schlicht keine Anwendung für diesen Fall habe. Das ist nett für Benchmarks, aber nicht real-world.
Hast du dir die Tests auch mal angeschaut, die du verlinkt hast? Du hast es immer noch nicht verstanden.

Da ist kein Spielraum in Sachen TDP und Temperatur, schau mal hier und von mir aus im CB wie heiß so ein 14600K wird, ich glaube kaum, dass man da noch spiel hat, um die Spannung zu erhöhen.

Und selbst wenn du mit sehr guter Kühlung einen 14600K an das Limit bringst und ihn von 5.3 GHz auf sagen wir 5,7 GHz bringst, wird der Verbrauch auch ansteigen und ich denke die 250W erreichen, was dann dem Verbrauch eines 14900K gleichkommt, aber noch lange lange nicht die Leistung eines 14900K erreicht.

HWL, hat sich ja die Mühe gemacht und die CPUs 14900K / 14700K / 14600K alle noch einmal zu testen und hier sieht man schön, wo die Unterschiede liegen.


14600K Vollast liegt hier bei 177W und das bei 6P / 8E Temp bei 84°
Multi Core Leistung CB 23 23401P
Single Core Leistung CB 23 2027P

14900K Vollast liegt hier bei 253W und das bei 8P / 16E Temp bei 89°
Multi Core Leistung CB 23 37661P
Single Core Leistung CB 23 2285P

Wenn ich bei meinem 14900K die Leistungsaufnahme auf 70W begrenze, komme ich im CB 23 fast auf den gleichen Wert vom 14600K und der verbraucht 177W.

Und die Single Core Leistung ist überall wichtig,
 
Du bist aber nicht der Nabel der Welt.
Im gesamten Videospielbereich setzt überwiegend genau die Singlecoreleistung das Limit.

Kaum ein aktuelles Spiel skalliert nicht mit mehreren Threads. Natürlich ist die Singlethreading-Leistung wichtig, aber eben nicht auf nur einem Kern sondern Teillast. Deine Aussage untermauert ja mein Augument. Ich schrieb, ja Singlethreading-Leistung ist wichtig, aber eben dieses 1 Core Boost-Marketinggrütze gerade für wenige Sekunden ist vollkommen irrelevant. Toll für Herstellerbenchmarks aber eben nicht Praxisrelevant. Bereits vor 8 Jahren konnte man einen reinen QuadCore (6600k) in BF1 vergessen.


Maßstab ist, auch wenns der PC-Gamer nicht hören will, die Konsolen mit 8C/16T. Deswegen ist ein 7800X3D eben aktueller Sweetspot. Es gibt Spiele die skalieren mit mehr Threads, genauso wie es Spiele von meist kleinen Buden gibt, die eben weiterhin Singlethread-limitiert sind. Ausnahmen bestätigen jedoch bekanntlich die Regel.

Und nocheinmal, es ging um die Ausgangsfrage:
steigt die maximale Taktrate handelsüblicher CPUs üblicherweise mit der Anzahl der Kerne
Nein, das ist reine Produktpolitik, damit die Enthusiasten ein paar Euro mehr ausgegeben. Genauso wie es Produktpolitik seitens Intel ist, OC Mittels offenem Multi nicht allen CPUs zu spendieren. Das ist bei AMD anders und war einmal bei Intel anders.

Fakt ist: Üblicherweise bedeuten weniger Kerner weniger Gesamtabwärme und somit einen höheren Taktspielraum durch einen größeren Spielraum bei Spannung und somit wieder um bei Temperatur/TDP.
 
Kaum ein aktuelles Spiel skalliert nicht mit mehreren Threads.
Ich vermute wir meinen was ganz ähnliches, reden aber ein bisschen aneinander vorbei, bzw. so wie ich deine Posts verstehe, übersiehst du einen wesentlichen Aspekt.

Natürlich ist die Singlethreading-Leistung wichtig, aber eben nicht auf nur einem Kern sondern Teillast.
Wenn ein Kern sowieso nur zum Teil ausgelastet werden kann, ist seine Singlecore-Peak-Leistung eben nichtmehr relevant.

Deine Aussage untermauert ja mein Augument. Ich schrieb, ja Singlethreading-Leistung ist wichtig, aber eben dieses 1 Core Boost-Marketinggrütze gerade für wenige Sekunden ist vollkommen irrelevant. Toll für Herstellerbenchmarks aber eben nicht Praxisrelevant. Bereits vor 8 Jahren konnte man einen reinen QuadCore (6600k) in BF1 vergessen.
Natürlich gewinnt man mit einem Quadcore heute keinen Blumentopf mehr. Aber ein Octacore wird auch nicht annähernd zu 100% ausgelastet. Es werden zwar alle 8 Kerne genutzt, aber 4-6 davon nur zu 40, 50, 60%. Es werden also alle 8 Kerne genutzt, skalieren tun Spiele aber eher schlecht mit mehreren Kernen und sogar so gut wie kaum mehr, wenn man mehr als 8 hat.
Ein Kern, quasi der Kern der auch für die Koordination unter den Kernen zuständig ist, legt allerdings so gut wie immer das obere Limit fest, das man in einem Spiel schaffen kann. Deswegen sind 12 oder 16-Kerner in Spielen auch nur wenig bis gar nicht schneller als auf einem 8-Kerner, falls überhaupt, dann häufig auch nur, weil die 12/16-Kerner noch ein bisschen höher takten... was ja genau das Threadthema hier ist. ;)

Dieser eine Kern muss aber so schnell wie möglich sein. Und wenn die anderen Kerne eh nicht die volle Leistung brauchen, kann dieser eine Kern sowohl vom Powerlimit, als auch von der Temperatur her besser boosten. Er wird zwar meist nicht den versprochenen maximalen Single-Core-Boost erreichen, der bezieht sich idR auf ein Szenario indem wirklich nur ein Kern rechnet, aber diesen Fall haben wir hier ja nicht. Trotzdem übertrifft er idR noch den All-Core-Takt und taktet immernoch höher als die anderen Kerne. Und das ist dann eben die am Ende limitierende Singlecoreleistung.


Maßstab ist, auch wenns der PC-Gamer nicht hören will, die Konsolen mit 8C/16T. Deswegen ist ein 7800X3D eben aktueller Sweetspot.
Die Konsolenhardware hat da sicherlich einen Einfluss. Aber eigentlich nur noch für Multiplatformtitel.
Es wird gerade bei Spielen aber grundsätzlich immer schwieriger, die Rechenlast auf noch mehr Kerne zu verteilen. Das geht halt mit Spielen einfach nur bedingt und man kriegt ja 8-Kerner schon kaum zu 100% ausgelastet.

Laut Steam Survey haben aber ~75% der PC-Spieler sowieso nur 8 oder weniger Kerne. Darüber fällts dann auch rapide ab. 8% haben 10 Kerne (was vermutlich Intel-CPUs mit P- und E-Cores sein dürften?). Man macht sich nicht die Arbeit ein Spiel auf etwas zu optimieren (falls überhaupt möglich), was nur 20-25% der Zielgruppe überhaupt hat und sowieso nur schlecht skaliert.
 
Dieser eine Kern muss aber so schnell wie möglich sein. Und wenn die anderen Kerne eh nicht die volle Leistung brauchen, kann dieser eine Kern sowohl vom Powerlimit, als auch von der Temperatur her besser boosten. Er wird zwar meist nicht den versprochenen maximalen Single-Core-Boost erreichen, der bezieht sich idR auf ein Szenario indem wirklich nur ein Kern rechnet, aber diesen Fall haben wir hier ja nicht. Trotzdem übertrifft er idR noch den All-Core-Takt und taktet immernoch höher als die anderen Kerne. Und das ist dann eben die am Ende limitierende Singlecoreleistung.


Wo habe ich denn was anderes geschrieben? Ich habe mal den wichtigen Teil aus deiner Aussage rauskopiert, der ja nur wiederum das wiedergibt was ich ohnehin schon geschrieben habe. Genau um diesen Umstand geht es. Eine CPU mit vielen Kernen hat bei Teillast/Vollauslastung eben nicht den vom Hersteller versprochenen Maximaltakt.

Und nocheinmal du machst Saltos in alle Richtungen. Komm mal zurück zur Ausgangsfrage: haben CPUs mit mehr Kernen grundsätzlich mehr Takt. => Nö, das ist Produktpolitik des Herstellers damit die Leute zum teureren Modell greifen. Beim KS Modell kommt noch Selektion dazu, ja aber eben auch eine geringere Stückzahl und ein sehr hoher Preis, womit diese Modell bezogen auf den Massenmarkt und die These keine Relevanz hat. Du könnest nämlich genauso die kleinen Modelle selektieren und dir die Rosinen bezogen auf den Takt rauspicken.

Es geht darum, dass auch bei reduziertem Takt die 14900k viel mehr Spannung angefordert haben als die kleineren chips, was deiner Theorie des Binnings wiederspricht.

Prozessoren haben ja nicht nur eine Gesamtgüte, sondern auch die einzelnen Kerne unterscheiden sich in ihrer Güte/Qualität. Extremoverclocker haben beispielweise bei Bulldozer sich das beste Modul herrausgepickt, den Rest deaktiviert und damit Rekorde aufgestellt. Je mehr Kerne, desto schwieriger ist es, dass alle Kerne die selbe Güte haben um den Maximaltakt zu gewährleisten. Zusätzlich kommen noch Kurriositäten dazu. So war es Bepielsweise beim Q6600 so, dass es Modelle gab die sehr mit der Spannung skallierten und sich sehr weit übertakten ließen. Auf der anderen Seite gab es Modelle mit von einer von grund auf höherer Spannung. Letztere waren nicht so taktfreudig, jedoch dafür deutlich kühler. Keine Ahnung wonach man bei Intel selektiert.

An der Grund These ändert dies ja alles nichts. Weniger Kerne, einfacher zu (über)takten.
 
Zuletzt bearbeitet:
Und nocheinmal du machst Saltos in alle Richtungen.
Nicht ich mache Saltos in alle Richtungen, sondern du verwechselst SingleCore-Leistung mit Boost. :ROFLMAO:
Ich habe von Singlecore-Leistung geredet, nicht maximalem SingleCore-Boost! Die ganze Zeit schon.
Kannst ja meine Beiträge nochmal durchgucken, in keinem davon kommt das Wort Boost auch nur ein einziges mal vor.

Komm mal zurück zur Ausgangsfrage: haben CPUs mit mehr Kernen grundsätzlich mehr Takt. => Nö, das ist Produktpolitik des Herstellers damit die Leute zum teureren Modell greifen.
Die Frage war nicht, ob CPUs mit mehr Kernen höher takten, sondern WARUM es bei den CPUs die es aktuell halt so gibt so ist.

An der Grund These ändert dies ja alles nichts. Weniger Kerne, einfacher zu (über)takten.
Nein, ich fang den Thread jetzt sicher nicht nochmal von vorne an. :rolleyes2:
 
Zuletzt bearbeitet:
Nicht ich mache Saltos in alle Richtungen, sondern du verwechselst SingleCore-Leistung mit Boost. :ROFLMAO:
Ich habe von Singlecore-Leistung geredet, nicht maximalem SingleCore-Boost! Die ganze Zeit schon.
Ich habe das so umschreiben, weil du Dinge durcheinander bringst. Du schreibst viel, aber "sagst" wenig. Du beziehst auch deine Aussage nur auf die Desktop-CPUs.
Ich schrieb das ist reine Produktpolitik und es fließen mehrere Faktoren da mit rein. Mal als Horizonterweiterung:

1729502431313.jpeg



Wie du an diesem Beispiel siehst ist es reine Produktpolitik. Es gibt keine techschische Grundlage, weshalb die CPUs mit mehr Kernen höher takten.
Du hast eine Fertigung und eine maximal zulässige Spannung mit welcher die Prozessoren maximal betrieben werden dürfen, dazu kommt eine TDP Einstuffung bze Begrenzung, da es unterschiedliche Einsatzszenarien und ein Preisgefüge geben muss. Und in diesem Rahmen werden CPUs klassifiziert.

Wenn du dir den 5220 und den 6254 ansiehst, dann handelt es sich um den selben DIE der da vom Fließband kommt, nur mit einer anderen TDP Einstuffung und Preiseinstufung. Der 6254 darf schlicht einfach mehr saufen und das ließ sich Intel vergolden. Aus Preisperspektive um möglichst viele Kunden anzusprechen von günstig bis teuer und eben auch seitens des Verbrauchs macht es eben aus Herstellersicht Sinn so ein Portfolio aufzubauen.
Wenn du dir den Top Chip ansiehst den 8280, dann taktet dieser im Schnitt 200 MHz geringer als der 6254. Bei Last auf 18 Kernen sind es 3,9Ghz gegenüber 3,7GHz.
Würde man deiner Logik folgen (Mehr Kerne = mehr Takt), dann müsste das Top-Top-Modell höher taken. Im Server hast du aber hier die TDP-Limitierung. Seiner Zeit 205W. Die TDP beschreibt ja die Wämeabfuhr anhand die Kühlerhesteller oder in diesem Fall der Serverhersteller ihre Systeme/Kühler validieren und designen. Intel kann nicht einfach im Nachgang mit einem 250W oder 300W Modell kommen, da werden viele Serverhersteller die Segel streichen. Anhand dieser TDP-Klassifizierung wird das meiste an Leistung (Takt) rausgequetscht was möglich ist. Der Takt des 8280 sinkt mit Last auf weiteren Kernen immer wieder ab und landet schlussendlich bei 2,7 GHz. Zu jedem Zeitpunkt versucht sie TopCPU das TDP Korsett nicht zu sprengen.

Anhand dieses Beispiels sieht man schön: Größerer Chip -> mehr Transitoren -> mehr Verbrauch -> weniger Taktspielraum bei selber TDP.
Im Gegensatz zum Desktop-Portfolio, welches reine Produktpolitik ist, siehst du hier die nakten Tatsachen, was bei unterschiedlichen TDPs möglich ist.

Knapp 9000 Beiträge seit 2017, Respekt für soviel Geschreibsel.
Du bist ja ein ganzes Stück jünger. Ich wäre da etwas Kleinlauter.

Mal ein Beispiel von früher, war vermutlich vor deiner Zeit. Umso besser.
Damals hat man CPUs über den FSB übertaktet. Der offene Multi war den ExtremEditions vorbehalten und es war die Regel, dass kleinere CPUs sich besser übertakten ließen also einen höheren Taktspielraum boten.

Heute hat ja jeder gefühlt eine AiO, daher kann Intel mittlerweile bis an die Kotzgrenze gehen. Das war füher anders. Die CPUs waren TDP limitiert und die bessere Kühlleistung konnte man als Selbstbauer einfacher in höhere Takt ummünzen.
Damals konnte jeder 0815 Overclocker eine $130 Einsteiger-CPU über das Niveau des $1000 Topmodells übertakten. Die Einstufung Taktraten und Preis ist wie man sieht reine Produktpolitik. So wie an dem Server-CPU-Beispiel oben.

Kurze Ziet später kam Intel mit den Core2-CPUs um die Ecke, welche deutlich effizienter waren. Es gab trotz deutlich niedriger Taktraten zudem einen großen Leistungssprung. Es war reine Produkpolitik seitens Intel den Taktspielraum und somit die Leistung nicht komplett an den Kunden weiterzugeben. Das hat man erst später getan. Konkurenz gab es zudem nicht im Gegensatz zu heute. Die Overclocker hats gefreut. 50% OC kein Problem. Wieder reine Produktpolitik.

Erst später war ein Übertakten über den FSB nicht mehr möglich und das vormals exklusive Feature, der offene Multi wurde nun als k-Modell vermarktet. Kleine Modelle konnte man nun also nicht mehr sinnvoll übertakten. Warum wohl?! Taktreserven haben die alle. Das ist reine Produktpolitik im Desktop den teuersten Modellen 100-200MHz mehr zuspendieren damit die Benchmarkbalken immer passen und nicht die 1000$ CPU von der $130 CPU überholt wird.

Man muss sich auch in den Hersteller hineinversetzen. Früher hat man gelaubt alles wird jetzt munter parallelisiert. Erst Hyperthreading, DualCores, dann das gescheiterte Modul-Design von AMD. Singlethreading-Leistung ist halt immer noch sehr wichtig, und aus diesem Grund gibt es für den Kunden keinen D805 mehr. Nie wieder. Warum? Produktpolitik.
 
Zuletzt bearbeitet:
Ich habe das so umschreiben, weil du Dinge durcheinander bringst. Du schreibst viel, aber "sagst" wenig. Du beziehst auch deine Aussage nur auf die Desktop-CPUs.
Ich schrieb das ist reine Produktpolitik und es fließen mehrere Faktoren da mit rein. Mal als Horizonterweiterung:

Anhang anzeigen 1037718


Wie du an diesem Beispiel siehst ist es reine Produktpolitik. Es gibt keine techschische Grundlage, weshalb die CPUs mit mehr Kernen höher takten.
Du hast eine Fertigung und eine maximal zulässige Spannung mit welcher die Prozessoren maximal betrieben werden dürfen, dazu kommt eine TDP Einstuffung bze Begrenzung, da es unterschiedliche Einsatzszenarien und ein Preisgefüge geben muss. Und in diesem Rahmen werden CPUs klassifiziert.

Wenn du dir den 5220 und den 6254 ansiehst, dann handelt es sich um den selben DIE der da vom Fließband kommt, nur mit einer anderen TDP Einstuffung und Preiseinstufung. Der 6254 darf schlicht einfach mehr saufen und das ließ sich Intel vergolden. Aus Preisperspektive um möglichst viele Kunden anzusprechen von günstig bis teuer und eben auch seitens des Verbrauchs macht es eben aus Herstellersicht Sinn so ein Portfolio aufzubauen.
Wenn du dir den Top Chip ansiehst den 8280, dann taktet dieser im Schnitt 200 MHz geringer als der 6254. Bei Last auf 18 Kernen sind es 3,9Ghz gegenüber 3,7GHz.
Würde man deiner Logik folgen (Mehr Kerne = mehr Takt), dann müsste das Top-Top-Modell höher taken. Im Server hast du aber hier die TDP-Limitierung. Seiner Zeit 205W. Die TDP beschreibt ja die Wämeabfuhr anhand die Kühlerhesteller oder in diesem Fall der Serverhersteller ihre Systeme/Kühler validieren und designen. Intel kann nicht einfach im Nachgang mit einem 250W oder 300W Modell kommen, da werden viele Serverhersteller die Segel streichen. Anhand dieser TDP-Klassifizierung wird das meiste an Leistung (Takt) rausgequetscht was möglich ist. Der Takt des 8280 sinkt mit Last auf weiteren Kernen immer wieder ab und landet schlussendlich bei 2,7 GHz. Zu jedem Zeitpunkt versucht sie TopCPU das TDP Korsett nicht zu sprengen.

Anhand dieses Beispiels sieht man schön: Größerer Chip -> mehr Transitoren -> mehr Verbrauch -> weniger Taktspielraum bei selber TDP.
Im Gegensatz zum Desktop-Portfolio, welches reine Produktpolitik ist, siehst du hier die nakten Tatsachen, was bei unterschiedlichen TDPs möglich ist.

Knapp 9000 Beiträge seit 2017, Respekt für soviel Geschreibsel.
Du bist ja ein ganzes Stück jünger. Ich wäre da etwas Kleinlauter.

Mal ein Beispiel von früher, war vermutlich vor deiner Zeit. Umso besser.
Damals hat man CPUs über den FSB übertaktet. Der offene Multi war den ExtremEditions vorbehalten und es war die Regel, dass kleinere CPUs sich besser übertakten ließen also einen höheren Taktspielraum boten.

Heute hat ja jeder gefühlt eine AiO, daher kann Intel mittlerweile bis an die Kotzgrenze gehen. Das war füher anders. Die CPUs waren TDP limitiert und die bessere Kühlleistung konnte man als Selbstbauer einfacher in höhere Takt ummünzen.
Damals konnte jeder 0815 Overclocker eine $130 Einsteiger-CPU über das Niveau des $1000 Topmodells übertakten. Die Einstufung Taktraten und Preis ist wie man sieht reine Produktpolitik. So wie an dem Server-CPU-Beispiel oben.

Kurze Ziet später kam Intel mit den Core2-CPUs um die Ecke, welche deutlich effizienter waren. Es gab trotz deutlich niedriger Taktraten zudem einen großen Leistungssprung. Es war reine Produkpolitik seitens Intel den Taktspielraum und somit die Leistung nicht komplett an den Kunden weiterzugeben. Das hat man erst später getan. Konkurenz gab es zudem nicht im Gegensatz zu heute. Die Overclocker hats gefreut. 50% OC kein Problem. Wieder reine Produktpolitik.

Erst später war ein Übertakten über den FSB nicht mehr möglich und das vormals exklusive Feature, der offene Multi wurde nun als k-Modell vermarktet. Kleine Modelle konnte man nun also nicht mehr sinnvoll übertakten. Warum wohl?! Taktreserven haben die alle. Das ist reine Produktpolitik im Desktop den teuersten Modellen 100-200MHz mehr zuspendieren damit die Benchmarkbalken immer passen und nicht die 1000$ CPU von der $130 CPU überholt wird.

Man muss sich auch in den Hersteller hineinversetzen. Früher hat man gelaubt alles wird jetzt munter parallelisiert. Erst Hyperthreading, DualCores, dann das gescheiterte Modul-Design von AMD. Singlethreading-Leistung ist halt immer noch sehr wichtig, und aus diesem Grund gibt es für den Kunden keinen D805 mehr. Nie wieder. Warum? Produktpolitik.
Ganz ehrlich, soviel Blödsinn habe ich schon lange nicht mehr gelesen, bist du in der Zeit stehengeblieben?

Knapp 9000 Beiträge seit 2017, Respekt für soviel Geschreibsel.
Du bist ja ein ganzes Stück jünger. Ich wäre da etwas Kleinlauter.
Was hat das mit dem Alter zu tun?

Edit:
Ich habe jetzt auch mal eine Zeitreise gemacht und selbst früher war es so.
Intel Xeon Platinum 8256, 4C/8T Single Core-Leistung 3.90 GHz

Intel Xeon Platinum 8280, 28C/56T Single Core-Leistung 4.00 GHz

Nur mal so nebenbei.
 
Zuletzt bearbeitet:
Knapp 9000 Beiträge seit 2017, Respekt für soviel Geschreibsel.
Du bist ja ein ganzes Stück jünger. Ich wäre da etwas Kleinlauter.

Mal ein Beispiel von früher, war vermutlich vor deiner Zeit. Umso besser.
Das Anmeldedatum mit dem Alter gleichzusetzen ist auf jeden Fall anders wild und irgendwie falsch tbh :coffee:
 
Ganz ehrlich, soviel Blödsinn habe ich schon lange nicht mehr gelesen, bist du in der Zeit stehengeblieben?


Was hat das mit dem Alter zu tun?

Edit:
Ich habe jetzt auch mal eine Zeitreise gemacht und selbst früher war es so.
Intel Xeon Platinum 8256, 4C/8T Single Core-Leistung 3.90 GHz

Intel Xeon Platinum 8280, 28C/56T Single Core-Leistung 4.00 GHz

Nur mal so nebenbei.

Wenn man halt keine Ahnung hat....

G3cko schrieb:
Du hast eine Fertigung und eine maximal zulässige Spannung mit welcher die Prozessoren maximal betrieben werden dürfen, dazu kommt eine TDP Einstuffung bze Begrenzung, da es unterschiedliche Einsatzszenarien und ein Preisgefüge geben muss. Und in diesem Rahmen werden CPUs klassifiziert.

Wie man schön am 8256 sieht wurde die CPU in das 105W TDP Koresett gezwängt. Der Takt ist ensprechend niedriger.
Die TDP beschreibt nicht immer den exakten Verbrauch, sondern ist viel mehr als eine Eingruppierung nach der notwendigen Kühlleistung zu sehen. Bei den Topmodellen und bei den Modellen mit hohem Takt kann aber schon sagen TDP = Verbrauch. Man sieht es auch schön daran wie mit jedem weiteren aktiven Kern die Taktrate sinkt um innerhalb dieses Rahmens zu bleiben. Wenn AVX dazukommt sinken die Taktraten weiter. Es gibt keinen Grund Leistung beim Topmodell absichtlich liegen zu lassen. Mehr Leistung = Mehr Geld

Der 6244 hat trotz 150W TDP höhere Taktraten.
Es gibt auch noch den 6256 mit 12C, 205W TDP und 4,5Ghz und einem Basistakt von 3,6GHz.

Was eben auffällt ist auch hier die Produktpolitik den Spitzenmodellen 100 Mhz mehr zu gönnen, wie eben analog auch bei den Desktop-CPUs. Der 8268 hat bei der Auslastung mehrer Kerne ein exkat identisches Taktverhalten zum Topmodell, da sich beide ja auch im 205W TDP Korsett bewegen. Es fehlen ja auch nur 2 Kerne, was in der Summer im Taktverhalten kaum Auswirkungen hat.

Der Grundsatz,
Größerer Chip -> mehr Transitoren -> mehr Verbrauch -> weniger Taktspielraum bei selber TDP.
lässt sich auch auf Grafikkarten übertragen. Grafikkarten skallieren perfekt in der Breite. Es wird also keine Leistung liegen gelassen. Bei Grafikkarten gilt genauso wie bei CPUs kleinere Chip bieten mehr Spielraum bei TDP/ Takt und Spannung, währen bei größeren Chips die TDP früher als der Takt dort zum Showstopper wird. Das Topmodell ist näher am Sweetspot wärend die kleineren Chips es dem hersteller erlauben mehr die Brechstange anzusetzen. Auch hier gilt: mehr Leistung = mehr Geld. Es gibt also keinen Grund Takt liegen zu lassen, wenn man es nicht muss.

Die Selektion hat mit dem Grundsatz nichts zu tun. Nur weil Intel den 14900KS selektiert, heißt das nicht, dass man nicht auch kleine CPUs selektieren könnte.
Was ja manche User auch tun, in dem sie mehrere CPUs bestellen, um das beste OC Modell herrauszufischen. Sowas lehne ich jedoch ab, da es zu Lasten des Händlers geht.
Das Anmeldedatum mit dem Alter gleichzusetzen ist auf jeden Fall anders wild und irgendwie falsch tbh :coffee:
Verrückte Korrelation: Jemand meldet sich 12 jahre später an, schreibt 9000 Beiträge und könnte womöglich jünger sein.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh