Warum steigt die maximale Taktrate handelsüblicher CPUs üblicherweise mit der Anzahl der Kerne?

Juschi1

Profi
Thread Starter
Mitglied seit
14.12.2020
Beiträge
28
Hat das physikalische Gründe? Eigentlich würde man erwarten, dass bei einer CPU, die weniger aktive Kerne hat, höher takten kann. Aus den Gründen der weniger entstehenden Wärme und aus der Logik heraus, dass bei CPUs, bei denen mehr Kerne deaktiviert sind, besser nach maximaler Taktrate der verbliebenen Kerne "gesiebt" werden kann als bei den wenigen Modellen, bei denen die QS ergibt, dass alle Kerne einsatzfähig sind. Ich verstehe das nicht.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das ist nur Marketing, man könnte auch die taktfreudigsten Dies in die Modelle mit den wenigsten Kernen packen, aber welchen Preis soll man dafür dann verlangen? So kann man halt die teuersten Modelle mit den meisten Kernen auch an diejenigen Kunden verkaufen, denen es weniger auf die Anzahl der Kerne als mehr auf den maximalen Takt ankommt und die sich dies dann entsprechend kosten lassen.
 
Weniger Zylinder heißt nicht gleich mehr Umdrehungen. Die damaligen V10 Motoren in der Formel 1 liefen auch mit 20k rpm während die heutigen V6 mit bis zu 15k rpm drehen.
Ist zwar nicht 1:1 das gleiche, aber auch ein i5 kann theoretisch mit 6GHz laufen, wenn die Kerne das mitmachen. Aber macht man nicht, weil man a) die größte Zahl aufs topmodell schreiben will und b) man genug yield aus dem wafer für die verschiedenen SKUs braucht. Müsste jeder i3 auch 6GHz schaffen, kannst wahrschienlich den halben wafer wegschmeissen. Deswegen werden die kleineren CPUs aus qualitativ schlechteren chips gemacht, die defekte Kerne aufweisen oder aufgrund Fertigungsabweichungen die es nunmal gibt, nicht so hoch takten können.
Es können auch einzelne Teile von Prozessoren deaktiviert werden, wenn zum Beispiel zwar alle Kerne funktionieren würden, aber der maximale Takt nicht für das Topmodell reicht. Dann lasert man paar Kerne weg und Zack ist der potenzielle 24 Kerner nur noch ein i5 mit 14 Kernen.
Mit der Anzahl der Kerne an sich hat das erstmal nix zu tun sondern mit der Qualität der einzelnen Kerne nach der Herstellung.
 
Zuletzt bearbeitet:
Weniger Zylinder heißt nicht gleich mehr Umdrehungen. Die damaligen V10 Motoren in der Formel 1 liefen auch mit 20k rpm während die heutigen V6 mit bis zu 15k rpm drehen.
Ist zwar nicht 1:1 das gleiche, aber auch ein i5 kann theoretisch mit 6GHz laufen, wenn die Kerne das mitmachen. Aber macht man nicht, weil man a) die größte Zahl aufs topmodell schreiben will und b) man genug yield aus dem wafer für die verschiedenen SKUs braucht. Müsste jeder i3 auch 6GHz schaffen, kannst wahrschienlich den halben wafer wegschmeissen. Deswegen werden die kleineren CPUs aus qualitativ schlechteren chips gemacht, die defekte Kerne aufweisen oder aufgrund Fertigungsabweichungen die es nunmal gibt, nicht so hoch takten können.
Es können auch einzelne Teile von Prozessoren deaktiviert werden, wenn zum Beispiel zwar alle Kerne funktionieren würden, aber der maximale Takt nicht für das Topmodell reicht. Dann lasert man paar Kerne weg und Zack ist der potenzielle 24 Kerner nur noch ein i5 mit 14 Kernen.
Mit der Anzahl der Kerne an sich hat das erstmal nix zu tun sondern mit der Qualität der einzelnen Kerne nach der Herstellung.

Die Wahrscheinlichkeit, einen Die zu finden, bei denen alle 12 Kerne 6 GHz packen, sollte doch deutlich geringer sein, als einen Die zu finden, bei dem wenigstens 4 Kerne 6 GHz können.
Es sollte daher ein Überschuss an Dies geben, bei denen relativ wenige Kerne 6 GHz können als alle 12.
 
bei einem 14900k gibt es genau 2 Kerne, die 6GHz schaffen und das bei einer bestimmten Spannung x. Es ist nicht nur der reine Takt ausschlaggebend, sondern u.A. auch bei welcher Spannung dieser erreicht werden kann, wenn er überhaupt erreicht wird. Das sind Spezifikationen, die Intel selbst festlegt (AMD genauso). Das werden auch sicher nicht die einzigen Bedingungen sein, aber das weiß nur der Hersteller. Das Ganze nennt sich dann binning.

Vereinfacht gesagt:
Beispiel 1: Angenommen, du findest einen chip, der dieses Kriterium an Takt/Spannung erfüllt, aber zwei defekte Kerne hat, dann kann es schonmal kein i9 mehr werden. Also werden möglicherweise noch Kerne weggelasert und der Maximaltakt und Spannungen (die VID) entsprechend der angepeilten SKU konfiguriert. Die vorhandenen Kerne könnten zwar, aber der Chip ist halt teildefekt also muss er als i7 vermarktet werden denn sonst wäre der Chip Müll.
Beispiel 2: Angenommen, du findest einen chip, der keine defekten Kerne hat, aber maximal 2 Kerne nur 5.8GHz bei Spannung x schaffen - also kann es auch kein i9 mehr werden, denn dafür müssen es ja 6GHz auf mindestens 2 Kernen sein. Also geht man wieder her, lasert ein paar Kerne weg und macht einen i7 oder i5 draus, denn dafür ist der chip gut genug. Würde man das nicht tun, wäre es Müll.
Beispiel 3: Angenommen, du findest einen chip, der 5.8GHz auf zwei maximal zwei Kernen schafft, aber gleichzeitig noch ein paar defekte Kerne hat. Also werden wieder Kerne deaktiviert und Takt/Spannung entsprechend der Spezifikation eines i5 eingestellt und so verkauft. Denn sonst wäre der Chip - du ahnst es - Müll

Ergo: Mehr Kerne ist nicht gleichbedeutend mit höherem Takt, sondern mehrere Bedingungen müssen von einem Chip erfüllt werden, um CPU XYZ zu werden. Die Chips, die die festgelegten Voraussetzungen an Takt/Spannung erfüllen und dabei keine Defekte aufweisen, werden die top-end CPUs. Chips, die die Voraussetzung nicht erfüllen und/oder Defekte haben, werden zu kleineren CPUs gemacht, um sie überhaupt vermarkten zu können denn sonst wäre es Ausschuss und das will man nicht. Denn alles was nicht zu einer fertigen CPU gemacht werden kann, ist Verlust von Geld.

Glaub du stellst dir das komplizierter vor, als es ist. Es geht rein darum, so wenig von dem wafer wegwerfen zu müssen, wie möglich. Deswegen gibt es nicht nur i9 mit 6GHz und 24 Kernen, sondern i7, i5 und den ganzen anderen Kram mit weniger Kernen und weniger Takt. Weil in den meisten Fällen die Voraussetzungen um ein i9 zu werden, nicht erfüllt werden aus einem der beiden genannten Gründen - Takt/Spannung passt nicht oder Kerne defekt (nebst anderen Kriterien). Da steckt keine Physik und keine Magie durch Wollen dahinter, dass mehr oder weniger Kerne mehr oder weniger Takt bedeuten müssten so wie du es dir vorstellst sondern einzig und allein Geld.
 
Bei allen deinen drei Beispielen wird in einem zweiten Schritt der jeweilige Maximaltakt nach unten angepasst. Aber das ist doch technisch nicht nötig? Man könnte den Maximaltakt doch bei denen des i9 belassen. Eben mit weniger Kernen. Damit hätte man einen i3 oder einen i5 mit de Maximaltakt eines i9, ohne dass weiterer Aufwand entsteht.
 
Ich denke, es ist nicht unbedingt technisch bedingt, sondern der Produktsegmentierung geschuldet. Man will vermeiden, dass die teureren CPUs mit mehr Kernen bei Benchmarks der Single-Core-Leistung kürzere Balken haben als die günstigeren CPUs mit entsprechend weniger Kernen.
 
Es macht keinen Sinn für jedes mögliche Szenario ein eigenes CPU modell auf den Markt zu bringen, denn dann kennt sich keine Sau mehr aus. Deswegen gibt es Spezifikation i5, i7 und i9 etc. und nichts dazwischen. Wo kämen wir denn hin, wenn es plötzlich einen i3-drölfeinselfzig gäbe mit 4 Kernen und 6GHz und einen i9-drölfelfzigundeins mit 24 Kernen und 5.5GHz. Und dazwischen am besten noch einen i7-14701, i7-14702, ... i7-14735.
 
Ärgerlich, dass intel dieses Video nur in Englisch anbietet:

 
Aber das ist doch technisch nicht nötig? Man könnte den Maximaltakt doch bei denen des i9 belassen. Eben mit weniger Kernen.
Könnte man, aber dann gäbe es einmal weniger Anreiz für die Kunden um teuren u9 zu greifen und man hätte auch weniger Dies die eben die z.B. 6GHz eines 14900K schaffen, könnte also auch nur weniger i5 oder gar i3 mit 6GHz maximalem Boosttakt verkaufen. Damit man solche Dies dann noch verkaufen kann, bräuchte man noch weitere Varianten der i3 und i5 mit weniger maximalem Takt
Damit hätte man einen i3 oder einen i5 mit de Maximaltakt eines i9, ohne dass weiterer Aufwand entsteht.
Es wird sicher Dies in i3 und i5 geben, bei denen auch ein oder zwei Kerne die 6GHz der besten Kerne eines i9 packen, aber wie viele? Kauf Dir halt eine Reihe i5-14600K und probiere aus wie viele davon dann auch 6GHz packen. Der eine oder andere dürfte es schaffen, denn wenn es ein besonders taktfreudiges Die ist, welche vielleicht sogar bis 6,2GHz geht und damit sogar ein 14900KS hätte werden können, wo aber eben ein P-Kern defekt ist, dann kann Intel so ein Die nur noch als 14600K verwursten (da wird dann neben dem defekten P-Kern noch einer stillgelegt und dazu zwei e-Kern Cluster) und wird dies auch machen. Da hat der Kunde dann Glück, aber wie viele solcher Dies gibt es? Wenn es nicht viele sind und Intel auch den 14600K mit 6GHz angeben würde, müssten eine Menge Dies die auch als 14900K taugen würden, dann als 14600K für viel weniger Geld verkauft werden oder potentiell würde eine Menge Leute die eine 14600K wollen, keinen bekommen können, wenn nicht genug Dies anfallen, bei denen wenigstens ein Kern die 6GHz packt. Warum sollte Intel sich das antun?

Man will vermeiden, dass die teureren CPUs mit mehr Kernen bei Benchmarks der Single-Core-Leistung kürzere Balken haben als die günstigeren CPUs mit entsprechend weniger Kernen.
Eben und wer die besten Singlethreadleistung will, muss eben auch die teuren Modelle mit den meisten Kernen kaufen. Andernfalls muss er auf sein Glück setzen und darauf hoffen, dass sich ein günstigeres Modell sehr gut übertakten lässt, denn die eine oder andere wird es sicher geben.
 
Wie ist das denn in der Praxis, wenn man aufgrund anwendungsspezifischer Anforderungen auf eine möglichst hohe Single Core Leistung angewiesen ist. Kauft man die CPU mit der höchsten Single Core Performance, also z.b. ein i9, dann hat man in der Praxis auch deutlich mehr Stromverbrauch, auch wenn man nur maximal drei Cores verwendet, ist das korrekt?
Gibt es Möglichkeiten bzw. welche Möglichkeiten bestehen, die Leistungsaufnahme eines z.b. i9 so zu reduzieren, dass der Stromverbrauch sich wieder in Richtung einer kleineren CPU entwickelt? Muss man die ungenutzten Kerne immer aktiv mitziehen und dafür Strom zahlen oder kann man die deaktivieren oder wie verhält sich das in der Praxis?
 
Wie ist das denn in der Praxis, wenn man aufgrund anwendungsspezifischer Anforderungen auf eine möglichst hohe Single Core Leistung angewiesen ist. Kauft man die CPU mit der höchsten Single Core Performance,
Theoretisch ja, out of the box hat die CPU mit dem höchsten Takt innerhalb einer Generation bzw. Architektur auch die höchste singlecore Leistung. Inwieweit diese 200-400 MHz dann praktisch einen Unterschied machen, lassen wir mal dahingestellt. Takt allein ist auch nicht das einzige Kriterium bei einem Rechner und von overclocking sprechen wir mal nicht.

dann hat man in der Praxis auch deutlich mehr Stromverbrauch, auch wenn man nur maximal drei Cores verwendet, ist das korrekt
Ein Kern, auf dem keine Last ist, verbraucht auch nur wenig Strom. Natürlich verbrauchen 21 idle Kerne mehr Strom als 11 idle Kerne, aber das ist vernachlässigbar im Großen und Ganzen bertrachtet. Außerdem ist die maximale Leistungsaufnahme der gesamten CPU durch die Powerlimits gedrosselt. Grob gesagt, ob sich nun 6 Kerne jeweils 50W gönnen oder 2 Kerne je 150W, am Ende sinds 300W. Nur mal so als Milchmädchenrechnung.
Ein i7 kann auch genauso 300W pressen, wie ein i9 wenn man ihn lässt. Alles eine Konfigurationsfrage.

Gibt es Möglichkeiten bzw. welche Möglichkeiten bestehen, die Leistungsaufnahme eines z.b. i9 so zu reduzieren, dass der Stromverbrauch sich wieder in Richtung einer kleineren CPU entwickelt?
undervolting, powerlimits setzen, Höchsttakt begrenzen, Hyperthreading deaktivieren, Stromspareinstellungen im BIOS + Windows sinnvoll festlegen

Muss man die ungenutzten Kerne immer aktiv mitziehen und dafür Strom zahlen oder kann man die deaktivieren oder wie verhält sich das in der Praxis?
siehe oben - ein Kern ohne Last verbraucht kaum Strom. Außerdem haben neuere CPUs die Möglichkeit, Kerne über das BIOS zu deaktivieren.
 
Prinzipiell wirst du immer etwas Leistung verlieren, wenn du irgendwo die Handbremse reinhaust. Kann mehr sein, kann weniger sein. Das kommt dann auf den Einzelfall an, wieviel das ausmacht.
Wenn du deine CPU auf 2GHz drosselst, wirst du logischerweise nicht die selbe Leistung wie mit 5GHz haben. Genauso wenn du die CPU von 125W auf von mir aus 70W drosselst. Musst du halt selbst ausprobieren, was für dich die richtige Balance aus Stromverbrauch und Leistung ist.
Du betreibst ja einen PC nicht isoliert mit nur einem Programm, das genau einen Kern belastet. Im Hintergrund läuft ja auch noch Zeug, das die CPU handeln muss. Deaktivierst du die Hälfte aller Kerne, bleibt die Rechenarbeit für die CPU ja trotzdem erstmal die Gleiche. Also müssen die übrigen Kerne das übernehmen, was dir unterm Strich auch wieder Leistung für deine eigentliche Anwendung nimmt.
 
Ich sehe da zwei Gründe:

Viele Prozessoren reichen ja die höchste Boost-Taktrate nur wenn so nicht alle Prozessorkerne aktiv sind, sondern zum Beispiel nur 4 von 12 Kernen. Da können dann die 8 inaktiven Cores und auch andere Funktionseinheiten wie z.B. der 3rd-Level Cache der dann auch grösser ist quasi als "Kühlakku" dienen.

Ausserdem ist es so das ein Prozessor mit 12 Kernen die meiste Zeit auf dem Basistakt von z.B. 800 MHz und damit vergleichsweise kühl bleibt, und da ist dann mehr "Luft" eben kurzzeitig bis auf 4.800 MHz Boost-Taktrate zu erhöhen.

Bei einem Prozessor mit insgesamt nur 4 Kernen muss der dann oft auf 1.600-2.200 MHz arbeiten und wird somit wärmer, da ist dann nicht mehr als 3.200 MHz Boost-Takt möglich.

Ausserdem kann man bei mehr Kernen wenn man nicht alle Kerne braucht immer zwischen verschiedenen Kernen wechseln um alle gleichmässig zu nutzen.
 
Und das hat keine Auswirkungen auf die Single Core Performance?
Beschäftige dich mal mit den Grundlagen und physikalischen Eigenschaften von Transistoren und mit der voltage-frequency-curve.

Und dann beschäftige dich mal mit Chipdesign, Chipfertigung, Silicon lottery und Binning, Yield, Cut-Down-Designs und was das alles für Auswirkungen hat.

Und dann beschäftige dich mal ein wenig mit Spezialchips. Tesla Dojo, AWS Gravitron, FPGA und altes gsync Modul vs. Das neue Mediatek gsync modul, dem ganzen AVX Kram, dem neumodischen NPU Kram und überspezifischen Beschleunigern, sowie dem Prinzip ein Chipdesign spezifisch für eine Anwendung zu bauen um Leistung und Effizienz zu bekommen.
(CPU vs. GPU zum Beispiel oder H.264 und H.265 Beschleunigern).

Bei Intel vs AMD, Brechstange vs x3d gibts ne Menge zu lernen. Der 5800x3d ist komplett durchanalysiert bezüglich Leistung, Takt und Effizienz.

Und dann gehts weiter mit dem Thema geleisteter Arbeit pro Energie, also absolute Effizienz. Leistungsaufnahme*Zeit ist Energie, das ganze für eine bestimmte Aufgabe ist Effizienz. Gamers Nexus hat dazu einige Daten.

Mit den ganzen Infos landest du vermutlich eher bei der Frage: "Was ist der richtige Chip für meine Anwendung?" Und nicht mehr bei "Warum taktet ein i3 nicht so hoch wie ein i9?.

Denn nur wenn du die Architektur als gegeben annimmst macht die Frage nach Takt wieder Sinn.
Dann bist du aber wieder bei ggf. Ineffizienten Chips für was du tun willst. Und wenn die Architektur festgelegt ist bist du wieder oben, bei Voltage-frequency-curve und speed vs Effizienz und Energie pro Arbeit.

Die viel wichtigere Frage ist eher was du erreichen willst bei welcher Anwendung und was dafür der richtige Chip ist.

Klassiker:
Factorio. Du kannst einen 14900k nehmen und komplett durchoptimieren, er wird immer gegen einen 7800x3d verlieren.
Cinebench: Du kannst ein Bild in 20s auf einer CPU rendern, du kannst es aber auch 100x schneller auf einer GPU rendern.

PS:
Und dann gab es vor einigen Jahren einen Pentium G3258. Der ist etwa ein halber i5-4670k und ein ganz eigenes Rabbithole.
Und die 5GHz alpha Prozessoren gab es auch noch. Hoher Takt, aber unendlich ineffizient und in der Konsequenz verschwunden.
 
Zuletzt bearbeitet:
Hat das physikalische Gründe? Eigentlich würde man erwarten, dass bei einer CPU, die weniger aktive Kerne hat, höher takten kann. Aus den Gründen der weniger entstehenden Wärme und aus der Logik heraus, dass bei CPUs, bei denen mehr Kerne deaktiviert sind, besser nach maximaler Taktrate der verbliebenen Kerne "gesiebt" werden kann als bei den wenigen Modellen, bei denen die QS ergibt, dass alle Kerne einsatzfähig sind. Ich verstehe das nicht.
Generell ist es so, dass die CPUs mit den meisten Kernen auch gleichzeitig die besten Kerne haben, entsprechend auch die am höchsten Takten.

Intel ist mit dem eigenen Binning schon so gut vorangeschritten, das Binning Firmen, wo man Früher noch selektierte CPU Kaufen konnte, schließen mussten, so das man generell sagen kann, an erster Stelle, kommt (Beispiel Intel ausgenommen KS), der 14900K der sollte im Normalfall die am höchsten taktenden Kerne haben, alles, was dann nicht den vorgaben, entspricht, wird dann zu einem 14700K und wer dann die vorgaben eines 14700K nicht schafft, wird dann zu einem 14600K usw.... jetzt kann es natürlich vorkommen, das einzelne Kerne eines 14600K auch die vorgaben eines 14900K erfüllt aber eben nicht alle, sonst wäre es ein 14900K geworden.

Du kannst einen 14900K auch mit 65W betreiben und hast somit eine sparsame CPU mit dem höchsten Single Core Takt, ein Core, verbraucht beim 14900K ausgelastet ca. 35-40W, somit hättest du bei 65W den Single Core Takt immer ausgelastet.
 
Intel ist mit dem eigenen Binning schon so gut vorangeschritten, das Binning Firmen, wo man Früher noch selektierte CPU Kaufen konnte, schließen mussten, so das man generell sagen kann, an erster Stelle, kommt (Beispiel Intel ausgenommen KS), der 14900K der sollte im Normalfall die am höchsten taktenden Kerne haben, alles, was dann nicht den vorgaben, entspricht, wird dann zu einem 14700K und wer dann die vorgaben eines 14700K nicht schafft, wird dann zu einem 14600K usw.... jetzt kann es natürlich vorkommen, das einzelne Kerne eines 14600K auch die vorgaben eines 14900K erfüllt aber eben nicht alle, sonst wäre es ein 14900K geworden.
Vor dem Hintergrund der Degrading Funde der letzten Monate halte ich diese Theorie für schwierig. Es scheint nach vorliegenden Daten eher so, dass die Chips nach Yield, also defekten im Chip gewählt werden und nicht nach Binning.

Es gibt auffällig viele 14900k die mit extremen Spannungen arbeiten während die 14700k alle mit deutlich moderateren Spannungen arbeiten bei vergleichbarem Takt.
Diese Aussage ist nicht korrekt, hatte ich falsch im Zusammenhang abgespeichert. Ich hab es noch mal nachgeschaut.
 
Zuletzt bearbeitet:
Vor dem Hintergrund der Degrading Funde der letzten Monate halte ich diese Theorie für schwierig. Es scheint nach vorliegenden Daten eher so, dass die Chips nach Yield, also defekten im Chip gewählt werden und nicht nach Binning.

Es gibt auffällig viele 14900k die mit extremen Spannungen arbeiten während die 14700k alle mit deutlich moderateren Spannungen arbeiten bei vergleichbarem Takt.
Nö, da muss ich dir leider widersprechen, gehen wir von normalen Bios Einstellungen aus (nicht von Hand eingegriffen)

Ist der Single Core Takt beim 14700K wesentlich niedriger.

EDIT
Und ich bezweifele auch, dass der Verbrauch beim 14700K Single Core niedriger ist.
 
Nö, da muss ich dir leider widersprechen, gehen wir von normalen Bios Einstellungen aus (nicht von Hand eingegriffen)
Schau dir das Video von Wendell/ Level1Techs und den anderen an die Datensätze analysiert haben.
Es geht darum, dass auch bei reduziertem Takt die 14900k viel mehr Spannung angefordert haben als die kleineren chips, was deiner Theorie des Binnings wiederspricht.

Es geht um Realität und die Binning Theorie, nicht um Marketing und Produktdaten.

Dabei will ich es belassen.
 
Zuletzt bearbeitet:
Takte einen 14700K auf die werte eines 14900K und schau was der dann am Single Core verbraucht.
Umgekehrt kann ich einen 14900K auch auf den Takt eines 14700K laufen lassen, der dann wiederum weniger verbraucht.

Dann zeig mir mal das Video, bei gleichem Takt, das der 14900K mehr verbraucht.

EDIT.

Von HWL extra neu getestet.


Verbrauch.

1728896733069.png


Single Core

1728896810873.png
 
Zuletzt bearbeitet:
Dann zeig mir mal das Video, bei gleichem Takt, das der 14900K mehr verbraucht.
Nicht "mehr verbraucht". Das ist ein komplett anderes Thema als was ich oben benannt hab.
Also noch mal meine Aussage für den korrekten Kontext:
Vor dem Hintergrund der Degrading Funde der letzten Monate halte ich diese Theorie für schwierig. Es scheint nach vorliegenden Daten eher so, dass die Chips nach Yield, also defekten im Chip gewählt werden und nicht nach Binning.

Es gibt auffällig viele 14900k die mit extremen Spannungen arbeiten während die 14700k alle mit deutlich moderateren Spannungen arbeiten bei vergleichbarem Takt.
Diese Aussage ist nicht korrekt, hatte ich falsch im Zusammenhang abgespeichert. Ich hab es noch mal nachgeschaut.
Es geht um Betriebsspannung für die Kerne, Voltage-Frequency-Curve und wieviel Spannung ein Chip braucht um seinen Nenntakt zu erreichen. Dieser Effekt ist bekannt als "Silicon Lottery" oder "Binning". Und hier kommt das entsprechende Video in Spiel, welches ich grade extra noch mal rausgesucht habe. Da siehst du dass nach Yield selektiert wird, nicht nach Silicon Lottery oder Binning, denn du hast eine große Bandbreite bei den Nennspannungen für Nenntakt.
Zeitstempel 23:44
 
Zuletzt bearbeitet:
Also wenn ich den Kerl sehe, stellen sich meine Nackenhaare hoch.

Ich denke da wird es noch mehr Parameter geben, Fakt ist, dass ein 14700K im normalen Zustand nicht den Single Core Takt vom 14900K erreicht, bei gleichem Verbrauch.

Und wenn dem so ist, würde er bei Intel auch nicht als 14900K laufen, sondern eben als 14700K, wenn bei einem 14900K einer defekt ist, kann es dann auch sein, das es ein 14700K wird und man kann Glück haben, das er den Takt vom 14900K bei gleicher Leistungsaufnahme schaffen würde, ist aber mit Sicherheit nicht immer so.

Die besten werden nun mal für den 14900K verbaut, was glaubst du warum die Selektierte KS Version immer später kommt?
 
Ich denke da wird es noch mehr Parameter geben, Fakt ist, dass ein 14700K im normalen Zustand nicht den Single Core Takt vom 14900K erreicht, bei gleichem Verbrauch.
Hör bitte auf Äpfel und Birnen durcheinanderzuwerfen. Diese Aussage wie du sie tätigst ergibt keinen Sinn.

Meine Aussage ist:
Nur die Chips mit den wenigsten Defekten werden i9, die Qualität der Chips ist egal, wenn die den Nenntakt nicht schaffen gibts halt mehr Spannung.
Hast du nen Defekt im P-Core wirds ggf. ein 14600k, hast du nen Defekt im E-Core wirds ein 14700k.
Der Rest wird mit der Brechstange aka mehr Spannung geregelt. Wie gut der Chip selbst ist, ist vollkommen egal. Einfach mehr Spannung. Da wird nix gebinnt.
Das ist die Gemengelage aus der das Desaster der letzten Monate entsprungen ist.

kann es dann auch sein, das es ein 14700K wird und man kann Glück haben, das er den Takt vom 14900K bei gleicher Leistungsaufnahme schaffen würde, ist aber mit Sicherheit nicht immer so.
Wenn du nem 14700k die Spannung vom 14900k verpasst schafft er sicherlich auch den gleichen Takt wie ein 14900k.
Die Daten sind doch da, wenn du die Spannung-Frequency-Curve verstehst kannst du es rauslesen.


Die besten werden nun mal für den 14900K verbaut, was glaubst du warum die Selektierte KS Version immer später kommt?
Marketing und Cashgrab. Es ist ein 14900k zum höheren Preis mit noch mehr Spannung. 🤷‍♂️
 
Hör du bitte auf, Äpfel und Birnen durcheinanderzuwerfen.:-)

Meine Aussage ist:
Nur die Chips mit den wenigsten Defekten werden i9, die Qualität der Chips ist egal, wenn die den Nenntakt nicht schaffen gibts halt mehr Spannung.
Und deine Aussage ist halt nicht richtig.

Meinst du, alle CPUs sind gleich, dass man das nur alleine mit mehr Spannung ausgleichen könnte? Ich glaube nicht.

Und wenn die Spannung nicht mehr ausreicht, um den benötigten Takt zu erreichen? Was ist dann? Dann kommt er in den Müll.

Oder wird es dann ein 14700K oder 14600K wo man den Takt nicht so hoch einstellen muss und die Spannung eventuell dafür ausreichen würde, schon einmal so rum gedacht?
 
Verstehe Voltage Frequency Curve, schau dir die Daten an, es ist alles da. Ich gebs auf.

Wenn an dem so wäre wie du es schreibst, würde keiner mehr im OC Bereich einen 14900K kaufen, weil ja alle gleich sind, dann würde ein 14600K vollkommen ausreichend sein, weil man ihn mit Leichtigkeit auch auf das Potenzial eines 14900K bringen kann, halt nur mit weniger Kernen.

Oder ASUS mit dem SP wert, da wirst du nicht einen 14600K oder 14700K finden, der die werte vom 14900K erreicht, gut vielleicht vereinzelt, wo dann die Kerne defekt waren und es ein 14700K werden musste.
 
Fakt ist auf jeden Fall, einer von beiden hat recht :geek:
 
Viele Prozessoren reichen ja die höchste Boost-Taktrate nur wenn so nicht alle Prozessorkerne aktiv sind, sondern zum Beispiel nur 4 von 12 Kernen.
Das liegt aber eher daran, das dafür entweder nicht genug Strom bereitgestellt werden kann oder eben die Wärme nichtmehr abgeführt werden kann, wenn alle Kerne gleichzeitig mit maximalem Takt laufen würden.

Ausserdem ist es so das ein Prozessor mit 12 Kernen die meiste Zeit auf dem Basistakt von z.B. 800 MHz und damit vergleichsweise kühl bleibt, und da ist dann mehr "Luft" eben kurzzeitig bis auf 4.800 MHz Boost-Taktrate zu erhöhen.
Die 800Mhz sind oft sogar nur eine Anzeigesache. Ungenutzte Kerne können afaik sogar mehr oder weniger komplett abschalten und verbrauchen dann auch nur noch 0 bis sehr sehr wenig Strom.

Ausserdem kann man bei mehr Kernen wenn man nicht alle Kerne braucht immer zwischen verschiedenen Kernen wechseln um alle gleichmässig zu nutzen.
Geht weniger darum die Kerne gleichmäßig zu nutzen, sondern wie man aus dem was du vorher schon geschrieben hast folgern kann:
Die Kerne sind auch physisch an anderen Positionen auf dem Die. Wenn man die Kerne durchwechselt, ist der neue Kern auf den man wechselt kühler und kann daher wieder einfacher boosten, der vorherige Kern kann derweil wieder abkühlen. Da die Kerne trotzallem sehr dich beieinander sitzen, kann ein Idle-Kern der neben dem Kern sitzt der gerade voll boostet natürlich nicht auf Raumtemperatur abkühlen, aber ein bisschen was ist schon drin. Man schiebt quasi den Hotspot über die Kerne durch die CPU.
Bei AMDs Chipletdesign dürfte es sich noch stärker auswirken, wenn die Kerne zwischen den verschiendenen CCX wechseln.

Aber die Kehrseite ist: Ein Kernwechsel kostet Performance. Nicht die Welt, aber es kostet ein paar Takte. Bei den AMDs ist ein Wechsel zwischen verschiendenen CCXen sogar noch etwas "teurer". Kann aber gut sein, das man dafür den Boost eben länger aufrecht erhalten kann und so damit sogar unterm Strich etwas mehr rausholt.
 
@2k5lexi
Habe auf die schnelle nichts Besseres gefunden und ist zudem PCG Hardware, glaube aber vor 4 Jahren waren sie noch gut. :-)
Ab. 6:50
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh