Was bringt uns die Chipselektion?

mrcs

Enthusiast
Thread Starter
Mitglied seit
24.03.2003
Beiträge
5.091
Ort
Essen
Selektion (von lat. selectio „das Auslesen“), was genau bringt uns das?

Ich lese hier in den Foren immer öfter, dass eine bessere Selektion der Chips wahrscheinlich das OC-Potential verbessern soll.

Nun stellt sich mir aber die Frage, ob solche Aussagen wie "Bessere Selektion = Besseres OC" überhaupt zutreffend sind. Daher habe ich vorhin mal überlegt, was ich zu dem Thema überhaupt weiss und festgestellt, dass es "relativ" wenig ist. Das Problem ist wohl, dass es den meisten hier ebenso geht.

Wir als Endverbraucher wissen in der Regel fast nichts über die Produktionsuasbeute und die Selektionsverfahren der Chiphersteller.

Mir fallen spontan 3 Gründe ein Chips zu selektieren.

1. Selektion auf Leistung ( hohe Mhz )
2. Selektion auf Kompatibilität ( Opterons mit besserem IMC )
3. Selektion auf LowVoltage ( Mobile CPUs oder die EEs von AMD )

Ich beziehe mich nun mal nur auf Punkt 1.

Wir nehmen nun einfach mal 3 Leistungsbereiche und nennen diese A, B und C. Desweiteren stelle ich mir das ungefähr so vor:

Der Hersteller möchte gerne CPUs des Bereichs B haben, produziert Chips, und testet diese auf die Spezifikation des Bereichs B hin. Schaffen die Chips das, werden es B-CPUs, schaffen sie es nicht werden sie eventuell nochmal für die Specs des Bereichs A getestet und werden dann A-CPUs.

Es kann nun aber immer noch vorkommen, dass es im Bereich-B CPUs gibt, die die Specs gerade eben geschafft haben, und welche die eigentlich viel mehr schaffen könnten, aber halt nur auf die B-Specs getestet wurden. Das eine sind dann "OC-Krücken" und die anderen die "OC-Raketen" ;)

Wenn nun allerdings die Selektion verbessert, verfeinert oder verdingst wird, werden die Chips die für den Bereich-B gedacht sind auch auf die C-Specs hin getestet und aussortiert. Denn bessere Chips kann man ja teurer verkaufen.


Und nun nach weiteren 10 Minuten des Grübelns habe ich mich entschieden erst mal auf Aussagen von Usern zu warten die sich in dem Thema besser auskennen.

Die einzige konkrete Aussage die ich im Moment machen kann ist:

Je besser die Selektion, desto geringer die Wahrscheinlichkeit, dass man OC-Raketen erwischt, da die guten CPUs aussortiert und höher eingestuft werden.



P.S.: Ich weiss dass mein Posting im Grunde allgemeinbekannte Aussagen beinhaltet, aber ich erhoffe mir von dem Topic detailiertere Aussagen von andern Usern.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Oftmals ist es doch auch so, das der Herstellungsprozess immer weiter optimiert und verfeinert wird. Dadurch steigt die Qualität der Chips.
Nun produziert das Unternehmen fast nur noch B und C Chips.... kann nun aber schlecht Produkt A vom Markt nehmen... also was wird gemacht: Einfach ein B Produkt wird auf A getaktet und verkauft.
Unter diesem Gesichtspunkt stehen die Chancen wieder recht gut, die einer oder andere Rakete zu bekommen.

Hoffe es ist ein neuer Denkansaz für dich ;)
 
Daran habe ich natürlich auch schon gedacht, allerdings wollte ich den Gedanken nicht weiter ausführen, da ich dafür zuwenig über die Produktionsausbeute weiss, als dass ich da eine konkrete Aussage machen könnte.

Aber ich denke man kann allgmein sagen, dass durch die Verbesserung des Herstellungsprozesses bei gleicher Selektion die Wahrscheinlichkeit sinkt "OC-Krücken" zu bekommen.
 
Die Frage, die mir sofort durch den Kopf schoss war:

Geht es Dir um den absolut erreichbaren Takt, oder um die relative Taktsteigerung?

Solltes Du maximalen Takt haben ist es nur logisch, das High End Produkt zu kaufen und zu hoffen, daß da noch ein paar Prozentpunkte Mehrtakt drin sind. Sollte es Dir um die relative Steigerung gehen, dann würde ich eine CPU im Low End Bereich nehmen, da da die Chance auf eine prozentual hohe Steigerung noch am Größten ist.

Allerdings sehe ich das Übertakten grundsätzlich etwas kritisch, da es schlichtweg nicht möglich ist, 100%ig festzustellen, ob eine CPU nach der Übertaktung noch einwandfrei funktioniert.

Ich bin fest davon überzeugt, daß eine Vielzahl übertakteter CPUs "eigentlich" fehlerhaft arbeiten. Meistens merkt das der Übertakter nicht, weil diese Fehler äußerst selten und nur in ganz bestimmten Fällen auftreten.

Bei einem produktiv eingesetzten System (=Geldverdienen) würde ich auf jeden Fall die Finger davon lassen.

Das nur am Rande.

Gruß

Omega
 
@ Omega 2: Mich würde interessieren, ob die Chiphersteller denn 100,00%ig testen können, ob die Chips völlig ohne Fehler laufen... Das ist doch eigentlich genauso unmöglich wie für die Enduser... Außerdem gibt es auch bei angenommenerweise 100%ig korrekt arbeitenden CPU's Fehler auf Hardwarebasis, und zwar durch ionisierende Strahlung. Selten, aber schön statistisch verteilt...

Also mehr über korrekte Testroutinen bzw. die Routinen der Hersteller zu wissen wäre extrem interessant...

Aber ich weiss auch was Omega meint... SuperPI oder Prime testen halt nur gewisse Teile der CPU und gewisse Befehle, und auch wenn Fliesskommaberechnungen ziemlich fehleranfällig sind und daher ein guter Indikator, heisst Primestable nicht fehlerfreie Funktion bei allen Anwendungen, andersrum Windows- und Gamestable erst recht nicht... Aber das ist den meisten OCern wohlbekannt... Deswegen geht auch nichts über selbst testen im Dauerbetrieb mit allen Anwendungen und Games, die man so benutzt, und immer wieder ist es schmerzlich, dass eine OC-Einstellung, die stabil zu laufen schien, bei irgendeinem Game oder irgendeiner Anwendung zum Absturz führt...
 
vllt. meinte Omega, dass es bestimmte Momente im Leben des Prozzi geben wird, wo er Berechnungen machen muss, die durch das Übertakten fehlerbehaftet sind, diese aber für den Enduser selbsrt mit Prime oder Dauertest nicht wirklich sichtbar oder erkennbar sind (nur eine Vermutung, ihr könnt mich gerne korregieren).

Um auf die Testroutinen zurück zu kommen, die CPU-Hersteller denken recht ökonomisch, und wenn sie die Anzahl der Tests auf ein Minimum reduzieren können, so dass der Endverbraucher fast gar nichts merkt, dann bedeutet dass eine Gewinn-maximierung.
 
Also wegen dem "umlabeln" von A nach B... das muss doch vor dem package passieren, wenn die CPU noch nackig ist. Es wird doch eigentlich nur der stabilste Multiplikator ermittelt. Mal so in den Raum werf:

*man könnte das evtl. schon bei niedrigen Frequenzen statistisch hoch rechnen* <-was auch einen gewissen Prozentsatz an Raketen liefert, wenn man die Statistik richtig einsetzt.
 
Zuletzt bearbeitet:
Deine Therorie mit der Selektion ist richtig, allerdings wird im Laufe der Profuktion die Herstellungsverfahren verbessert und es wird wahrscheinlicher das die Anzahl von B-Prozesseren und die daraus gefilterten C-Prozessoren stetig ansteigt. Da aber der Grösste Absatz mit A Prozessoren gemacht wird, werden B & C Prozessoren auch runtergelabelt und als A Prozessoren verkauft.

Bestes Beispiel der legendäre DLTC JIUHB 1700+ (s. Sig ;) )
 
@ Omega 2: Mich würde interessieren, ob die Chiphersteller denn 100,00%ig testen können, ob die Chips völlig ohne Fehler laufen... Das ist doch eigentlich genauso unmöglich wie für die Enduser... Außerdem gibt es auch bei angenommenerweise 100%ig korrekt arbeitenden CPU's Fehler auf Hardwarebasis, und zwar durch ionisierende Strahlung. Selten, aber schön statistisch verteilt...

Ich bin kein Fachmann aber was ich weiß ist, daß es neben der reinen Funktionsüberprüfung in bezug auf korrektes "rechnen" eine Menge and Tests gibt, in denen die Signale untersucht werden. Flankenanstiege, Signalstärken, Timings etc. Alles Dinge, die nicht direkt mit dem Rechnen in Verbindung stehen aber z.B: die Kommunikation des Prozessors mit der Peripherie sicherstellen. Wenn z.B. Signale bei höheren Takten unsauber werden muß das nicht zwangsläufig ein Fehler sein, aber solche Prozessoren werden dann runtergelabelt, weil es in Kombination mit bestimmter HW eben doch Probleme gibt.

Ein Proz sollte mit jeder HW funktionieren und da gibt es Toleranzen, die einzuhalten sind.

Und nochmal die Frage, geht es um den höchsten zu erreichenden Takt oder um die höchste zu erreichende Takterhöhung, bezogen auf den Ausgangstakt einer CPU?

Gruß

Omega
Also mehr über korrekte Testroutinen bzw. die Routinen der Hersteller zu wissen wäre extrem interessant...

Aber ich weiss auch was Omega meint... SuperPI oder Prime testen halt nur gewisse Teile der CPU und gewisse Befehle, und auch wenn Fliesskommaberechnungen ziemlich fehleranfällig sind und daher ein guter Indikator, heisst Primestable nicht fehlerfreie Funktion bei allen Anwendungen, andersrum Windows- und Gamestable erst recht nicht... Aber das ist den meisten OCern wohlbekannt... Deswegen geht auch nichts über selbst testen im Dauerbetrieb mit allen Anwendungen und Games, die man so benutzt, und immer wieder ist es schmerzlich, dass eine OC-Einstellung, die stabil zu laufen schien, bei irgendeinem Game oder irgendeiner Anwendung zum Absturz führt...[/QUOTE]
 
Vielleicht kauft der geneigte Overclocker deswegen auch die teuren Mainboards, weil die mit den "Fehlern" die ein Prozessor vielleicht bei hohen Taktraten entwickelt, ausbügeln oder sogar dezimieren kann. :drool:
 
Und nochmal die Frage, geht es um den höchsten zu erreichenden Takt oder um die höchste zu erreichende Takterhöhung, bezogen auf den Ausgangstakt einer CPU?
Weder noch ... oder aber auch beides :d

Möchte das Thema eigentlich erst mal recht allgemein halten um mehr über die Selektion usw. zu in Erfahrung zu bringen.
 
Afaik dreht es sich nicht primär um die Taktfrequenz bei der Selektion.

Zumal, wie schon erwähnt, der HTT mit 200MHz schon immer gleich ist, da geht es ja nur mehr um den Multiplikator (während OCer ja immer den HTT in die Höhe stellen)

Das problematischte ist derzeit jedoch die Herstellung des L2 Caches, der macht die CPU's teilweise auch so teuer. Bei deer Produktion werden defekte L2 Cache Teile einfach deaktiviert. Ein nicht unbedeutender Prozentsatz der hergestellten CPU's muss sogar komplett neu gemacht werden.

Bei AMD sieht das in der Regel dann so aus:
Chip wird produziert, hat er 1024KB wirds ein Opteron, bei 512KB ein Athlon, bei 256KB oder 128KB ein Sempron.

Der Denkansatz von loopy83 ist auch richtig, die billigen CPU's werden oft häufiger gekaut als die teuren, da aber die Taktfrequenz vor allem in niedrigen Gebieten kein allzu großes Problem mehr darstellt, werden auch viele einfach runtergetaktet.

so far
mfg
 
Zuletzt bearbeitet:
Teile werden selektiert, um die höherwertigen teurer und die minderwertigeren billiger verkaufen zu können.
 
Ich bin kein Fachmann aber was ich weiß ist, daß es neben der reinen Funktionsüberprüfung in bezug auf korrektes "rechnen" eine Menge and Tests gibt, in denen die Signale untersucht werden. Flankenanstiege, Signalstärken, Timings etc. Alles Dinge, die nicht direkt mit dem Rechnen in Verbindung stehen aber z.B: die Kommunikation des Prozessors mit der Peripherie sicherstellen. Wenn z.B. Signale bei höheren Takten unsauber werden muß das nicht zwangsläufig ein Fehler sein, aber solche Prozessoren werden dann runtergelabelt, weil es in Kombination mit bestimmter HW eben doch Probleme gibt.

Macht Sinn...
 
Normalerweise wird bei Intel und AMD nach folgendem Prinzip selektiert: Welche max. Frequenz schafft die CPU fehlerfrei bei einer festgelegten max. Spannung.

Bei der Selektion der LV-Versionen wird halt die max. Voltage heruntergefahren....
 
also bei Intel ist es so, das sie im Server Bereich ( Xeon ) sehr stark selektieren, und das von den CPUs aus 10 Wafern der Beste in Raumfart oder Militärische verwendung abgegeben wird !
möchte dann aber nicht wissen was so ein "fehlerfreier" Prozzi kostet. Jedenfalls werden die Testmethoden so gewählt bzw. aufgestellt und durchlaufen, dass am Ende noch für Intel oder AMD genügend Gewinn übrig bleibt. Wenn die Prozzessor-Hersteller darauf aus wären die besten Prozzessoren zu produzieren, dann wären ihre Produkte fast unbezahlbar ........
 
das stimmt nur teilweise oder wie erklärst du dir, dass niedrige modelle sich sehr hoch takten lassen.

Takt ist heutzutage eh nicht alles und die Firmen legen auch nicht wert auf die Taktung, sondern auf die geschätzte Lebenserwartung, die Materialqualität und einiges mehr, das uns normalen Leuten verschlossen bleibt.

Ich kenne jemanden, der bei ner CPU-Schmiede lange Zeit gearbeitet hat (Wafer-Technik wenn ich mich nicht irre) - ich werde den mal fragen...
 
^^ Das wäre mal ne Maßnahme. An "Insiderwissen" kommt man ja leider relativ schwer :(
 
Takt ist heutzutage eh nicht alles und die Firmen legen auch nicht wert auf die Taktung, sondern auf die geschätzte Lebenserwartung, die Materialqualität und einiges mehr, das uns normalen Leuten verschlossen bleibt.

Ich kenne jemanden, der bei ner CPU-Schmiede lange Zeit gearbeitet hat (Wafer-Technik wenn ich mich nicht irre) - ich werde den mal fragen...

hät nicht gedacht, dass es da so gravierende unterschiede gibt, was die lebenserwartung angeht. doch wenn es welche geben soll die dann 10 jahre länger halten als der durchschnitt ist das schon was besonderes.
 
sieht doch so aus, das die Prozessoren pins besitzen die im normalen Betrieb nicht benutzt werden, über die der Chiphersteller aber wie bei einen Rom nach dem Herstellungsprozess Daten einspeichert.

auch wird der Cache meistens görßer produziert als er im Endeffekt groß ist

also bis zu 5% größer, so kann man defekte Teile abschalten und diesen reserve Speicher nutzen

die kosten für 5% mehr cache sind es wert, da sonst bei Ausfall des Caches viel mehr deaktiviert wird und der Wertverlust höher wäre
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh