Sobald Chipgüte von Menschenhand vermessen wird, wird es unzuverlässig. Foxconn und seine Springnetze vom Tower. Affenjob!
"Handverlesen"
Maschinell sollte es eigentlich keine Streuung geben. Kostet halt Geld. Alles kein Wunder... sorry
Das mag alles korrekt sein. Trotzdem hatte ich bei Foxconn nicht den Eindruck, dass es am Geld lag sondern schlichtweg wirklich an schwankender Qualität.
Saaya hat damals direkt mit Shamino zusammengarbeitet - und der ist ja nun kein Greenhorn (war er auch zu dieser Zeit nicht mehr). Insofern denke ich, steckte in der Aussage schon was wahres drin - wie sie die Chipsätze bezogen haben, was sie dafür bezahlt haben und wie sie getestet/gebinnt haben, um zu dieser Aussage zu kommen, entzieht sich jedoch meiner Kenntnis.
Sollte da jedenfalls was wahres dran sein, dann bezieht sich das sicherlich auf Chipsätze einer Charge (bzw. kurz hintereinander produzierter Chargen). Es ging explizit um den 790i und damit kann nicht eine Veränderung über Produktionsjahre hinweg gemeint gewesen sein.
Ich will eigentlich nur auf den Punkt hinaus: Sollte es tatsächlich innerhalb einer Charge oder zumindest nahe zusammenliegender Chargen wirklich gravierende Qualitätsunterschiede gegeben haben, dann kann ich mir vorstellen, das die auch zu diesem nicht reproduzierbaren Verhalten geführt haben: Der eine Chipsatz reagiert auf mehr VDD, der andere nicht. Der eine Chipsatz reagiert auf Kälte, der andere nicht. Der eine Chipsatz wird extrem warm, der andere nicht. Und zwar unabhängig davon, wann sie auf welches Mainboard-Modell gepflanzt wurden.
NVIDIA ist ja bei Turing auf die Idee gekommen, sich die Chip-Qualitäten unterschiedlich vergüten zu lassen. Bei Ampere deutet sich das gleiche Spiel wieder an. Vielleicht war man damals seitens NVIDIA einfach noch nicht clever genug und hat zwar gewusst, dass die gelieferten Chips unterschiedlich performen, das aber nicht in bare Münze umgewandelt. Herausgekommen ist dann die Chipsatzlotterie für die Mainboard-Hersteller, bei der sie vielleicht am Anfang noch zusätzlichen Aufwand zur Selektion betrieben haben, später aber nicht mehr.
Zum Ende des Lebenszyklus des nForce2 gab es ja schon längst Sockel 940, 754 und 939. Da war es für die Mainboard-Hersteller sicherlich egal, ob sich ein spät produziertes nF2-Board gut übertakten lässt oder nicht. Vielleicht wurde auch aus diesem Grund später kein Binning mehr betrieben. Schafft laut NVIDIA die Specs -> wird verbaut, wo er grad gebraucht wird - ob High-End-OC-Board oder 08/15-OEM-Aufguss war zu dem Zeitpunkt vielleicht egal.
War doch bei den RAMs auch irgendwie ähnlich. Zum Anfang hat sich jeder Mühe gegeben, gute Kits/Bins anzubieten. Ganz zum Ende von DDR1 wurde dann wild kreuz und quer alles verbaut, was bei drei nicht auf den Bäumen war.
Das alles ist natürlich nur eine Vermutung anhand meiner beiden damaligen "Erlebnisse". Kann sein, dass ich damit total schief gewickelt bin, ein Körnchen Wahrheit steckt meiner Meinung nach aber drin.