Sehr hier keine schmutzige Wäsche.
Nur ein paar Leute die sich zwar beruflich mit Hardware beschäftigen aber für klüger als eine ganze Entwicklungsabteilung halten. Ganz unabhängig ob diese nun bei Intel, Nvidia, AMD oder sonstwo sitzt.
Na ja.... Die Geschichte der Hardware ist ja nun nicht gerade arm an Beispielen, wo sich die Entwickler, die du so hochstellst, massiv vergaloppiert haben. Ob auf Anweisung von oben oder weil sie sich schlicht geirrt haben, sei mal dahingestellt.
Legendär ist ja die Netburst-Geschichte von Intel (Pentium IV), als man glaubte, mit immer höheren Taktraten (es wurden schon 10GHz-CPUs herbeiphantasiert) die Leistung praktisch unbegrenzt steigen zu können. Zeitgleich zeigte AMD, daß man mit einer Steigerung der Effizienz (IPC) und schließlich Mehrkern-CPUs wesentlich besser voran kam, und dabei keine kleinen Heizkraftwerke in die Buden stellen mußte, für die Intel schließlich sogar ein eigenes Gehäuseformat (BTX) brachte, weil sich die Hitze nicht mehr gescheit wegkühlen ließ.
Hätte Intel damals nicht die zweite Entwicklungsabteilung in Israel gehabt, die die "veraltete" Technik des Pentium III weiterentwickelten, woraus am Ende die "Core"-Architektur entstand, wären die möglicherweise damals sang- und klanglos untergegangen.
Aber hat Intel daraus gelernt? Mit Nehalem brachte man schon einige Jahre später wieder eine CPU-Serie heraus, die massiv mehr an Strom verbrauchte, als erwartet, was man mit einem Abzweigen von Strom aus den 3,3/5V-Schienen zu kaschieren versuchte. Die Tester wunderten sich aber, warum die CPU bereits deutlich vor dem Erreichen der TDP (gemessen am 12V-Anschluß) throttlete, und kamen Intel so auf die Schliche. Später "interpretierte Intel die TDP neu", als "Watt bei einer definierten theoretischen Leistung zum Basistakt", und machte diese einst wichtige Bezugsgröße für die Kühlerkonstruktion zur Farce. Und das nur, um werbewirksam mit kleinen Wattzahlen zu punkten, die in der Praxis ständig gerissen wurden. Und was man aktuell mit den K/KS-CPUs veranstaltet, spottet ja jeder Beschreibung! Da werden bis zu 400 Watt verbraten, um ein paar hundert MHz mehr auf zwei Kernen zu generieren. Und daß die CPUs unter dieser extremen Belastung leiden, und deshalb "degenerieren" ist ja nun nicht so unwahrscheinlich.
Soll man sowas als informierter Laie jetzt nicht mehr kritisieren dürfen, nur weil man kein "heiliger Entwickler" ist?