Naja die haben eben glück gehabt ihr chip ist kleiner!
Hätte auch anders laufen können...
auf einmal wäre der Fermi besser gelaufen als man erwartet hat und es wäre auf einmal 800core 1600Shader (512shader) drin gewesen@ 200Watt!
Der schuldige für das ganze ist für mich der produzent da der wissen muß was geht und was eben nicht geht!
So einfach ist es ja nun auch wieder nicht. Je komplizierter ein Chip, desto komplizierter auch das Fertigungsverfahren, samt Belichtung usw usw Fermi ist einfach zu kompliziert und zu groß - das ist einzig und allein nvidias Schuld.
Das ATis Chip kleiner ist hat recht wenig mit "Glück" zu tun, sondern viel mehr mit der Erfahrung und den Künsten der Entwickler, sowie einem anderen Konzept als nvidia. So einfach ist das.
Und was soll nvidia machen? Eine 55nm Variante vom Fermi bringen? Damit noch mehr Beschränkungen bzgl des Verbrauchs bestehen? Damit die Chipkosten noch höher werden?
TSMC hat natürlich eine gewisse Mitschuld, aber weder an Leistungsaufnahme noch Abwärme noch Leistung pro Watt / Tranisitor ist TSMC Schuld, sie sind "nur" daran Schuld das sie es nicht gebacken kriegen den 40nm Prozess für solche komplizierten Chips in den Griff zu kriegen. Auch wären keine 200W mit vollen 512 Einheiten zustande gekommen. Das liegt einzig und allein am nvidia Design und nicht am Fertigungsverfahren!
Zudem gibt ja auch andere Sachen die bereits in 40nm produziert werden bei TSMC, ATi und nvidia sind da nicht die einzigen Kunden.
@whippersnapper
Selbst beim Profibereich hat man am Ziel mit dem Fermi vorbeigeschossen. Auch Firmen achten auf ihren Stromverbrauch, sei es nun bei Einzelplatzrechnern, Servern, Renderfarmen, der nötigen Kühlung per Klimaanlage. Selbst wenn man dann mit GGPU irgendwelche Berechnungen schneller hinkriegen würde ist die Leistung pro Watt meistens immer noch das entscheidende Kriterium und nicht immer das absolute Maximum.