Edgecrusher86
Semiprofi
Ich denk mal am wirtschaftlichsten wäre es für NV die GT200b Karten zu shrinken und als Einsteiger Karten im 300er Lineup weiter zu verkaufen.
Wenn man die Architekturgröße jetzt 1:1 umrechnen könnte, hätten "GT200c" Karten in 40nm nur noch ~ 52% der DIE - Size vom GT200b in 55nm (etwa 250 mm² statt 470 mm²).
Das würde zumindest beim OEM Markt wirtschaftlich sein - aber für bessere Werbezwecke sollte die GPU auch insofern aufgebohrt werden, dass sie DX11 beherrscht
("Weltneuheit - super schnelle DX11 Karte !" - wie beim Namenswechsel um den G92 auf G(T/S) 100/200 der Fall.)
Man könnte dann ebenfalls noch günstig die GDDR3 Restbestände verwerten - sofern der neue Speichercontroller dann GDDR5 und GDDR3 beherrscht !
Haste schön gemacht !
Ich denk mal V2 wär wirtschaftlicher, also das wahrscheinlichere Szenario - die Leistungsunterschiede zwischen den Karten wären auch spürbar.
Andererseits wäre es für NV wie du auch schon erwähntest teuer, wenn man nur den großen G300 produziert und bei Defekten einzelne Shader - Cluster teilaktiviert.
Hier wäre ein auf DX 11 aufgebohrter "GT200c", wie oben erwähnt, für das Einsteiger - Segment oder untere Midrange deutlich wirtschaftlicher.
Natürlich wäre die Änderung in der Architektur (auf DX11) auch erstmal relativ mühsam und umständlich, aber auf längere Zeit günstiger für NV statt teilweise deaktivere G300 zu verwenden.
Wenn man die Architekturgröße jetzt 1:1 umrechnen könnte, hätten "GT200c" Karten in 40nm nur noch ~ 52% der DIE - Size vom GT200b in 55nm (etwa 250 mm² statt 470 mm²).
Das würde zumindest beim OEM Markt wirtschaftlich sein - aber für bessere Werbezwecke sollte die GPU auch insofern aufgebohrt werden, dass sie DX11 beherrscht
("Weltneuheit - super schnelle DX11 Karte !" - wie beim Namenswechsel um den G92 auf G(T/S) 100/200 der Fall.)
Man könnte dann ebenfalls noch günstig die GDDR3 Restbestände verwerten - sofern der neue Speichercontroller dann GDDR5 und GDDR3 beherrscht !
Haste schön gemacht !
Ich denk mal V2 wär wirtschaftlicher, also das wahrscheinlichere Szenario - die Leistungsunterschiede zwischen den Karten wären auch spürbar.
Andererseits wäre es für NV wie du auch schon erwähntest teuer, wenn man nur den großen G300 produziert und bei Defekten einzelne Shader - Cluster teilaktiviert.
Hier wäre ein auf DX 11 aufgebohrter "GT200c", wie oben erwähnt, für das Einsteiger - Segment oder untere Midrange deutlich wirtschaftlicher.
Natürlich wäre die Änderung in der Architektur (auf DX11) auch erstmal relativ mühsam und umständlich, aber auf längere Zeit günstiger für NV statt teilweise deaktivere G300 zu verwenden.
Zuletzt bearbeitet: