nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Ich denk mal am wirtschaftlichsten wäre es für NV die GT200b Karten zu shrinken und als Einsteiger Karten im 300er Lineup weiter zu verkaufen.

Wenn man die Architekturgröße jetzt 1:1 umrechnen könnte, hätten "GT200c" Karten in 40nm nur noch ~ 52% der DIE - Size vom GT200b in 55nm (etwa 250 mm² statt 470 mm²).

Das würde zumindest beim OEM Markt wirtschaftlich sein - aber für bessere Werbezwecke sollte die GPU auch insofern aufgebohrt werden, dass sie DX11 beherrscht
("Weltneuheit - super schnelle DX11 Karte !" :fresse: - wie beim Namenswechsel um den G92 auf G(T/S) 100/200 der Fall.)

Man könnte dann ebenfalls noch günstig die GDDR3 Restbestände verwerten - sofern der neue Speichercontroller dann GDDR5 und GDDR3 beherrscht !





Haste schön gemacht ! :)

Ich denk mal V2 wär wirtschaftlicher, also das wahrscheinlichere Szenario - die Leistungsunterschiede zwischen den Karten wären auch spürbar.
Andererseits wäre es für NV wie du auch schon erwähntest teuer, wenn man nur den großen G300 produziert und bei Defekten einzelne Shader - Cluster teilaktiviert.

Hier wäre ein auf DX 11 aufgebohrter "GT200c", wie oben erwähnt, für das Einsteiger - Segment oder untere Midrange deutlich wirtschaftlicher.
Natürlich wäre die Änderung in der Architektur (auf DX11) auch erstmal relativ mühsam und umständlich, aber auf längere Zeit günstiger für NV statt teilweise deaktivere G300 zu verwenden.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich denk mal am wirtschaftlichsten wäre es für NV die GT200b Karten zu shrinken und als Einsteiger Karten im 300er Lineup weiter zu verkaufen.

Wenn man die Architekturgröße jetzt 1:1 umrechnen könnte, hätten "GT200c" Karten in 40nm nur noch ~ 52% der DIE - Size vom GT200b in 55nm (etwa 250 mm² statt 470 mm²).

Das würde zumindest beim OEM Markt wirtschaftlich sein - aber für bessere Werbezwecke sollte die GPU auch insofern aufgebohrt werden, dass sie DX11 beherrscht
("Weltneuheit - super schnelle DX11 Karte !" :fresse: - wie beim Namenswechsel um den G92 auf G(T/S) 100/200 der Fall.)

Man könnte dann ebenfalls noch günstig die GDDR3 Restbestände verwerten - sofern der neue Speichercontroller dann GDDR5 und GDDR3 beherrscht !

Wage ich zu bezweifel weil sich sonst die neuen und alten Modelle performancetechnisch in die Quere kommen würden. Ich denke mal die jetzt bekannten 200er werden verschwinden und die DX10.1 Kartenpalette etwas nach oben erweitert.
 
Die 4 Ableger müssen ja nicht vom G300 kommen, es könnte auch sein, das zwei G300er Karten kommen und man ebenso nen kleinen DX11 Chip gesignt, der im Mittelklassebereich mitmischen soll, bzw. einfach Einheiten gänzlich weg lässt anstatt sie zu deaktiveren ;)
Das ganze wäre dann in meinen Augen immernoch ein Ableger ;)
 
Stimmt - wie damals mit GT212 - 218, die geplant wurden, aber nich auf den Markt gekommen sind (wobei das mit den 40nm Modellen (also nicht die neuen Mobile - Varianten)
für OEM doch wohl der Fall zu sein scheint).

Das wär natürlich optimal - man könnte die ganze DX 11 Palette abdecken und
hätte zudem geringere Produktionskosten und deutlich höhere Yield-Raten
als mit dem großen G300.
 
Zuletzt bearbeitet:
Es wäre schon logisch, weil die momentane Yield Rate beim G300 sehr schlecht aussieht; aber nur um eine GTX380 und 2 andere Ableger auf den Markt zu bringen hat nVidia nicht unmengen an Entwicklungskosten in den G300 investiert?
 
Gut, selbst wenn zum Launch nur die beiden High End Karten (GTX 380 und GTX 360) kommen würden, so würde es kein halbes Jahr dauern, bis kleinere GPUs (also nicht bloß teilweise deaktivierte G300er) entwickelt und auf dem Markt kommen würden.
 
Diese kleineren GPUs müssen ja nicht nur teildeaktivert sein. Falls die Architektur es erlaubt und flexibel genug gestaltet ist, kann nVidia den vorhandenen G300 etwas verändern und somit auf kleinere GPUs anpassen.

Ich kann mir echt nicht vorstellen, dass nach so einer langen Entwicklungszeit nur 2 High-End Ableger gefertigt werden und die Architektur schon wieder umgekrempelt werden muss um kleinere Karten auf den Markt zu bringen. Diese Midrange und Low-End Ableger müssen schon in irgend einer Form auf dem G300 basieren.
 
Die Frage ist immer, wie modular ein Design ist. Da aber selbst beim GT200 bis heute kleinere Ableger fehlen, ist das kein gutes Zeichen. Womöglich muss auch hier der G92 in 40 nm länger durchhalten.
 
Irgendwann wird aber der Abstand zwischen G92 (40nm) und den Midrange bzw. Low-End Karte der Konkurrenz einfach zu groß. Da lohnt es sich nicht mehr Geld in einen Shrink zu investieren.
 
naja taktfrequenz sollte auch gut steigen also gs 92 für low end und gt200 ls schrink mit ca 200 für midrange nur fehlt da dann dx11 also nicht alzu wahrscheinlich aber mal gucken
 
LowEnd und Mittelklasse ohne DX11 wirds wohl nicht geben... Und den G92 oder den G200 auf DX11 aufzubohen, halte ich auch für unwarscheinlich.

Ich denke das läuft hier wohl ähnlich damals beim G80... Da kommen dann irgendwann mal Karten mit DX11. Zuerst werden die Großen kommen bzw. für kleinere Modelle teildeaktivert... und dann Monate später kommen kleine Modelle... So meine Meinung.
 
naja wenn ati so wie es mom aussieht gleich mit der vollen paalette startet und Nv dann erst nochmal deutlich später wo der g300 schon 2-4 monate nach ati kommt, dann hat Nv ein gigantisches problem


den das geschäft wird bei karten unter 100e für oems gemacht und genau die können das schlagwort DX11 am besten gebrauchen
 
Da aber selbst beim GT200 bis heute kleinere Ableger fehlen, ist das kein gutes Zeichen.

Das kann man so nicht ganz sagen (gut, dass bis heute noch keine auf dem Markt sind stimmt schon) -
zumindest auf dem Papier gibt es schon kleine GT200 Ableger - diese sollen wohl ab Oktober in den Handel kommen.

Besser spät als nie ! :fresse:


Die neue GeForce 200M Serie in 40nm + DX10.1

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/juni/geforce_200m-serie_dx_101_40/


Die neuen GeForce Low End - Desktop Karten in 40nm + DX10.1

http://www.computerbase.de/news/har...2009/juni/informationen_geforce_g_210_gt_220/


GT218 in GPU-Z:

http://www.techpowerup.com/img/09-06-30/71a.jpg


Wohl eine 200M:

http://www.techpowerup.com/img/09-06-30/71b.jpg



Wär also gut möglich, dass man hiervon gelernt hat und deutlich schneller kleine G300 Ableger bringt - allerspätestens wird dies imho Sommer 2010 der Fall sein.


naja wenn ati so wie es mom aussieht gleich mit der vollen paalette startet und Nv dann erst nochmal deutlich später wo der g300 schon 2-4 monate nach ati kommt, dann hat Nv ein gigantisches problem


den das geschäft wird bei karten unter 100e für oems gemacht und genau die können das schlagwort DX11 am besten gebrauchen


100% agree !

NV hat im OEM Geschäft bis jetzt immer kräftig verdient, also müssen so schnell wie möglich kleine DX 11 GPUs her - am besten nativ und nicht teildeaktivert.


MfG
Edge
 
Zuletzt bearbeitet:
@Edgecrusher86
Ist ja schön und gut, dass man irgendwann demnächst kleinere Varianten des GT200 auf den Markt bringen möchte. Nur wann würde denn der GT200 gelauncht? Vor über einem Jahr! Gehen wir mal davon aus, dass G300 Anfang nächsten Jahres gelauncht wird, wann sollen denn kleinere Ableger des G300 kommen? Irgendwann 2011?
 
Es mag schon sein, dass nVidia zuerst vorhat den G300 in 2 oder 3 Varianten im High-End Sektor auf den Markt zu bringen (wie damals beim G80). Wenn man mal bedenkt, dass DX11 noch in der Entwicklung ist (ich meine damit nicht, dass die Schnittstelle noch entwickelt werden muss, sondern dass die Spieleentwickler noch nicht damit arbeiten. Das wird noch eine ganze Weile dauern), kann nVidia sich ja etwas mehr Zeit lassen und die DX11 fähigen Karten für den Midrange und Low-End Sektor später (Anfang 2010) launchen. Das wäre natürlich leicht kontraproduktiv in Hinsicht auf den Marktanteil.

Auf der anderen Seite kann es doch nicht sooo dermaßen kompliziert sein, den G300 nun etwas zu modifizieren und paar Einheiten eben gar nicht erst im Silizium zu integrieren?
 
Auf der anderen Seite kann es doch nicht sooo dermaßen kompliziert sein, den G300 nun etwas zu modifizieren und paar Einheiten eben gar nicht erst im Silizium zu integrieren?

Scheinbar nicht, denn beim G200 dauert es ja ne Ewigkeit...
 
Es mag schon sein, dass nVidia zuerst vorhat den G300 in 2 oder 3 Varianten im High-End Sektor auf den Markt zu bringen (wie damals beim G80). Wenn man mal bedenkt, dass DX11 noch in der Entwicklung ist (ich meine damit nicht, dass die Schnittstelle noch entwickelt werden muss, sondern dass die Spieleentwickler noch nicht damit arbeiten. Das wird noch eine ganze Weile dauern), kann nVidia sich ja etwas mehr Zeit lassen und die DX11 fähigen Karten für den Midrange und Low-End Sektor später (Anfang 2010) launchen. Das wäre natürlich leicht kontraproduktiv in Hinsicht auf den Marktanteil.

Auf der anderen Seite kann es doch nicht sooo dermaßen kompliziert sein, den G300 nun etwas zu modifizieren und paar Einheiten eben gar nicht erst im Silizium zu integrieren?


ne zeit lassen können sie sich nit da solche Schlagwörter wie DX11 ( oder eben CUDA usw ) im OEM Bereich sehr wichtig sind wenn nit gar das wichtigste
 
in zukunft eher 2.048MB ddr2 ram ;-) ^^

( GTS 130 ( oder wars 140? ) gibt ja schon manchmal mit 2gb ^^ )
 
@Edgecrusher86
Ist ja schön und gut, dass man irgendwann demnächst kleinere Varianten des GT200 auf den Markt bringen möchte. Nur wann würde denn der GT200 gelauncht? Vor über einem Jahr! Gehen wir mal davon aus, dass G300 Anfang nächsten Jahres gelauncht wird, wann sollen denn kleinere Ableger des G300 kommen? Irgendwann 2011?

Ich denke mal, dass es nV aber auch wichtig war, dass diese gleich im modernsten Fertigungsprozess - 40nm gefertigt werden (wegen Stromverbrauch UND um Erfahrung mit dem Fertigungsprozess im Hinblick auf G300 sammeln zu können), ansonsten hätten sie bestimmt auch schon kleinere Modelle im 55nm Prozess auf der CES im Januar präsentieren können.

Ich bin sicher - spätestens im Sommer 2010 wirds die kleinen Karten geben, eventuell sogar schon in 28nm (dann könnte sich das auf Herbst 2010 verschieben).

Andererseits würden 40nm bei den kleinen Modellen imho wirklich ausreichen. ;)


Da wir eh nur spekulieren können, würd ich sagen: Einfach zurücklehnen und warten ! :cool:



Nun ja, man sieht sich in einer Woche - bin im Urlaub ! :wink:


MfG
Edge
 
Zuletzt bearbeitet:
Dass nVidia zuerst in 40nm herstellen lässt und kurz darauf gleich zu 28nm wechselt kann ich mir schlecht vorstellen. Wie soll das reibungslos klappen wenn TSMC jetzt schon solche Probleme hat?
 
Es scheint so, als ob AMD/Ati und NVidia aufgrund von TSMC etwas länger warten müssen.
NVidia augrund der großen Die-Fläche sogar übertrieben lang.
Können wir dann wenigstens auf ausgereifte Treiber/Biose hoffen?!?
Genug Zeit haben die Entwickler ja.
 
Treiber für Hardware zu entwickeln, die nur im Simulator existiert, ist nicht soo vorteilhaft.
 
glaubst du ernsthaft es gibt noch keinen einzigen rv870 / gt300?!?
natürlich nicht.
schonmmal was von es gehört?!?
nur weil man noch nicht in der Lage ist die GPUs effizient in Massenfertigung herzustellen, heisst das nicht, dass man noch keine einzige hergestellt hat.
 
glaubst du ernsthaft es gibt noch keinen einzigen rv870 / gt300?!?
natürlich nicht.
schonmmal was von es gehört?!?
nur weil man noch nicht in der Lage ist die GPUs effizient in Massenfertigung herzustellen, heisst das nicht, dass man noch keine einzige hergestellt hat.

Das ist nicht zu Ende gedacht. Es macht keinen Sinn, BIOSs/Firmwares auf Basis von Engineering Samples zu entwickeln, von denen man keine Derivate für die Massenproduktion abgreifen kann, denn möglicherweise werden Modifikationen (an der Logik) notwendig, um das zu erreichen, und dann brauchst du wieder entsprechend angepasste Firmwares.

Weiterer, bedeutend wichtigerer Punkt: Viele Unpässlichkeiten des Treibers, die wir als "Unausgereiftheiten" kennen, werden überhaupt erst durch die weite Verbreitung solcher Chips (und Karten) gefunden. Ist die nicht gegeben, dann ist auch das Reifen der Software nicht möglich. Ich weiß nicht, ob du mit der Entwicklung solcher Software vertraut bist, aber die reine Programmierung ist da oftmals das geringere Übel.
 
Zuletzt bearbeitet:
ja meine GT300 müsst morgen kommen :)

ne spass..... ein paar Bilder von dem Monster würde ich schon gernre sehen
 
@Lord...na mal nicht so voreilig...ich denke nicht das er es so meinte.

Ich denke er meint einfach nur, dass man aufgrund des bestehenden Grundgerüstes des Bios noch evtl. Feinheiten erwarten kann wenn sie schon länger an der Karte basteln. Die arbeiten ja nicht nur mit Simulationen^^
Was das Ausreifen von Software angeht...das ist sie nie. Das ist eine Konsumgesellschaft und wenn es zu lange dauert um Problematiken zu beheben werden sie nicht mehr behoben weil es sonst unwirtschaftlich ist. Erst in der nächsten Generation darf man meist auf ein neues Bios hoffen wo ältere Probleme behoben sind.....and so on and so on.
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh