nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Also das hat NVidia noch nie so gemacht, dass es vom Start weg Midrange Karten gab - von daher wird die langsamste Karte im unteren High End angesiedelt sein -> "GTX 360" !

SInd doch schon beschnitten, mehr hab ich ja auch nicht geschrieben. Der jetzige 260er ist auch eine abgespeckte Version der 280/285er.

Ergo, schmalere Anbindung, weniger Einheiten wo auch immer = höhere Ausbeute. Klar liegt sie dann nicht bei 100%, aber sie sollte doch wesentlich höher sein als wenn man nur auf das Top-Modell setzt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ne er meint eher, das es durchaus auch Aufgaben gibt, wo einfach pure Rechenpower gebraucht wird, sprich da werden die ALUs einmal mit Daten gefüttern und rechnen sich dann dumm und dämlich ohne nochmal auf große Datenmengen aus dem Speicher zugreifen zu müssen.
In Games sieht das aber eher anders aus, da wird schon allein durch die Texturen und deren Größe massiv Bandbreite beansprucht.

Es kommt halt immer auf die Rechenaufgabe an, welche beweltigt werden muss, pauschal kann man da also keine Aussage treffen.
Für Games darf die Bandbreite aber wie angesprochen dennoch nicht zu langsam sein, sonst entsteht künstlich ein Flaschenhals, der die FPS begrenzt...

Alles klar :d Ich bezog das jetzt primär auf Spiele wo auch wirklich die Bandbreite benötigt wird, aber das Thema GPGPU sollte man auch nicht unterschätzen.

Wo ich gerade ein bisschen weiter denke in puncto Bandbreite und Speicher: es wäre interessant zu wissen, wie sich die jetzigen ALUs unter anderen Bedingungen verhalten. Wenn man die ALUs bzw. die GPU anders aufteilt und einer bestimmten Anzahl an Clusters einen Art L2 und L3 Cache spendiert wie in der CPU, dann sind die Latenzen dort wesentlich niedriger. Das hätte nur den Nachteil, dass wieder eine intelligente Verwaltung her muss, die bestimmt, was nun in den L2/L3 kommt, was in den eigentlichen VRAM, und was wo wieder doppelt oder nur einfach an Daten vorliegt. Auch die Synchronisation der einzelnen Cluster untereinander wäre ein Problem...

@Topic: falls es mit der A2 Rev. von dem G300 Topmodell nicht klappen sollte und es immer noch ein paar Probleme gibt die nVidia so nicht beheben kann, wird es wohl darauf hinaus laufen, dass zuerst die kleineren Modelle an den Start müssen. Bisher kam das natürlich nicht vor, aber das würde sich auch nicht wirklich positiv auf den Umsatz auswirken. Von daher kann man schon ausgehen, dass nVidia bestrebt ist mit einem entsprechenden Produkt zu kontern nachdem ATi/AMD ihre Karten auf den Markt gebracht hat.
 
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7452276&postcount=1367

Laut Tweakers sind die GT300 Yield bei astronomisch geringen 0,39% und auf 3 ganzen Wafern soll nur ein funktionsfähiger Chips sein!

Klingt zwar logisch wenn schon der kleine RV740 Probleme hatte, aber sowas hätte ich nicht erwartet. Wenn das stimmt braucht es bestimmt noch 6-8 Monate.

Mehr als ein Gerücht das in einem anderen Forum auftauchte ist das auch nicht.

6-8 Monate muss das auch nicht dauern, da Fehler in verschiedenen Prozeduren der Herstellung auftreten können und man durch ausmerzen eines Fehlers die Rate signifikant steigern könnte.
 
Ich kann mir beim besten Willen nicht vorstellen, dass die Yield Rate so dermaßen niedrig ist :eek: Das wäre echt zu heftig!
Aber wenn nVidia tatsächlich nochmal was am Chip ändern muss, auch wenn es nur Feinheiten sind, haben sie so die Chance noch etwas Feintuning zu betreiben bzw. die eine oder andere Baustelle weitestgehend ad acta zu legen.
 
SInd doch schon beschnitten, mehr hab ich ja auch nicht geschrieben. Der jetzige 260er ist auch eine abgespeckte Version der 280/285er.

Ergo, schmalere Anbindung, weniger Einheiten wo auch immer = höhere Ausbeute. Klar liegt sie dann nicht bei 100%, aber sie sollte doch wesentlich höher sein als wenn man nur auf das Top-Modell setzt.

Ja, ein wenig beschnitten schon, aber ich hab mich bei Midrange eher auf nun ja Modelle wie "GTS 350" bezogen, also G92b Nachfolger auf G300 Architektur basierend.


Die TSMC 40nm Yield-Rate liegt nun allgemein bei ~ 60% ! :)
Sie erwarten noch in Q03/09 bis zu 30000 300mm Wafer in 40nm.

http://www.computerbase.de/news/hardware/grafikkarten/2009/august/40-nm-yields_tsmc_60_prozent/

Diese Entwicklung kommt sicher auch dem G300 sehr zu gute.
 
Abgesehen davon, dass 45nm nicht gleich 40nm ist und bei Intel und AMD leicht andere Verfahren verwendet werden, wie schaut da die Yield Rate aus? Weiß irgendjemand etwas genaueres dazu?
 
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7452276&postcount=1367

Laut Tweakers sind die GT300 Yield bei astronomisch geringen 0,39% und auf 3 ganzen Wafern soll nur ein funktionsfähiger Chips sein!

Klingt zwar logisch wenn schon der kleine RV740 Probleme hatte, aber sowas hätte ich nicht erwartet. Wenn das stimmt braucht es bestimmt noch 6-8 Monate.

OhOh, das ist heftig...
Ich hoffe doch stark, das sich ein derartiger Trend in Sachen Herstellungsprozessproblemen nicht derart weiter fortsetzt...

Alles klar :d Ich bezog das jetzt primär auf Spiele wo auch wirklich die Bandbreite benötigt wird, aber das Thema GPGPU sollte man auch nicht unterschätzen.

Wo ich gerade ein bisschen weiter denke in puncto Bandbreite und Speicher: es wäre interessant zu wissen, wie sich die jetzigen ALUs unter anderen Bedingungen verhalten. Wenn man die ALUs bzw. die GPU anders aufteilt und einer bestimmten Anzahl an Clusters einen Art L2 und L3 Cache spendiert wie in der CPU, dann sind die Latenzen dort wesentlich niedriger. Das hätte nur den Nachteil, dass wieder eine intelligente Verwaltung her muss, die bestimmt, was nun in den L2/L3 kommt, was in den eigentlichen VRAM, und was wo wieder doppelt oder nur einfach an Daten vorliegt. Auch die Synchronisation der einzelnen Cluster untereinander wäre ein Problem...

Cache hast du an einigen Stellen doch schon in den GPUs, schau dich dazu mal in den Technik-Reviews auf bekannten Seiten um, da wird derartiges idR recht gut erklärt.
 
Das ist mir klar, dass in der GPU stellenweise Cache vorhanden ist :fresse: Nur ist der Aufbau etwas anders als in einer herkömmlichen CPU bzw. wie in meinem Beispiel ;)
 
Also 0,39% Yield Rate kann ich mir beim besten Willen net vorstellen, auch nicht beim komplexen G300.

Das mag vielleicht bei den ersten Versuchen mit der Revision A1 so gewesen sein, aber nicht mit der nun abgeschlossenen A2.

Vor allem auch nicht, wenn TSMC die allgemeine Yield Rate um den Faktor 3 verbessert hat. Von ~ 20% auf ~ 60% !
 
Zuletzt bearbeitet:
hoffentlich kommt der gt300 bald, dann werden die alten karten bestimmt ganz schoen im preis fallen
 
Vor allem auch nicht, wenn TSMC die allgemeine Yield Rate um den Faktor 3 verbessert hat. Von ~ 20% auf ~ 60% !
Nun ja, an so allgemeinen Angaben lässt sich relativ wenig ableiten. Die Yields sind von Design zu Design anders. Aber ein funktionsfähiger G300 Chip bei 3 Wafern hört sich in der Tat unwirklich gering an.
 
TSMC hat auch nicht die allgemeinen Yield Raten verbessert, da es keine allg. Yield Raten gibt.

Jeder Chip hat unterschiedliche Yields und wenn der winzige RV740 bis vor kurzem noch unter 20% lag ist es nicht so unwahrscheinlich, dass der Monster GT300 bei unter 1% liegt. Zumal die wirkliche Produktion des GT300 ja noch nicht läuft, das sind alles noch Testsamples.
 
Nun ja, an so allgemeinen Angaben lässt sich relativ wenig ableiten. Die Yields sind von Design zu Design anders. Aber ein funktionsfähiger G300 Chip bei 3 Wafern hört sich in der Tat unwirklich gering an.
Jo, aber wenn der G300 "unwirklich" groß ist ...
Hoffentlich gibts wenigstens noch ein paar teildefekte GPUs, die funktionieren. Ansonsten hätte nV fast keine Chips zum debuggen ... oder halt verdammt teuere Debug boards (z.B.:30 Wafer für 10 Karten ) ..

ciao

Alex
 
TSMC hat auch nicht die allgemeinen Yield Raten verbessert, da es keine allg. Yield Raten gibt.

Jeder Chip hat unterschiedliche Yields und wenn der winzige RV740 bis vor kurzem noch unter 20% lag ist es nicht so unwahrscheinlich, dass der Monster GT300 bei unter 1% liegt. Zumal die wirkliche Produktion des GT300 ja noch nicht läuft, das sind alles noch Testsamples.

Ist mir schon klar, die 60% werden wohl für ATIs GPUs, die eine DIE - Fläche von unter 200mm² haben gelten.

Es stand halt in der News recht allgemein da. Zumindest sollte die Ausbeute bei NV damit auch etwa 3 x so hoch sein wie vorher, vor allem, wenn man die Testsamples in der 2. Revision fertigt.

---------- Beitrag hinzugefügt um 17:34 ---------- Vorheriger Beitrag war um 17:30 ----------

Scheint letztendlich wohl ähnlich gross zu werden wie GT200(b).

Das stimmt wohl - der GT200b hat ja 470mm² und so knapp unter 500 mm² sollen es wohl beim G300 sein.
 
Also 0,39% Yield Rate kann ich mir beim besten Willen net vorstellen, auch nicht beim komplexen G300.

Das mag vielleicht bei den ersten Versuchen mit der Revision A1 so gewesen sein, aber nicht mit der nun abgeschlossenen A2.

Vor allem auch nicht, wenn TSMC die allgemeine Yield Rate um den Faktor 3 verbessert hat. Von ~ 20% auf ~ 60% !

Das wäre echt Hardcore, weil ich will ne nue Karte, aber wenn das stimmt, wirds wohl ne HD5xxx:hmm:
 
Das stimmt wohl - der GT200b hat ja 470mm² und so knapp unter 500 mm² sollen es wohl beim G300 sein.

Wenn man mal von der Die-Fläche auf die ungefähre Transistorzahl umrechnet und an ihnen die Leistung fest macht, also:

500mm²*55/40=687,5mm²

Also 687,5mm² zu 470mm² der GT200b (der GT200 war mit 576mm² dann immernoch ne Ecke größer als der G(T)300 es in 40nm sein wird, sofern die Angaben sich bewahrheiten).

Damit hätte der Chip 1,46 mal so viele Transistoren wie der GT200b, also 46% mehr. Mit einer Effizienzsteigerung und abzüglich der nie umsetzbaren Mehrleistung 1:1 sollten wohl gut 50% mehr Performance rauskommen als bei der GTX 285, allerdings erstmal unabhängig von den Taktraten oder den Auswirkungen eines evtl wesentlich breiteren Speicherinterfaces.
 
Vielleicht ist er ja doch größer als 500mm² - die Gerüchtequelle redet nämlich von ~ 2,4 Mrd. Transistoren beim G300 (+ 71,4% gegenüber GT200(b)).

55:40 = 1,375

470 x 1,714 = 805,58 mm² (bei 55nm)

805,58 : 1,375 = 585,87 mm²


Wenn das mit den 2,4 Mrd. Transistoren stimmen sollte, wäre er trotz 40nm Fertigungsprozess etwas größer als der GT200 in 65nm (576mm²) !

Wären dann grob geschätzt in etwa 80% mehr Rechenkraft als bei der GTX 285 - ebenfalls ohne Miteinbeziehung der Taktraten
und des wohl gleich großen 512 Bit SIs kombiniert mit GDDR5 statt GDDR3.


Natürlich ist diese Rechnung auch eine Spekulation, denn 40nm ist ja nur die kleinste verbaute Größe, es gibt ja etwa auch noch deutlich größere ICs -
das muss bedacht werden !


------------------

Wenn das mit unter 500mm² stimmen sollte - ich meine 496 mm² gelesen zu haben, dann säh das so aus:

496 x 1,375 (55/40) = 682 mm² (bei 55nm)

682 : 470 = 1,451

1,4 Mrd x 1,451 = 2,0314 Mrd. Transistoren bei ~ 496 mm² DIE Size.


Wären also ganz grob gesagt 2,0314 Mrd. Transistoren beim G300, wenn das mit den 496mm² stimmen sollte.


Nun denn - lassen wir uns überraschen, ob er nun knapp unter 500mm² oder unter 600mm² DIE Size haben wird.
 
Zuletzt bearbeitet:
Ich hoffe nur das nVidia nicht solche Probs kriegt wie am Anfang mit dem GT200. So ein Monsterchip dürfte von der Ausbeute deutlich hinter den neuen ATI's liegen...
 
Genau dieses Problem scheint sich zu wiederholen, aufgrund der höheren Kompelxität aber leider in einem noch drastischeren Ausmaß.

Nun ja - zumindest für einen Paperlaunch im Oktober / November sollten aber genug GPUs fertig gestellt werden - hoff ich mal.
 
Genau dieses Problem scheint sich zu wiederholen, aufgrund der höheren Kompelxität aber leider in einem noch drastischeren Ausmaß.

Nun ja - zumindest für einen Paperlaunch im Oktober / November sollten aber genug GPUs fertig gestellt werden - hoff ich mal.

Davon haben die Endkunden nicht viel, ich erinner mich noch wie schwer es war ne 6800Ultra oder X800XT PE zu bekommen. Aber ATI wirds sicher freuen. Aber nVidia ist ja selbst Schuld wenn sie nicht dazulernen wollen...
 
Nun ja, indirekt schon - die meisten wollen ja erstmal Tests lesen, um zu vergleichen, wer den besseren Job gemacht hat.

Schneidet der G300 also deutlich besser ab, so werden viele Enthusiasten notfalls bis Anfang 2010 mit dem Kauf warten.

Da wir hier im Luxx sind, werden viele erstmal die ATIs holen und dann später auf NV umsteigen. :fresse:
 
mich interessiert eher das Plus von ner 4er X2 auf die GT380. Auch wenn ATI minimal besser werden sollte was die FPS in Benches anbelangt bin ich mir sicher zu nVidia zu wechseln ;)
 
Nun ja, indirekt schon - die meisten wollen ja erstmal Tests lesen, um zu vergleichen, wer den besseren Job gemacht hat.

Schneidet der G300 also deutlich besser ab, so werden viele Enthusiasten notfalls bis Anfang 2010 mit dem Kauf warten.

Da wir hier im Luxx sind, werden viele erstmal die ATIs holen und dann später auf NV umsteigen. :fresse:

Also wenn die Releases(ob paper oder beim händler) von GT300 und den neuen ATIs nachgewiesen mehr als 3 Monate auseinanderliegen, dann werden viele schon zu den ATIs greifen, egal welche Leistung vom GT300 zu erwarten ist.(wird schon nicht doppelt so schnell sein wie das top ati modell)

Aus dem einfachen Grund, weil man den GT300 ggf. nicht mehr als direkten Konkurenten seiner Karte sehen muss sondern viel mehr das überarbeitete Release der 5000er, was wohl bei einem Lunch Okt 09 auch irgendwann um Ostern oder so kommen wird.

Wenn der GT300 wirklich so groß ist wie vermutet, dann wird NV auf jedenfall Lieferprobleme bekommen und ihnen entgehen Kunden ohne Ende. Finanziellen Verlust wohl eher nicht so, weil Sie schließlich vertraglich mit TSMC arbeiten.
Gruß
 
Nun ja, indirekt schon - die meisten wollen ja erstmal Tests lesen, um zu vergleichen, wer den besseren Job gemacht hat.

Schneidet der G300 also deutlich besser ab, so werden viele Enthusiasten notfalls bis Anfang 2010 mit dem Kauf warten.

Da wir hier im Luxx sind, werden viele erstmal die ATIs holen und dann später auf NV umsteigen. :fresse:

Wobei ich nicht denke das der GT300 dem RV870 astronomisch überlegen sein wird. Ich will wieder nen Zweikampf wie zu 6800Ultra vs. X800XT PE Zeiten:bigok:
 
wenn die Preise nicht so extrem sind wie damals wäre ich auch dafür.
Die 6800Ultra hat bei release weit über 700 gekostet....und jetzt rechnet nicht durch 2 :motz::)
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh