nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Glaubste ja selber nicht, dass sie eine Produktion mit 2% Yield wirklich laufen lassen würden.

Würden sie natürlich nie im Leben.
Wenn die News stimmen sollte, verzögert sich der Launch.

ATI wird wohl dann eine längere Zeit das beste/schnellste Produkt haben.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
sie sind ja so wie ich das verstanden habe auch noch beim debug´en! 6monate plus wirds sicher noch dauern´....
 
Und die Preise würden wohl recht konstant "hoch" bleiben. :heul:

@ hollomen

Ich bilde mir ein der G300 sollte Anfang nächsten Jahres kommen ?
 
Naja, die kriegen es halt nicht hin, eine ordentliche yield rate zu bekommen. Heißt, dass sie mit der Produktion nicht hinterher kommen und die Nachfrage ins unendliche steigt - wenig vorhandene Karten und viel Nachfrage resultieren in extrem hohen Preis.

Das Problem sollte nicht die Nachfrage oder die vorhandenen Karten sein, sondern viel eher, das bei nem Stückpreis von mindestens 15000€ pro Wafer und gerade mal 2% funktionierender GPUs die Produktionskosten pro GPU einfach extrem hoch sein dürften.
Bei ca. 100 GPUs pro Wafer macht das dann 2 lauffähige GPUs, ergo wenn man so will 15000€ durch zwei GPUs, der Rest fliegt weg, oder muss teildeaktiviert werden (aber auch nur dann, wenn sich die unbrauchbaren Teile teildeaktiveren lassen)


@hollomen
der Chip wird riesig, wird soweit die Spekulationen besagen größer als der G200 in 65nm (und der war für NV schon wenig lukrativ, was den Gewinn pro Karte anbelangt)
Aber warten wir es ab, mittlerweile merkt man wohl deutlich, das die NV Strategie (HighEnd um jeden Preis) nicht mehr ganz aufgeht und AMD wohl deutlich bessere Karten hat den Preis zu bestimmen... Zumindest im besagten Marktsegment.
Auch wenn noch nix über die Leistung bekannt ist, ich denke mal stark, NV wird mit den Karten nicht so einen erheblichen Vorsprung hinzaubern können, wie die Karten auf dem Papier versprechen, die AMD Architektur bringt einfach mehr Leistung pro mm² Chipfläche zu stande (so war das ganze zumindest in der letzten Gen. und so wird es sich wohl auch fortsetzen)
 
Die News ist von Charlie, würde ich nicht unbedingt so viel drauf geben. Kann mir auch nur schwer vorstellen das die Yields bei NV so schlecht und bei ATI so gut sein sollen.
 
der auch für den inquire schreibt und bekennender nv hasser ist..lol! dran sein könnte nat. schon was. vielleicht hat er aber auch ne null hinter der zwei unterschlagen;)
 
Roadmap: GT300 Q1/2010

Ergo - abwarten und Tee trinken.

btw. die yield rate der ersten debug samples des nv30 (ok, vielleicht schlechtes omen) lag damals auch unter 5% :>
 
der Chip wird riesig, wird soweit die Spekulationen besagen größer als der G200 in 65nm (und der war für NV schon wenig lukrativ, was den Gewinn pro Karte anbelangt)
Die bisherigen Spekus sagen etwas von 500-550 mm² beim G300. Der G200 in 65 nm lag bei 576 mm². Kann mir irgendwie kaum vorstellen, dass nVidia Richtung 600 mm² oder gar darüber geht. Eventuell verwechselst du das mit Larrabee? Der soll ja noch ein gutes Stück grösser als G300 sein.
 
Die bisherigen Spekus sagen etwas von 500-550 mm² beim G300. Der G200 in 65 nm lag bei 576 mm². Kann mir irgendwie kaum vorstellen, dass nVidia Richtung 600 mm² oder gar darüber geht. Eventuell verwechselst du das mit Larrabee? Der soll ja noch ein gutes Stück grösser als G300 sein.

Ohhh stimmt... hatte da die falschen Zahlen im Kopf
 
das klingt schlecht, ich will wieder high-end single gpu karten für unter 200€
 
das klingt schlecht, ich will wieder high-end single gpu karten für unter 200€

Die alten werden im Preis fallen und bei den neuen wartest du nen halbes Jahr.


Aber mal auf die Aussage von Charly zurück mit den 2%. Erbezieht sich da ja irgendwie auf die ersten 4 Waver:

The first hot lot of GT300s have 104 die candidates per wafer, with four wafers in the pod Nvidia got back a week and a half ago. There is another pod of four due back any day now, and that's it for the hot lots.

How many worked out of the (4 x 104) 416 candidates? Try 7. Yes, Northwood was hopelessly optimistic - Nvidia got only 7 chips back. Let me repeat that, out of 416 tries, it got 7 'good' chips back from the fab. Oh how it must yearn for the low estimate of 20%, talk about botched execution. To save you from having to find a calculator, that is (7 / 416 = .01682), rounded up, 1.7% yield.

Ich kann mir eigendlich nur schwer vorstellen das NV nur 4 Waver produzieren ließ. Die Rate mag bei den ersten Waver gestimmt haben, die News war ja schonmal unterwegs. Allerdings sollte das ganze mittlerweile mit Fehlerbereinigung auf nem anderen Niveau liegen.
 
denke nicht das wird wieder ne gtx260 für unter 200€ sehen ausser sie tretet gegen die 5850 statt 5870 an.

dazu ist mit 40nm Technik + DIE grösse die Kosten einfach zu hoch. 20k$ je waffer bei ca 100 GPUs = nur für die GPU alleine 200$ ohne RAM PCB usw usf und das bei 100% Ausbeute. und da nimmt man bereits 0 R+D kosten ein


Edit. 20k $ nehme ich jetzt einfach mal an da ich schon oft von 15k€ gelesen habe und wenn man den Gt200b ca zurück rechnet müsste das ca stimmen.
 
Zuletzt bearbeitet:
nav ht nach dem vv 38 debakel eigtl immer zuerst den neuen high end chip im alten verfahren gebracht, intel macht dasselbe, einfach weil neuer high end chi und neue fertigung ein extremes risiko ist, nur scheinen sie so stark in zugzwang das sies wieder wagen, obs glückt bleibt abzuwartten..
 
@Neurosphere
Er spricht bei den ersten Wafern von vor 1,5 Wochen. In so kurzer Zeit wird sich an den Yields sicherlich nichts gravierendes ändern. nVidia hat einfach ein massives Problem, sollten die Zahlen stimmen. Aber irgendwie war das fast abzusehen nach den Problemen, die bereits der (Mini) RV740 hatte.

@KlausW
Ein Wafer kostet keine $20k. Man kalkuliert mit etwa $3k-$5k.
 
Ich mein auch mal gelesen zu haben , das die hersteller ATI und NV nicht für alle defekten chips zahlen muss, also das TSMC ein teil übernimmt, da immer paar chips drauf gehen und somit nicht alle kosten auf die Käufer abwälst.
 
@KlausW
Ein Wafer kostet keine $20k. Man kalkuliert mit etwa $3k-$5k.

Kommt mit Sicherheit auf die Abnahmemenge und auch drauf an, was auf den Wafer drauf gebracht wird...

Damals bei Qimonda hies es ca. 10-15k$ Wert pro 300mm Wafer...
Kann im GPU Bereich sicher noch anders sein.
 
in irgendeinem link, der hier gepostet wurde standen wafer preise. lagen, wenn ich mich recht erinere bei 1k$ bis 4k$ oder so, wenn jemand den link nochmal raussuchn mag kann er das gerne tun, ich hab ihn auf die schnelle nicht gefunden
 
Die niedrigen Wafer-Preise die Ihr da nennt gibt es wenn die Serienproduktion angelaufen ist. Für Technologiesamples sind die Preise viel höher.
 
nav ht nach dem vv 38 debakel eigtl immer zuerst den neuen high end chip im alten verfahren gebracht, intel macht dasselbe, einfach weil neuer high end chi und neue fertigung ein extremes risiko ist, nur scheinen sie so stark in zugzwang das sies wieder wagen, obs glückt bleibt abzuwartten..

die größe bekommt man mit 55nm wohl auch kaum noch hergestellt..vom verbrauch etc. mal ganz zu schweigen. wo wären wir dann bei 1000mm²+!?
denke auch das der druck enorm war. ati hat aber auch viel riskiert..aber die hatte ja zumindest einen chip mit 40nm am start. denke ati/amd hat auch etwas mehr knowhow in der fertigungstechnik das sie mit einfließen lassen können.daumendrück!

---------- Beitrag hinzugefügt um 15:31 ---------- Vorheriger Beitrag war um 15:28 ----------

@Neurosphere
Er spricht bei den ersten Wafern von vor 1,5 Wochen. In so kurzer Zeit wird sich an den Yields sicherlich nichts gravierendes ändern. nVidia hat einfach ein massives Problem, sollten die Zahlen stimmen. Aber irgendwie war das fast abzusehen nach den Problemen, die bereits der (Mini) RV740 hatte.

@KlausW
Ein Wafer kostet keine $20k. Man kalkuliert mit etwa $3k-$5k.

ok...weißt du auch wieviel verschnitt man ca. hat!?
... trotzdem jeder weitere entwicklungstagtag verteurert die ganze sache...
 
Hoffentlich beeilt sich nVidia, dann wird die 5870 billiger und ich schlag zu :bigok:
 
ok...weißt du auch wieviel verschnitt man ca. hat!?
Das hängt natürlich von der Grösse und Form des Chips ab. Je kleiner und quadratischer der Chip, desto weniger der Verschnitt. Ich rechne hier immer mit ungefähr 20-25%. Das dürfte wohl auch in etwa auf den G300 zutreffen.

spekulierte Grösse G300 = 500 (550) mm² -> 104 Dies pro Wafer -> 52000 (57200) mm²
~70686 mm² pro Wafer -> 26,4% (19%) Verschnitt
 
ich fasse mal die news zusammen
wir wissen nichts, aber gt300 wird schneller als 5870...
 
Der erste Satz schließt schon den zweiten aus :fresse:
 
komplette neuenwicklung..dann hat die verzögerung ja was gutes..wir können dann mit relativ ausgereiften treibern rechnen:fresse:
 
Wieso machen die dann nicht 45nm? :) Würden die dann wohl einen zu hohen Verbrauch haben?
 
VR-Zone hat die Artikel von Fudzilla und SemiAccurate zu einer News verwurstet:

http://vr-zone.com/articles/-rumour-nvidia-gt300-to-be-faster-than-hd-5870/7671.html?doc=7671

GT300 schneller als 5870, aber sehr schlechte Yields.

Man spricht zwar nicht mehr von 2%, aber von <10%, was immer noch inakzeptabel schlecht wäre. :(

Die <10% werden auch von anderen Quellen wie Kyle Bennet, HardOCP Editor-in-chief bestätigt.

FWIW, I heard very similar information from two other sources recently.
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh