Informationen zur momentanen Yield-Rate von Cypress und Fermi durchgesickert, NVIDIA mit Problemen

Redphil

Redakteur
Thread Starter
Mitglied seit
02.12.2004
Beiträge
6.831
Ort
Leipzig
Informationen zur momentanen Yield-Rate von Cypress und Fermi durchgesickert, NVIDIA mit Problemen

<img style="margin: 10px; float: left;" alt="hardwareluxx_news_new" src="images/stories/logos/hardwareluxx_news_new.jpg" height="100" width="100" />
<p>Die Gerüchteküche Fudzilla hat nach eigenen Angaben in Erfahrung bringen können, wie hoch die Yield-Rate (Ausbeute) von AMDs bzw. NVIDIAs Top-Grafikchips Cypress/RV870 bzw. Fermi ist. Von Informanten aus dem Umfeld von TSMC, dem Fertiger beider Grafikkartenunternehmen, kam die Information, dass die Yield-Rate von Cypress entgegen der sonst niedrigeren im Umlauf befindlichen Zahlen nicht (mehr) bei 40 - 50 Prozent liegt, sondern dass bereits eine Ausbeute von 60 - 80 Prozent erreicht wird. Die verbesserte Verfügbarkeit der HD 5800er-Serie (<a...<p><a href="/index.php?option=com_content&view=article&id=14088&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
klingt nicht sonderlich gut... Aber ich würde mich da aktuell nicht verrückt machen lassen.
Einfach abwarten was kommt.
 
Im Verkaufen mit Verlust haben die doch eh schon Übung :fresse:
 
dafür gibts ja dann das umlabeln irgendwann wenn ses im griff haben und die neue generation im kommen ist ^^
 
Klingt nicht so schön, aber ich zitiere mal den letzten Satz:

Jedoch bleibt abzuwarten, was sich von all diesen Gerüchten letztlich bewahrheiten wird.
 
Wenn dem wirklich so ist finde ich es wirklich schade, weil AMD die Konkurrenz fehlt und die wirtschaftliche Lage sich kaum verändern wird -> Was wiederum die Käufer betrifft :fresse
 
ATI wird mir von Tag zu Tag sympatischer...
& ich habe noch nie eine besessen !
 
ATI wird mir von Tag zu Tag sympatischer...
& ich habe noch nie eine besessen !

ATI war mir noch nie unsymphatisch ausser damals die Rage... seid der radeon reihe bauen sie eigentlich immer brauchbare karten bis auf ein paar patzer hier und da die auch nv schon hatte...

aber ich würd mir an deiner stelle trotzdem nicht zu voreilig eine meinung bilden sonst ärgerst du dich nachher noch. so lange ist es ja dann doch nicht mehr bis tachelis geredet werden kann. und ich bin für meinen teil nicht gerade jemand der jeden zweiten monat ein update plant ;)
 
Ich bin echt kurz davor mir um die Ecke eine LCS zu holen, Nvidia steht mir bis zum Hals !
Für evt. 20% mehr Leistung gebe ich doch nicht 60-80% mehr Kohle aus, um dann auch noch die Stromrechnung in die Höhe zu treiben...
Sollte mich doch sehr wundern, wenn sie doch noch alles zum positiven wenden könnten.
 
Ich bin echt kurz davor mir um die Ecke eine LCS zu holen, Nvidia steht mir bis zum Hals !
Für evt. 20% mehr Leistung gebe ich doch nicht 60-80% mehr Kohle aus, um dann auch noch die Stromrechnung in die Höhe zu treiben...
Sollte mich doch sehr wundern, wenn sie doch noch alles zum positiven wenden könnten.

Und waren die angaben aus der luft gegriffen reißt du dir später die haare aus... naja. Schlechte Karten sind se ja nicht, aber die radeons sind mir noch nicht schnell genug um aufzuspringen. wenn fermi wirklich floppt warte ich halt noch eine gen ab, das sich das auch lohnt
 
Wer 'ne Hardwarebombe im Rucksack hat, will auch damit angeben...
Wer nix hat, hält das Maul.
Nvidia hält für mich eher das Maul :kotz:
 
quark amd hat auch nicht damit angegeben, beim G80 hat man auch kaum informationen vorher bekommen *koppschüttel*
 
Das mit dem Unterschied bei der Yield Rate ist ja ganz klar.
Der Fehlerteufel ziehlt mit seinem Datpfeil bei ATI auf Bierdeckel, wogegen NVIDIA gleich die ganze Tischdecke zur Zielscheibe macht.
3.1 Milliarden Transistoren zu 1.5 erhöht die Ausfallrate auf dem Wafer eben exponential.
Das hätten sie aus dem letzten mal bei 55nm lernen können. Da kam das gleich Spiel.
Und die Annahme, dass es dann wieder besser würde, wenn es denn kleinere Strukturen gibt, ist ja wohl ein hahnebüchener Unfug.
 
Wenn das stimmt ist es echt schade.

Und AMD kommt richtg in fahrt , jetzt kommen noch die 5670er und die Notebook karten und NV zeigt nicht mal was.

In der vergangenheit musste NV auch nichts vorher zeigen , aber diesmal wird es echt zeit, ATI ist knap 3 monate mit ihren karten auf dem Markt und viele überlegen jetzt doch ne ATI zu holen.

So news sprechen auch dafür das die ATI sich eher lohnt.

Und NV macht einfach nichts, net mal ein lumpiger benchmark oder irgendetwas direkt von NV was ca. das verhältnis zur letzten Generation angibt.

Echt schade.


Wer jetzt ne karte braucht ist mit ATI gut bedient , wer warten kann , sollt warten , denn auch die preise der ATI werden sich dann mal ändern.

Denk auf der Cebit gibt es mal mehr zu sehen.

Und ATI hat doch auch mit etwas um die 20% angefangen ( nur passten da mehr chips auf eine Wafer)

Naja mal sehen was dann mal kommt
 
Ich gehe davon aus das ATI noch stärker im kommen ist die nächsten Jahre wie NV,und wenn man sich die "News" der letzten Wochen an durchliest steht da nix positives für NV drinnen! die ganzen Spekulationen sehen mehr negativ wie positiv aus und das gibt mir schon zu denken :hmm:
Auf Fermi warten?für mich mit Sicherheit nicht!
 
Zuletzt bearbeitet:
Ich glaub was das Thema angeht gar nichts mehr, keine positiven oder negativen News, solange bis es wirklich mal offizielle Ergebnisse bzw. wenigstens mal die techn. Daten offiziell gibt.

Wär ich eine Gerüchteküche-Seite und es würden einfach keine Infos leaken, dann würd ich auch versuchen die Firma solange mit negativen Rumours zuzuschütten um sie wenigstens zu offiziellen Dementis zu zwingen, aber nicht mal diesen Gefallen tut NV den ganzen Speku-Seiten und das nervt sie. NDA von NV hält.

Abwarten und Tee trinken, mir is es auch völlig egal ob NV mit dem Fermi Geld verdient oder nicht, wenn das P/L-Verhältnis passt wird gekauft, wenn nicht, wart ich halt noch ein wenig und schau mir an wie´s weitergeht oder kauf mir halt doch eine ATI.
Selbst mit einer GTX260 kann man aktuelle Spiele wirklich noch zocken einwandfrei zocken. ;)
 
Nur lausige 20% schneller als eine 5870 und genauso teuer (oder noch teurer) wie eine 5970, auf der zwei 5870-Chips sitzen - da dürften selbst Hardcore-Fans zögern, dafür Geld rauszuwerfen :fresse:

Na wenigstens kann man auf Thermi dann Würstchen grillen - wo\'s draußen doch zu kalt ist zum Grillen, kann man jetzt drinnen im Computer grillen :lol:
 
3.1 Milliarden Transistoren zu 1.5 erhöht die Ausfallrate auf dem Wafer eben exponential.

Nein, quadratisch ;)

Zum Thema: Ich bin es langsam leid, dass es immer dieselben sind, die schon seit Wochen die ewig gleichen Behauptungen im GT300-Thread von sich geben, und das wird hier jetzt genauso weitergehen. Nach wie vor sind das alles nur Gerüchte, die Aussage stammt von Fudzilla, also bitte behandelt die Informationen auch entsprechend! Voreilige Schlüsse ziehen ist da nicht gerade der richtige Ansatz.
 
Nein, quadratisch ;)

Zum Thema: Ich bin es langsam leid, dass es immer dieselben sind, die schon seit Wochen die ewig gleichen Behauptungen im GT300-Thread von sich geben, und das wird hier jetzt genauso weitergehen. Nach wie vor sind das alles nur Gerüchte, die Aussage stammt von Fudzilla, also bitte behandelt die Informationen auch entsprechend! Voreilige Schlüsse ziehen ist da nicht gerade der richtige Ansatz.

Aber eins sollte jedem klar sein, mehr Transistoren bedeutet immer höhere Ausfallrate.
Wie hoch sie nun im Einzelnen tatsächlich ist, dass weiss nur der Wind. :)
 
Aber eins sollte jedem klar sein, mehr Transistoren bedeutet immer höhere Ausfallrate.
Wie hoch sie nun im Einzelnen tatsächlich ist, dass weiss nur der Wind. :)

Die Fehlerrate hängt eigentlich von der Chipfläche ab, nicht von der Transistoranzahl. Sicherlich gibt es da dann noch einen Zusammenhang, aber eigentlich gehts um die Fläche. :)
 
Man was wär das schön wenn hier mal so ein Themenabend stattfinden würde der über das Thema Chipfertigung aufklärt. :rolleyes:
 
Ich kann nur empfehlen, sich mal ein oder zwei Semester Lehrveranstaltungen über Halbleiterbauelemente zu geben ;) Wenn man auf Diffusionslängen, Dotierprofile und Gateoxide steht, wird man da glücklich. Wenn man wie ich kurz vor der Prüfung steht, eher nicht so. :fresse:
 
Für mich ist das ganz logisch dass die Yieldrate bei ATi höher ist als bei NVidia.

ATi produziert seit 7 Monaten RV870er, und hatte zu Anfang auch heftige Yield-probleme.

NVidia hat grade diesen Monat mit der Fermi-Massenfertigung begonnen, laut Aussage des CEOs. So etwas nennt sich "ramp-up". Wer glaubt, dass die Ausbeute jetzt schon konkurrenzfähig ist, hat die Regeln der Großserienproduktion nicht verstanden...

Würde mich nicht wundern, wenn die Gerüchte im Moment stimmen, und würde mich genausowenig wundern, wenn NVidia im März-April auf 40%-50% hoch ist.
 
Für mich ist das ganz logisch dass die Yieldrate bei ATi höher ist als bei NVidia.

ATi produziert seit 7 Monaten RV870er, und hatte zu Anfang auch heftige Yield-probleme.

NVidia hat grade diesen Monat mit der Fermi-Massenfertigung begonnen, laut Aussage des CEOs. So etwas nennt sich "ramp-up". Wer glaubt, dass die Ausbeute jetzt schon konkurrenzfähig ist, hat die Regeln der Großserienproduktion nicht verstanden...

Würde mich nicht wundern, wenn die Gerüchte im Moment stimmen, und würde mich genausowenig wundern, wenn NVidia im März-April auf 40%-50% hoch ist.

Nur verschwindet die Erfahrung, die TSMC mit dem Prozess bisher gemacht hat, nicht wieder im Nirgendwo. Davon müsste der Fermi schon profitieren können. Dass man mit dem größeren Chip schlechter dasteht, lässt sich nicht ändern, aber es gibt nicht für jeden Chip einen "eigenen" Prozess.
 
Die Fehlerrate hängt eigentlich von der Chipfläche ab, nicht von der Transistoranzahl. Sicherlich gibt es da dann noch einen Zusammenhang, aber eigentlich gehts um die Fläche. :)

Um mich mal selbst zu quoten und das noch ein wenig zu verdeutlichen, damit sich nachher keiner aufregt: Für die Halbleiterfertigung gibt es für gewöhnlich pro Prozess (und Wafergröße, aber die meisten Prozesse werden ohnehin nur auf Wafer einer bestimmten Größe angewandt) eine normalisierte Fehlerrate vom Fertiger, die angibt, wieviele Fehler bei maximaler (Bauteil-)Packdichte über den gesamten Wafer im Durchschnitt auftreten. Für gewöhnlich lassen sich die Fehler herstellungsbedingt sogar auf bestimmte Stellen im Wafer eingrenzen, aber das spielt erstmal keine Rolle.
Daraus wird jedenfalls erstmal ersichtlich, warum die Transistoranzahl auf einem Chip nur bedingt eine Rolle spielt; relevant ist die Größe auf dem Substrat (weil größere Chips bei gleicher Fehleranzahl natürlich eine relativ größere Fehlerrate bedingen, was sich wiederum in den Kosten spiegelt).

Soviel nur als kurzer Einschub :)
 
Zuletzt bearbeitet:
Nach wie vor sind das alles nur Gerüchte, die Aussage stammt von Fudzilla, also bitte behandelt die Informationen auch entsprechend! Voreilige Schlüsse ziehen ist da nicht gerade der richtige Ansatz.
Solange nichts konkretes an Infos kommt, muss man halt solche Sachen aus dem Äther ziehen. Ich finde das teilweise sogar recht unterhaltsam. THG hat ja den üblichen Schwachsinn, den sie verbreiten, mittlerweile wieder offline genommen.

Nvidia Fermi Production and Availability

Für einen müden Lacher war es trotzdem gut. So sah das ganze vorher aus:

ntrk84f4.png


Cypress bei 4% Yields und Fermi macht das besser. Entweder unumstössliche F****** oder die pure (In)kompetenz. :haha:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh