nVidia GF100/Geforce 4xx [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
Ja genau

VL bekommt die GTX 470 460 Shader und die GTX 480 bekommt 480 Shader.

Weil sie sonst keine Karten hätten die voll Aktivierbar wären, weil der Prozess Probleme macht. Verstehst du wie ich das meine?
Ich entschuldige mich für dieses leichte OT.

Grinse kannst mir ja über PN schreiben damit wir nicht Forggi und den Rest sauer machen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ihr mit eurem "offtopic" zeug
dann schliesst das forum ganz wenn man nichtmehr ueber yieldraten beim fermi im fermi speku thread diskutieren darf :rolleyes:

mirs lieber eine GTX480 mit 480 kernen um 450 euro als ne marginal schnellere GTX480 mit 512 Kernen um 600 euro :fresse:
 
Wir waren leicht im OT da wir über das Technische der Yields geredet haben nicht über die Yields des Fermi an sich.

Egal jetzt
wie gesagt vl kriegen sie nicht alles gebacken die 480 bekommt 480 shader und die 470 noch weniger.
 
mirs lieber eine GTX480 mit 480 kernen um 450 euro als ne marginal schnellere GTX480 mit 512 Kernen um 600 euro :fresse:

Das die Leistung mit 480 leicht geringer ist als mit 512, wäre hierbei gar nicht das Hauptproblem für mich. Wenn sich die 480 Kerne bewahrheiten, so gibt es offensichtlich noch massive Probleme im Design oder der Fertigung. Dann würde ich lieber auf eine bereinigte Version warten, denn wer weiß schon ob diese Probleme nicht auch die möglichen Taktraten etc. negativ beeinflusst haben. Da würde man doch sehr dumm dastehen wenn schon 4 Monate später eine Karte kommt die 40% schneller ist.
 
40% schneller? Warum nicht gleich 200%? Also bitte... nicht gleich übertreiben.
Dadurch würden vielleicht 5-15% mehr rausgeholt werden können, wenn überhaupt.
Der Sprung GTX280 zu 285 sieht man ja was bei rumgekommen ist. Etwa 8% mehr.
 
das leuchtet ja ein, aber das rechtfertigt nicht dieses auch bei der größeren zu machen, da es sonst ja keinen Unterschied gäbe.

In dem von euch verlinkten Artikel in dem davon gesprochen wird, dass die GTX 480 "nur" 480CCs hat, steht aber auch, dass die GTX470 nur 448 besitzt. Also gibt es sehr wohl einen Unterschied von fast 10%.
 
Chezzard schrieb:
VL bekommt die GTX 470 460 Shader und die GTX 480 bekommt 480 Shader.
460 ALUs für die GTX470 ist technisch unmöglich :rolleyes: Du kannst nur SMs abschalten und jeder hat 32 ALUs. Also 512, 480, 448 usw.
 
der aber einen ~100€ + Preisunterschied nicht rechtferdigen würde.

Wenn die nun wirklich nicht mit 512 kommt lohnt es sich nur mit einer 470er Aufzurüsten>für 280er etc. User für Ati Leute mit einer 5000 schon mal garnicht.

Wenn man natürlich einen Langen haben will ...... kommt aber unterm Strich nix bei rum....wäre nur rausgeworfenes Geld da NV mit Sicherheit eine "vollwertige" über kurz oder lang nachschiebt.
 
40% schneller? Warum nicht gleich 200%? Also bitte... nicht gleich übertreiben.
Dadurch würden vielleicht 5-15% mehr rausgeholt werden können, wenn überhaupt.
Der Sprung GTX280 zu 285 sieht man ja was bei rumgekommen ist. Etwa 8% mehr.

Dein Vergleich ist doch komplett am Thema vorbei. Es geht hier darum, dass die GTX480 eventuell produktions oder designbedingt nicht die volle Leistung bringt. Die GTX280 war doch voll funktionsfähig.
 
Ich glaube der eine oder andere hier sollte sich das hier mal durchlesen:

Bericht: Nvidia GF100: Technische Details - 18.01.2010 - ComputerBase

Die Vollausstattung des GF100 besteht aus vier GPCs, die wiederum jeweils aus vier Streaming-Multiprocessors zusammengesetzt sind. Jeder SM kann auf 32 einzelne ALUs zurückgreifen, womit es insgesamt 512 einzelne Shadereinheiten gibt.

Es gibt Shader-Cluster mir 32 Einheiten, davon gibt es 16 Stück, macht also 512 Shader-Einheiten. Funktioniert ein solches Cluster aus was für Gründen auch immer nicht, dann kann es deaktiviert werden. Daher kommen auch die Zahlen 480 (512-32) beim GTX 480 und 448 (512-2*32) beim GTX 470. Eine Karte mit 420 Shader-Einheiten wird es also nicht geben. Vieleicht hat man deswegen die Bezeichnung GTX 480 anstatt GTX 380 gewählt, weil dieser über 480 Shader-Einheiten verfügt ;)

Die Vorgehensweise ist auch verständlich. Da man davon ausgehen musste, dass am Anfang des 40 nm Prozesses nicht alle Cluster zur Verfügung stehen werden, kann man denselben Chip mit unterschiedlichen Shader-Einheiten für zwei Modelle verwenden. Später wenn der Yield dann groß genug ist, dann ist es immer noch billiger, funktionierende Shader-Cluster abzuschalten, als zwei Chips für zwei unterschiedliche Modelle zu konstruieren. Allerdings bin ich mir sicher, dass Nvidia die 512 Einheiten für den GTX 480 geplant hatte. Wieso 1/16 der Leistung deaktivieren, wenn sie einen gegenüber der Konkurrenz noch weiter absetzt. Dafür kann es, falls es dazu kommt, meiner Meinung nach eigentlich nur zwei Gründe geben: Der Stromverbrauch soll reduziert werden oder die Yield-Raten lassen das nicht zu. Die relativ niedrigen Taktraten würden ja für ein mögliches Ultra-Modell noch genug Spielraum lassen für die Zukunft. Die 600-625 MHz, die momentan im Gespräch sind, liegen weit unter den Frequenzen, mit denen der Cypress läuft.
 
Zuletzt bearbeitet:
Dein Vergleich ist doch komplett am Thema vorbei. Es geht hier darum, dass die GTX480 eventuell produktions oder designbedingt nicht die volle Leistung bringt. Die GTX280 war doch voll funktionsfähig.

Und deine Angabe von 40% Mehrleistung resultieren genau aus was? Zu den "normalen" Spekulation von Taktraten usw kommen jetzt auch noch deine Spekulationen dazu. Na wunderbar, wird ja immer besser hier...
 
danke derschlambi für deine Qualifizierte Erläuterung.

so, nun will ich Benches sehen...dauert sicherlich nicht lange bis einer was in´s Netz stellt.
Spätestens am WE wird die F5 Taste wieder durchgehämmert :fresse:
 
derschlambi schrieb:
Da man davon ausgehen musste, dass am Anfang des 40 nm Prozesses nicht alle Cluster zur Verfügung stehen werden [...]
Wieso muss man davon ausgehen? Das ist Unfug.
derschlambi schrieb:
Die 600-625 MHz, die momentan im Gespräch sind, liegen weit unter den Frequenzen, mit denen der Cypress läuft.
Takt alleine sagt nichts aus :rolleyes:

600 MHz Core reichen für eine höhere Pixelfüllrate [da 48 ROPs] als bei der HD5870 und weitaus mehr Tris [da 4 Tris/Clock und nicht nur 1 Tri/Clock]. Die TMUs und die ALUs hängen am Hot-Clock und der ist nicht bekannt - ergo lass das Gefasel, mit welchem du implizierst "wenig Takt = langsam".
 
Ich vermute die totale info sperre seitens NVIDIA liegt mit unter darin das die kommende 480GTX mit kastrierten Shader daher kommt, so ein Theater hatten wir noch nie zu einem neuen Graka Launch das so verklemmt die infos kommen oder nur Häppchen weise. Mir wäre es lieber der User wüsste heute schon was ihn erwartet wenn er ne 480 kaufen wollte, anstelle alles zu verschweigen was alles noch viel schlimmer macht. Kein genialer Zug, den NVIDIA da macht, sie verlassen sich voll drauf das wir die scheisse so fressen wie sie es uns servieren wollen, wenn das mal gut geht ??? :hmm:

mfg
 
Beruhigt euch oder es verschwinden hier gleich einige Posts und ihr habt umsonst auf die Tastatur eingehämmert.
 
Es ist doch ganz normal, dass eine 100% korrekte (schreib das jetzt mal extra so) Herstellung bei den großen Fermi Chips ausgeschlossen werden kann. Yield ist also nicht 100%.

Bei CPUs wird schließlich auch geguckt, welche bei wenig Verbrauch und Hitzeentwicklung möglichst schnell laufen.

Ich denke die guten Fermis werden von EVGA (oder so) gekauft, damit die wieder "spezielle" Karten bauen können. Die "schrottigen" kommen auf die 470. Die besseren kommen auf die 480.

Vielleicht läuft die Herstellung auch so schlecht, dass es nur 5% korrekt gefertigte gibt. Die kommen dann bestimmt noch mal extra auf den Markt...
 
Zitat von derschlambi
Da man davon ausgehen musste, dass am Anfang des 40 nm Prozesses nicht alle Cluster zur Verfügung stehen werden [...]
Wieso muss man davon ausgehen? Das ist Unfug.

Nein, Unfug ist das nicht, sondern basiert auf simpler Erfahrung, die die Kunden von Fabs nunmal haben. Wenn ein Prozess neu entwickelt wurde, sind die anfänglichen Yields fast immer schlechter als bei nem mature process (wie z.B. 90nm), insbesondere wenn es sich um einen "half node" Prozess wie z.B. auch den 40G/40LP bei TSMC handelt (auch wenn TSMC "full node" Support zu den 40nm Prozessen bietet, wurden 40G/40LP als half node qualifiziert).
Und da sowohl nv als auch AMD vor der Produktion der großen Chips kleine "Test"-Chips (RV740, GT218) produzieren ließen, um später Probleme bei den großen Chips zu vermeiden, kannten sie die Problematik des 40G Prozesses bei TSMC - deswegen ist sicherlich von vornherein geplant gewesen, nicht nur einen Chip mit allen aktivierten Shadern auszuliefern (5870, ursprüngliche GTX480), sondern auch Derivate mit abgeschalteten Shadern (5850, GTX470 und 5830, GTX460).

Dadurch, dass die Ingenieure bei nv aber offenbar die Probleme des 40G nicht richtig eingeschätzt haben, sitzt nv jetzt tief in der Scheiße. Die Quellen munkeln von einem Yield bei den GF100 Chips von nur 1-2 % (100% funktionsfähig), und auch nur 7-20 % Yield bei Nutzung von teildefekten Chips.

Für uns Nutzer bedeutet das, dass es auf absehbare Zeit (2010) keine nennenswerten Mengen von GTX480 Karten geben wird, und dass obwohl nichtmal alle Shader aktiv sind!
Beim GTX470/GTX460 wird die Anzahl der Chips reichen, um die verbliebenen nv-Fanboys mit Karten einzudecken. Letztendlich ist der GF100 aber wahrscheinlich mehr oder weniger tot, denn Geld kann nv damit nicht machen (es sei denn, es passiert noch ein Wunder bei TSMC - aber denkt dran, AMD hat z.B. auch nie den 65nm Prozess wirklich in den Griff bekommen - und bevor TSMC jetzt alle Resourcen für den 40nm Prozesses abzieht, werden die eher auf die Zukunft setzen, den 28nm Prozess) und mit Leistung wird sich nv angesichts der TDP & Lautstärke auch keine Freunde machen. Bis ein echter Nachfolger des GF100 kommt, ist es 2011, und dieser ist in 28nm gefertigt. Da ein Respin der Radeon-Serie für Anfang der zweiten Jahreshälfte 2010 von AMD angekündigt ist, wird es nicht leicht für nvidia. Würde AMD mehr Chips bei TSMC ordern können, würde es sogar für nvidia richtig dreckig werden ...
 
Zuletzt bearbeitet:
Es gab doch da mal die Meldung zum Anfang des Jahres das sie nun das A3 Stepping fertig hätten und das man eine 60% Ausbeute eines Wafers habe, wenn sie nun den GF104 Produktion nun doch besser läuft mit mehr Ausbeute das sie dabei bleiben können wird es wohl schneller gehen mit der Auslieferung an die User. Hoffen wir mal das beste.

mfg
 
:)))) Erinnert mich irgendwie an G80 Zeiten:) Ich bin mir sicher , dass Nvidia eine Überraschung für uns bereit hält......
 
NVIDIA hätte von Anfang an verschweigen sollen wieviel SP's der Fermi Hardwareseitig hat. Dann wäre die Diskusion hinfällig.
Ich gehe davon aus das der RV870 intern 1800 SP's hat
 
Alleine die Tatsache das die es geschafft haben auch nur einen mit 0 Fehlern zu fertigen wäre schon WOW. Aber das scheint bei denen an der Tagesordnung zu sein. Da könnte selbst der Fermi eine Cash cow werden.
 
Klingt irgendwie nach nichts neuen. Nvidia hat verlauten lassen, dass die Fermipalette gegen Q3 abgedeckt sein wird, von daher ist es nichts außergewöhnliches, dass Charlie es sich aus den Fingern gesogen hat.

BTW
kann mir jemand sagen was im Englischen eien "über-box" sein soll, die in dem Artikel steht ?
 
Dadurch, dass die Ingenieure bei nv aber offenbar die Probleme des 40G nicht richtig eingeschätzt haben, sitzt nv jetzt tief in der Scheiße. Die Quellen munkeln von einem Yield bei den GF100 Chips von nur 1-2 % (100% funktionsfähig), und auch nur 7-20 % Yield bei Nutzung von teildefekten Chips.

Das sind dann aber die selben Quellen, die gesagt haben der GF100 kann keine Tesselation. :fresse: Hört doch mit diesem Char-LIE Unfug auf. Bei 20% kostet ein Chip schon mindestens 250$. Damit würde man in jedem Fall Verluste machen. Eine Massenproduktion unter 40 bis 50% würde man daher gar nicht beginnen.
 
Das sind dann aber die selben Quellen, die gesagt haben der GF100 kann keine Tesselation. :fresse: .

Nun ja von keiner Tesselation hat er ja nicht gefaselt bei Nvidia er nannte sie Softwaretesselation:)

Das was er dabei über die Shader gequakt hat spar ich mir jetzt mal denn das war ja total an der Technik vorbei bzw er hat wohl nicht verstanden wie die Berechnung von statten geht
 
Zuletzt bearbeitet:
Eines dürfte jedenfalls sicher sein: Die Zeiten in denen NV 95% aller Benches gewonnen hat sind vorbei. Und allen Spekulationen zum trotz: fasst man alle halbwegs seriösen Info's und Leistungsdaten zusammen, so läßt sich doch eine Tendenz ableiten, nämlich jene, daß die gtx 480 als Flagschiff die schnellste Single Gpu Karte werden und die Paradedisziplin HD Gaming, DX11 incl. Tesselation sein wird. NV hat diesbezüglich oft das Wort vom "Coolen Feature" starpaziert, sodaß ich mir ein scheitern der Karte, wie zb. der FX5800 beim besten Willen nicht vorstellen kann. Der Überflieger, wie einst die 8800GTX, wäre natürlich das Sahnehäubchen.
 
Irgendwie ist Fermi das spannendste auf dem PC Markt seit Jahren. Wenn das NVidia damit erreichen wollte haben die es voll und ganz geschafft.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh