nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
Will nichtmal jemand dort anrufen u sie davon abhalten diesen Chip zu bauen:coolblue::d

näää^^
selbst wenn Fermi "scheiße" wird solln die sich beeilen, damit die eklatante Marktsituation mal ein Ende hat.
Das ist ja nicht mehr auszuhalten^^:rolleyes::fire:

give TSMC Speed and you get what you need :asthanos:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und ich denke, selbst die 5870 wird man in bestimmten Bereichen nicht mal schlagen können, siehe SP Computing. 2,72 GFLOPS sind einfach eine verdammt hohe Messlatte.
Immer vorrausgesetzt es finden sich ein paar Programmierer,die für die schwer auszulastenden 5D Shader entsprechende Anwendungen schreiben,ansonsten ist das nur Schall u Rauch die 2,72 GFlops theoretische Leistung der ATI Shader:coolblue:

---------- Beitrag hinzugefügt um 21:41 ---------- Vorheriger Beitrag war um 21:39 ----------

give TSMC Speed and you get what you need :asthanos:

"Give TMC a kick in the Ass",triffts eher:haha:
 
Zuletzt bearbeitet:
Die GPUs sind ja meistens nicht ganz recheckig, es kann schon mal vorkommen, dass eine Kante etwas länger ist als die andere. Schau dir mal Die-shots an, bei manchen kann man es richtig schön sehen.
 
Die GPUs sind ja meistens nicht ganz recheckig, es kann schon mal vorkommen, dass eine Kante etwas länger ist als die andere. Schau dir mal Die-shots an, bei manchen kann man es richtig schön sehen.

Genau u mitunter wird diese Anordnung sogar extra im Vorraus geplant um nicht zuviel Verschnitt auf dem Wafer zu haben;)
 
Mittels Grenzwertberechnung und co. ist es sicherlich möglich zu bestimmen wie groß eine Kante vom Die maximal werden darf, nur geht die Rechnung genau dann nicht auf wenn zu viele GPUs auf dem Wafer defekt sind (fertigungstechnische Probleme). Von daher ist die Modularität des G300 schön und gut, nur wenn man die einen und selben Chips nur teildeaktiviert, erhöhen sich damit nicht die reinen Produktionskosten (im Vergleich zu einer GPU die richtig entschlackt ist)?
 
nur wenn man die einen und selben Chips nur teildeaktiviert,)?

Ob das aber beim G300 so laufen wird zwischen Low,Midrange u Highendchip weiss man bis jetzt noch nicht;)
Es könnte wie gesagt auch sein das unterschiedliche Designs in Anordnung u Anzahl der Einheiten auf dem einzelnen Chips existieren

Die Shaderproblematik 441 vs 512 die gerade heiss am diskutieren ist deutet sogar darauf hin
 
Zuletzt bearbeitet:
Mittels Grenzwertberechnung und co. ist es sicherlich möglich zu bestimmen wie groß eine Kante vom Die maximal werden darf, nur geht die Rechnung genau dann nicht auf wenn zu viele GPUs auf dem Wafer defekt sind (fertigungstechnische Probleme). Von daher ist die Modularität des G300 schön und gut, nur wenn man die einen und selben Chips nur teildeaktiviert, erhöhen sich damit nicht die reinen Produktionskosten (im Vergleich zu einer GPU die richtig entschlackt ist)?

http://mrhackerott.org/semiconductor-informatics/informatics/toolz/DPWCalculator/Input.html

Viel Spaß beim spielen ;)
 
Danke dir Neurosphere ;)
Vllt. könnte man die Ergebnisse in einer Matrix darstellen (natürlich nur für eine bestimmte Wafergröße usw.)
 
nein ^^

grösserer/komplexerer Chip also %tual mehr Defekte

Im Grunde stimmt das schon...
Dennoch ist anzunehmen, das NV zusammen mit TSMC auch vorher bisschen kalkuliert und schaut, das die Ausbeute möglichst hoch ist.
Dementsprechend kann man wohl kaum an eine derartige GPU rangehen mit dem Ziel hier ne Ausbeute von gerademal knapp über 50% zu erzielen.
 
und ATI dreht nur Däumchen und macht nix ? ^^
Vor allem da ATi den 4770 Vorteil hat

---------- Beitrag hinzugefügt um 23:05 ---------- Vorheriger Beitrag war um 23:04 ----------

Die GPUs sind ja meistens nicht ganz recheckig, es kann schon mal vorkommen, dass eine Kante etwas länger ist als die andere. Schau dir mal Die-shots an, bei manchen kann man es richtig schön sehen.

ähm Rechteckig ist aber nit quadratisch ^^ oder meinste trapezförmig ? das kann ich fats nit glauben
 
und ATI dreht nur Däumchen und macht nix ? ^^
Vor allem da ATi den 4770 Vorteil hat
Was AMD macht steht doch gar nicht zur Debatte.
Es ging darum, das mr.dude oben die Absolute Anzahl an fehlerhaften DIEs bei ner Ausbeute von ~70% von AMD 1:1 auf NV übertragen hat und somit die These aufgestellt hat, das NV ja nur halb so viele lauffähige Chips rausbekommt als AMD. Was aber so nicht belegbar ist, da da zwar die Ausbeute mit größeren GPUs idR sinkt, aber dennoch eine derartige Rechnung ohne Anhaltspunkte überhaupt nicht möglich ist
ähm Rechteckig ist aber nit quadratisch ^^ oder meinste trapezförmig ? das kann ich fats nit glauben

Ich glaub er meinte Rund :fresse:
 
ja und ich sage wenn dann müsste ati nen Vorteil beid er fertigung haben und nicht NV.

Sie produzieren schon länger ihre GPU in Serie
Haben schon gut 1 jahr dank 4770 zugriff auf 40nm und ahben eben die kleinere und weniger komplexe GPU.


sehe da keinen einzigen Vorteil für NV, ausser das sie eine bessere ausbeute benötigen ^^


Wie wärs mit halbmondförmig ? ^^ Jihad!
 
ja und ich sage wenn dann müsste ati nen Vorteil beid er fertigung haben und nicht NV.

Sie produzieren schon länger ihre GPU in Serie
Haben schon gut 1 jahr dank 4770 zugriff auf 40nm und ahben eben die kleinere und weniger komplexe GPU.


sehe da keinen einzigen Vorteil für NV, ausser das sie eine bessere ausbeute benötigen ^^

Ja soweit doch alles verständlich und auch logisch. Dennoch kann man ohne Anhaltspunkte über die Ausbeute solche Thesen nicht aufstellen. Und genau das hab ich gesagt...

Achso und ich werfe nochmal mit in den Raum, das die Ausbeute auch bei exakt gleicher Größe und ähnlicher kKomplexität des Chips extrem schwanken kann ;)
Ums als theoretisches Beispiel auf den Punkt zu bringen. AMD und NV bauen je einen Chip mit gleicher Größe und ähnlicher Komplexität, so kann AMD extreme Fertigungsprobleme haben und NV eher weniger bzw. auch umgekehrt.
Und das ganze in der Praxis, NV rennt mit ner kleineren LowEnd/Mittelklasse GPU zu Intel in die Produktion und will mir nix dir nix diese dort fertigen lassen. So würde beispielsweise NV mit an Sicherheit grenzender Warscheinlichkeit deutlich schlechtere Ausbeute erziehlen als Intel mit nem sehr komplexen Chip für ne Server CPU ;)

Wie gesagt alles nur Beispiele und haben im Moment keinen praktischen Hintergrund.
 
ja nur das kann beide gleich treffen, kann eben auch sein das NV so nen chip hat der noch fehleranfälliger ist. habe ja nur sachen aufgezählt die sicher für ati sprechen
 
Wenn dann solltest du schon die gleiche Ausbeute von 70% bei beiden Ansetzen und nicht die absolute Anzahl der defekten gleichsetzen. Denn das wäre irgendwie sinnfrei.
Nope, die gleiche Ausbeute wäre falsch. Grösserer Chip, geringere Ausbeute. So die Theorie. Oder bildlich formuliert, wenn auf Wafer A 2 Chips die gleiche Fläche einnehmen wie 3 Chips auf Wafer B, dann macht 1 Fehler auf Wafer A 50% der Chips unbrauchbar, Ausbeute 50%, während 1 Fehler auf Wafer B lediglich 33% der Chips unbrauchbar macht, Ausbeute 67%. Du musst schon die Defektraten nehmen. Oder relativ ausgedrückt, Fehler pro mm². Ist natürlich nicht exakt, da Fehler nicht gleichmässig verteilt sind. Aber so weit wollen wir es hier nicht treiben. :)
Die Rechnung sollte auch gar keinen Anspruch auf Exaktheit haben. Es ging nur grob um die Richtung.

grösserer chip hat mehr verschnitt
Jup, idR ja. Wie gesagt, ich wollte es nicht unbedingt zu sehr verkomplizieren.

Immer vorrausgesetzt es finden sich ein paar Programmierer,die für die schwer auszulastenden 5D Shader entsprechende Anwendungen schreiben
So schwer auszulasten sind die nicht, wie aktuelle Entwicklungen zeigen. Bisher fehlte es vor allem am Software Support. Und selbst wenn es am Ende ein paar Prozent weniger als bei nVidia sein sollten, Fermi müsste nach aktuellem Stand (1,2544 TFLOPS) fast 117% Vorsprung des RV870 wettmachen. Das ist doch ziemlich illusorisch. Anders sieht es bei DP aus. Dort scheint Fermi genügend theoretische Leistung zu haben (627,2 TFLOPS). Allerdings zählt dann auch nicht mehr das Argument der Auslastung bei ATI, da pro Shader sowieso nur ein MADD berechnet wird.
Und wohlgemerkt, ich vergleiche nur mit der 5870, nicht mit der 5970. ;)

Dennoch ist anzunehmen, das NV zusammen mit TSMC auch vorher bisschen kalkuliert und schaut, das die Ausbeute möglichst hoch ist.
Dementsprechend kann man wohl kaum an eine derartige GPU rangehen mit dem Ziel hier ne Ausbeute von gerademal knapp über 50% zu erzielen.
Es geht ja im Endeffekt nicht um eine Zielvorgabe, sondern um das technisch Machbare. Der G200 hatte beim Launch auch nur eine Ausbeute von etwa 50%.
 
Nope, die gleiche Ausbeute wäre falsch. Grösserer Chip, geringere Ausbeute. So die Theorie. Oder bildlich formuliert, wenn auf Wafer A 2 Chips die gleiche Fläche einnehmen wie 3 Chips auf Wafer B, dann macht 1 Fehler auf Wafer A 50% der Chips unbrauchbar, Ausbeute 50%, während 1 Fehler auf Wafer B lediglich 33% der Chips unbrauchbar macht, Ausbeute 67%. Du musst schon die Defektraten nehmen. Oder relativ ausgedrückt, Fehler pro mm². Ist natürlich nicht exakt, da Fehler nicht gleichmässig verteilt sind. Aber so weit wollen wir es hier nicht treiben. :)
Die Rechnung sollte auch gar keinen Anspruch auf Exaktheit haben. Es ging nur grob um die Richtung.

Viel mehr ist auch nicht möglich. Es kommt ja auch drauf an we ich Chips mit punktuellen Fehlern evtl noch weiterverwenden könnte. Interessant wären mal die Yields in 55nm. Ich glaube die lagen bei beiden in der nähe von 70%, sicher bin ich mir allerdings nicht...





So schwer auszulasten sind die nicht, wie aktuelle Entwicklungen zeigen. Bisher fehlte es vor allem am Software Support. Und selbst wenn es am Ende ein paar Prozent weniger als bei nVidia sein sollten, Fermi müsste nach aktuellem Stand (1,2544 TFLOPS) fast 117% Vorsprung des RV870 wettmachen. Das ist doch ziemlich illusorisch. Anders sieht es bei DP aus. Dort scheint Fermi genügend theoretische Leistung zu haben (627,2 TFLOPS). Allerdings zählt dann auch nicht mehr das Argument der Auslastung bei ATI, da pro Shader sowieso nur ein MADD berechnet wird.
Und wohlgemerkt, ich vergleiche nur mit der 5870, nicht mit der 5970. ;)

Könnte man an der durchschnittlichen Flop-Leistung fest machen. http://www.3dcenter.org/news/2009-11-19 hier gibts ne schöne auflistung. Auch hier sieht man das die Shader von ATI schwerer auszulasten sind.

Es geht ja im Endeffekt nicht um eine Zielvorgabe, sondern um das technisch Machbare. Der G200 hatte beim Launch auch nur eine Ausbeute von etwa 50%.

Jup, warten wir mal ab ob es bald Infos zu der derzeitigen Situation gibt.
 
Das das Design ja soweit bekannt ist, wird die Größe (länge) der Graka identisch mit der GTX280 bewegen?
 
Meint ihr es ist sinvoll sich jetzt schon eine HD 5850 zu kaufen?
Weil alles was ich bisher gelesen habe, deutet ja eher darauf hin, dass die neue Geforce eher schlechter werden soll.
 
Meint ihr es ist sinvoll sich jetzt schon eine HD 5850 zu kaufen?
Weil alles was ich bisher gelesen habe, deutet ja eher darauf hin, dass die neue Geforce eher schlechter werden soll.

Wenn du noch warten kannst, dann solltest du erst zuschlagen, wenn die Verfügbarkeit besser ist, dann kostet sie auch nur WIEDER 200,- Euro.

Die 360 GTX wird wohl ab 300 Euro kosten und wie die Geschwindigkeit sein wird, dass muss sie bei Verfügbarkeit erst beweisen.

Edit:

Ach noch was, die Geforce wird bei Erscheinen wohl in der gleichen Situation sein wie die ATI jetzt.
 
Zuletzt bearbeitet:
Wenn du noch warten kannst, dann solltest du erst zuschlagen, wenn die Verfügbarkeit besser ist, dann kostet sie auch nur WIEDER 200,- Euro.

Die 360 GTX wird wohl ab 300 Euro kosten und wie die Geschwindigkeit sein wird, dass muss sie bei Verfügbarkeit erst beweisen.

Edit:

Ach noch was, die Geforce wird bei Erscheinen wohl in der gleichen Situation sein wie die ATI jetzt.

Also dann so bis Januar/Februar wahrscheinlich oder?
 
Vermutlich,
die Preise fallen ja immer weiter und sind z.Zt. bei 250 Euro für eine verfügbare 5850.

Beobachte einfach den Verfügbarkeitsthread der 58xx oder noch einfacher bei Geizhals.at die Preise der verfügbaren Karten beobachten und wenn der Preis gefällt, einfach zuschlagen.

Topic:
Ich bin mal gespannt wie die Preise der Geforce sind, werden sie auch so extrem durch die Decke gehen wie bei der 58xx?
 
Zuletzt bearbeitet:
mal sehen was sich hinter 32xAA verbirgt 16xQ sieht auch schlecht aus als 8xMSAA wenn man sich bewegt im Spiel(find ich).

16xAA + Wide Tend sind auch 32xAA sieht trotzdem kacke aus^^
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh