nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 4

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ach so.

Ich hatte mir gedacht:
Weniger cores= weniger stromverbrauch und abwärme = Mehr Taktpotenzial.

Aber ist wohl so wie:
Käse hat löcher, Mehr Käse = mehr Löcher, Mehr Käse = Weniger Käse????

---------- Beitrag hinzugefügt um 22:34 ---------- Vorheriger Beitrag war um 22:33 ----------

Höffentlich lenkt NVidia bald Mit diesen Grossen Chips ein.
Warum haben die bis jezt nichts dahingehend getan?
 
der GF100 ist ja kein kleiner chip da sind wir uns einig.

NVidia müsste doch klar sein, dass das irgendwann unwirtschaftlich wird.

Wieso bauen sie nicht kleinere chips. so wie ati?
Oder Hat NVidia ein anderes Grundkonzept Dahinter
 
ihr sehts mir sicher nach, dass ich mir den affenpuff hier nicht regelmäßig antue, :shot: aber ist mittlerweile mal was handfestes hinsichtlich release termin bekannt geworden? schrieb luxx nicht kürzlich sogar was von februar?
 
der GF100 ist ja kein kleiner chip da sind wir uns einig.

NVidia müsste doch klar sein, dass das irgendwann unwirtschaftlich wird.

Wieso bauen sie nicht kleinere chips. so wie ati?
Oder Hat NVidia ein anderes Grundkonzept Dahinter
Einmal 550 mm² ist wesentlich wirtschaftlicher als zweimal 334mm² wie es ATI bei der 5970 gemacht hat.
 
Einmal 550 mm² ist wesentlich wirtschaftlicher als zweimal 334mm² wie es ATI bei der 5970 gemacht hat.

Nicht durch die nutzbaren Yields, da läge der Vorteil noch immer bei den kleineren Chips. Dafür aber bei der nutzbaren Leistung. Wenn MGPU irgendwann mal ohne Kompromisse funktioniert sieht die Geschichte anders aus, aber bis dahin ist schon viel Wasser den Rhein runter geflossen.
 
Nicht durch die nutzbaren Yields, da läge der Vorteil noch immer bei den kleineren Chips. Dafür aber bei der nutzbaren Leistung. Wenn MGPU irgendwann mal ohne Kompromisse funktioniert sieht die Geschichte anders aus, aber bis dahin ist schon viel Wasser den Rhein runter geflossen.
Du brauchst zwei kleine Chips. Ergo bist du quasi schon mit 50% Yields des größeren Chips wirtschaftlicher als du es mit zwei Chips je sein könntest. Hinzu kommen noch die PCB-Kosten, Speicher, usw.

nvidia ist obendrein nur etwa 3 Monate hinter ihrem Zeitplan und hat technisch offenbar wesentlich mehr geändert als ATI. Daher sehe ich überhaupt noch keine Schwierigkeiten mit so großen Chips.
 
Zuletzt bearbeitet:
Du brauchst zwei kleine Chips. Ergo bist du quasi schon mit 50% Yields des größeren Chips wirtschaftlicher als du es mit zwei Chips je sein könntest. Hinzu kommen noch die PCB-Kosten, Speicher, usw.

nvidia ist obendrein nur etwa 3 Monate hinter ihrem Zeitplan und hat technisch offenbar wesentlich mehr geändert als ATI. Daher sehe ich überhaupt noch keine Schwierigkeiten mit so großen Chips.

naja ich seh die schwierigkeit leider schon - den nVidia hatte ja schon probleme mit den kosten der gt200 serie - zumal eben die ATI chips im vergleich deutlich billiger in der produktion sind/warn (in dem fall der vergleich der RV7xx vs GT200 serie).
Wenn ich noch an die releasezeiten der GTX280 denke wo die karte noch um die 600 euro gekosted haben... (was schlussendlich bei mir auch der grund war sich für eine 4870 zu entscheiden, davor hatte ich ne 8800GTS 640MB).
 
Zuletzt bearbeitet:
naja ich seh die schwierigkeit leider schon - den nVidia hatte ja schon probleme mit den kosten der gt200 serie - zumal eben die ATI chips im vergleich deutlich billiger in der produktion sind/warn (in dem fall der vergleich der RV7xx vs GT200 serie).
Wenn ich noch an die releasezeiten der GTX280 denke wo die karte noch um die 600 euro gekosted haben... (was schlussendlich bei mir auch der grund war sich für eine 4870 zu entscheiden, davor hatte ich ne 8800GTS 640MB).
Kann man schlecht vergleichen. nvidia ist im Gegensatz zu ATI/AMD kein Billigheimer und sieht sich mehr wie Intel. Qualität hat ihren Preis(TM). Andere Produktpolitik eben.
Obwohl GT200 wesentlich größer und teurer war, hat nvidia dennoch gut Geld verdient und bessere Quartalszahlen geliefert als AMDs Grafiksparte.

---------- Beitrag hinzugefügt um 04:06 ---------- Vorheriger Beitrag war um 02:43 ----------

http://www.facebook.com/NVIDIA?ref=mf
Fun Fact of the Week: GeForce GTX 480 and GeForce GTX 470 will be the names of the first two GPUs shipped based on our new GF100 chip!

http://www.pcper.com/#NewsID-8340
Well either way, get used to the names: GeForce GTX 480 and GeForce GTX 470. Makes all those suckers calling them the GeForce 300 series cards look like fools...doh.
:d
 
Zuletzt bearbeitet:
Mir egal ob das Kackfass GTX 370 oder die Ranzbimmel GTX 470 heißt. Entscheident ist letztendlich die Leistung.
 
Moin, ....meine Güte - wo sind wir denn hier gelandet?
Kackfass, Ranzbimmel, Scheißkarte....noch irgendwelche Probleme?
Und das um die Uhrzeit^^

Aber das mit der 4 verwirrt mich jetzt. GTX 3xx=Rev.b und GTX4xx = finale rev. c?
 
damit meinte ich dass bei gleicher wafer grösse ATI mehr karten basteln könnte als nvidia mit ihren riesen chips(stille voraussetzung yield gleich)

Und was strukturbreite ist und Warum der fermi grösser ist weis ich auch.

Ich glaube es gibt noch nichts handfestes, selbst fud ist in letzter zeit etwas ruhiger gewesen
 
Kann man schlecht vergleichen. nvidia ist im Gegensatz zu ATI/AMD kein Billigheimer und sieht sich mehr wie Intel. Qualität hat ihren Preis(TM). Andere Produktpolitik eben.
Obwohl GT200 wesentlich größer und teurer war, hat nvidia dennoch gut Geld verdient und bessere Quartalszahlen geliefert als AMDs Grafiksparte.

Du weist aber schon das NV seit die Preise der 260GTX unter ~180€ gefallen sind für jede verkaufte Karte draufzahlt? Bzw. die Boardpartner draufzahlen, damit man überhaupt Karten produzieren kann?

Das was NV an Geld gemacht hat, kommt von allem anderen, aber nicht aus dem HighEnd Gamingbereich. Darüber gibts genügend Infos im Netz wo sich die Boardpartner öffentlich darüber auslassen. Sprich das ist kein Gerücht oder sonstwas, sondern ist eine Tatsache.


Und ja, Qualität hat ihren Preis, nutzt einem nur recht wenig, wenn die gelieferte Qualität nur wenig über der Konkurenz liegt, ebenso wie die Leistung und die Konkurenz durch deutlich mehr Luft beim Preis die Preise drücken kann bis ins Bodenlose.


Wollen wir hoffen das dieses Schicksal nicht auch den Fermi einholt. Im Moment scheints aber durchaus ganz gut auszusehen. Warten wir auf die Verfügbarkeit der Karten, dann wissen wir mehr...
 
Du brauchst zwei kleine Chips. Ergo bist du quasi schon mit 50% Yields des größeren Chips wirtschaftlicher als du es mit zwei Chips je sein könntest. Hinzu kommen noch die PCB-Kosten, Speicher, usw.

Es ging mir um die Chips. Und ich denke du wirst wissen das die Yields von kleinen und großen Chips nie gleich sein werden wen es nicht außerordentliche Probleme gibt.

nvidia ist obendrein nur etwa 3 Monate hinter ihrem Zeitplan und hat technisch offenbar wesentlich mehr geändert als ATI. Daher sehe ich überhaupt noch keine Schwierigkeiten mit so großen Chips.

Ich denke auch das große Chips an sich kein Problem darstellen. Wenn ATI wirklich etwas haben will womit sie kontern können müssen sie den möglichen RV890 wohl auch vergrößern.
 
Kann man schlecht vergleichen. nvidia ist im Gegensatz zu ATI/AMD kein Billigheimer und sieht sich mehr wie Intel. Qualität hat ihren Preis(TM). Andere Produktpolitik eben.
Obwohl GT200 wesentlich größer und teurer war, hat nvidia dennoch gut Geld verdient und bessere Quartalszahlen geliefert als AMDs Grafiksparte.

welche argumente hast du denn für den billigheimer und vor allem für die wahnsinnige qualität von nvidia?
gerade nv ist doch durch fiepende karten negativ aufgefallen...
 
welche argumente hast du denn für den billigheimer und vor allem für die wahnsinnige qualität von nvidia?
gerade nv ist doch durch fiepende karten negativ aufgefallen...

Ich denke eine Qualitätsdiskussion müllt den Thread nur weiter zu.

Müssen wir jetzt wirklich bis zur Cebit auf weitere Informationen warten?
 
Ich denke eine Qualitätsdiskussion müllt den Thread nur weiter zu.

Müssen wir jetzt wirklich bis zur Cebit auf weitere Informationen warten?

meinetwegen können wir darauf gerne verzichten, aber so aussagen finde ich eben gewagt.
 
meinetwegen können wir darauf gerne verzichten, aber so aussagen finde ich eben gewagt.

Sicher ist sie. Aber eine Diskussion würde dazu führen das beide Seiten sich wieder nur mit Negativbeispielen bewerfen und es am Ende eh keine Lösung gibt sondern nur immer mehr Schimpfwörter die in einen Satz gepresst werden.
 
Zum Yield möchte ich aber zu bedenken geben, das hier auch mehr "verwertet" werden kann. Wenn man jetzt Chips hat auf denen die hälfte der Chips recht "kaputt" ist, so sind doch immernoch genug CUDA-Cores in Ordnung um daraus nen Midrange-Chip zu klöppeln.
Und mit diesem "Abfall" wird doch sowieso die meiste Kohle verdient.

Das ist aber sicher nicht der Zustand der angestrebt wird. Denn an reinen Produktionskosten für die GPU wäre eine so derart abgespeckte GPU immernoch identisch hoch mit dehnen der HighEnd Lösung.
Mit ner dedizierten Fertigung für kleinere Lösungen kann man da gut was an Kosten einsparen...
 
Zum Yield möchte ich aber zu bedenken geben, das hier auch mehr "verwertet" werden kann. Wenn man jetzt Chips hat auf denen die hälfte der Chips recht "kaputt" ist, so sind doch immernoch genug CUDA-Cores in Ordnung um daraus nen Midrange-Chip zu klöppeln.
Und mit diesem "Abfall" wird doch sowieso die meiste Kohle verdient.

Edit:
Keine Qualidiskussionen, das führt eh nur wieder zu 5 Seiten ATI vs NV geflame *seufz*
Wenn er so denkt, dann soll er so kaufen. Niemand zwingt ihn.
Btw ich hatte schon nen defekten i7-860 von Intel ;)

Das kann man aber nur im Rahmen einer Modellfamilie machen.
Z.B. bei der 5800-Serie
5870, 5850 und die Resteverwertung für die 5830.
Es wird wohl niemals ein 5800-Chip in der 57xx-Serie verbaut.

Ähnlich wird es dann beim Fermi laufen, wobei ich etwas über die Bezeichnung grübele.
Könnte der 360 die Resteverwerter-GPU werden, da es ja jetzt die 370 gibt???
 
- Preis: 550 gegen 450 Euro
wäre mir persöhnlich zu teuer um 1-2jahre zu spielen...
da muss ich ja alle spiele raubkopieren um da annähernd ein sinnvolles ZEITSPASS/GELD verhältnis zu bekommen. denke wenn die dinger so teuer sind werde sie ladenhüter... spielen kann man auch wunderbar mit einer 5850er für 200€

beste Grüße
 
- Preis: 550 gegen 450 Euro
wäre mir persöhnlich zu teuer um 1-2jahre zu spielen...
da muss ich ja alle spiele raubkopieren um da annähernd ein sinnvolles ZEITSPASS/GELD verhältnis zu bekommen. denke wenn die dinger so teuer sind werde sie ladenhüter... spielen kann man auch wunderbar mit einer 5850er für 200€

beste Grüße

Das ist ja jedem selbst überlassen.
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh