nVidia GF10x/Geforce 4xx [Speku-, News- & Diskussionsthread] Part 4 (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
Ich mach es mal kurz:
@4dfx: Auf neliz würde ich nicht mehr wetten wollen, seine anderen Vermutungen zum GF100 scheinen ja mitlerweile schon recht weit daneben zu liegen.

@killissa: Über dieses Thema könnten wir nun lange streiten, aber ich habe ehrlich gesagt gar keine lust 2 Stunden lang die entscheidenden Links herauszusuchen, damit du erkennst was ich bereits weiß. Deshalb mal eine kleine Rechnung, die dir zeigt wie weit du mit deinen Spekulationen daneben liegst:

20% Yieldrate ist deine höchste Schätzung, d.h. 21 Chips von einem 5000$ Wafer! Das bedeutet einen durchschnittlichen Chippreis von 238$. Nehmen wir dein 1 zu 5 Verhältnis von 480 zu 470, so würde man die Chippreise wahrscheinlich mit 222$ GTX470 und 318$ GTX480 festlegen, dann hat man 238$ im Durchschnitt. Ausgehend von der UVP bleiben also 127 bzw. 181$ für das PCB, die Ram-Chips, den Kühler, die Forschungskosten, den Treibersupport, den Gewinn von NV, den Gewinn vom Hersteller, den Gewinn des Händlers und das Marketing! Selbst mit den übrigen Materialkosten wird es schon eng von Rest brauch ich gar nicht erst zu reden.
Wenn du dich etwas auskennen würdest, müsste dir klar sein, dass bei den Preisempfehlungen ein Chippreis jeseits von 130$ kaum möglich ist.

Aber am besten ist echt deine 10% Schätzung. :fresse: Da kosten dann die Chips schon mehr als NV mit der UVP für die gesammte Karte angibt. ;) Wer rechnen kann ist klar im Vorteil!
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hmm sag mal musst du den alles was gegen ATI ist sowas von stark zurückweißen ?! Sind jz auf einmal alle Händler dieser Welt schuld das die 5xxx Karten so teuer sind ? Also ihrgenwie verstehe ich deine Logik nicht

Ach und warum ist meine 260 dan mit 40% Leiser als die 4870 mit 40% von meinen Freund ? Ich geh mal davon aus das jede Karte unter 40% leiser / lauter ist als andere vereinheitlichen kannst du das nicht, und ich hab meine dauerhaft auf 60% mit meinen Headset hör ich nicht mal wen die Freundin vor der Türe steht ;)

PS: Sorry jungs aber ihrgenwie kann ich diese selbst erstelleten EXCEL Listen nicht mehr sehen -.-
Sag mal glaubst Du AMD bekommt jetzt 100 euro mehr für ihren Chip soviel kostet ne 5870 nehr als beim launch. Oder sacken die Händler das ein weil sie den Hals nicht Vollbekommen.
Selten so ne stuss gehört. Und genauso wirds beim Fermi sein. Die händler verdienen sich ne goldne Nase. NV berkommt das was sie beim launch dafür verlangen.
 
Zuletzt bearbeitet:
@Hentur

Dir ist schon klar, dass viele Hersteller ihre Produkte nicht immer von Anfang an mit Gewinn verkaufen? Beispiel Sony - PS3. Nvidia wird erst dann Geld mit den Fermis machen wenn sie die Kosten für die GPUs wieder reinbekommen oder als Tesla-Karten verkaufen. Vorher wird man wohl erstmal Verluste machen. Die Frage ist nur wie schnell sie die Kosten senken können in dem der Yield steigt.
 
Das kann ich irgendwie nicht wirklich glauben. Temperatur düften sicherlich passen.
 
20% Yieldrate ist deine höchste Schätzung, d.h. 21 Chips von einem 5000$ Wafer! Das bedeutet einen durchschnittlichen Chippreis von 238$. Nehmen wir dein 1 zu 5 Verhältnis von 480 zu 470, so würde man die Chippreise wahrscheinlich mit 222$ GTX470 und 318$ GTX480 festlegen, dann hat man 238$ im Durchschnitt. Es bleiben also 127 bzw. 181$ für das PCB, die Ram-Chips, den Kühler, die Forschungskosten, den Treibersupport, den Gewinn von NV, den Gewinn vom Hersteller, den Gewinn des Händlers und des Marketings! Selbst mit den übrigen Materialkosten wird es schon eng von Rest brauch ich gar nicht erst zu reden.
Wenn du dich etwas auskennen würdest, müsste dir klar sein, dass bei den Preisempfehlungen ein Chippreis jeseits von 130$ kaum möglich ist.

Jo, so ist das mit dem Auskennen.
Du machst nur nen Fehler in der kausalen Kette:
Grade weil die Produktion so schlecht und damit teuer ist, wird nvidia nicht die GT2xx Wafer für GF100 Wafer opfern, da sie mit letzteren eh keinen Gewinn machen werden. Bis zum 28nm Nachfolger wird der Fermi ein kaum erhältlicher Prestige-Chip bleiben.
Wir werden ja in den nächsten Wochen sehen, wer recht hatte - nach meiner Schätzung wird es kaum GTX480 Karten geben, nach Deiner sollten letztere schon gut zu nvidias Umsatz beitragen. Mal sehen, was nvidia im earnings call dazu meint ;)
 
Jo, so ist das mit dem Auskennen.
Du machst nur nen Fehler in der kausalen Kette:
Grade weil die Produktion so schlecht und damit teuer ist, wird nvidia nicht die GT2xx Wafer für GF100 Wafer opfern, da sie mit letzteren eh keinen Gewinn machen werden. Bis zum 28nm Nachfolger wird der Fermi ein kaum erhältlicher Prestige-Chip bleiben.
Wir werden ja in den nächsten Wochen sehen, wer recht hatte - nach meiner Schätzung wird es kaum GTX480 Karten geben, nach Deiner sollten letztere schon gut zu nvidias Umsatz beitragen. Mal sehen, was nvidia im earnings call dazu meint ;)

Omg es wird immer besser. :xmas: Ist jetzt echt nicht böse gemeint, aber bitte informiere dich gründlicher bevor wir weiterreden. Also welche GT2xx Wafer in 40nm produziert NV zur Zeit ich bin echt gespannt.

Dir ist schon klar, dass viele Hersteller ihre Produkte nicht immer von Anfang an mit Gewinn verkaufen? Beispiel Sony - PS3. Nvidia wird erst dann Geld mit den Fermis machen wenn sie die Kosten für die GPUs wieder reinbekommen oder als Tesla-Karten verkaufen. Vorher wird man wohl erstmal Verluste machen. Die Frage ist nur wie schnell sie die Kosten senken können in dem der Yield steigt.

Das ist aber eine ganz andere Sache. Konsolen werden häufig anschließend durch überteuerte Spiele finanziert, dass ist von Anfang an so geplant. Genau wie HP die Drucker durch überteuerte Tinte finanziert.
 
Zuletzt bearbeitet:
Ich dacht die G200 Chips werden nicht mehr produziert oder lieg ich da falsch?
 
Ist jetzt echt nicht böse gemeint, aber besser nicht mehr besoffen posten :xmas:
GT215
GT216
GT218

:heuldoch:

Diese sind das Butter & Brot Geschäft von nv
 
Zuletzt bearbeitet:
Zuletzt bearbeitet von einem Moderator:
Aber es kann ja nicht jeder in den genuss von funktionierenden Spielen und Physx kommen, wäre ja zu schön ! MUHAHAHHAHAHA

Da muss man sich ja schämen eine Nvidia zu besitzen...

PhysiX und Tesslation sind der größte Schwachsinn überhaupt. Bad Company macht es vor wie viel Physik man einbauen kann ohne gleich eine zweite Grafikkarte zu benötigen. Und Tesslation? omg aufgeplusterte Täschchen an den Armen (Metro), aber dafür 3x schlechtere Texturen... Dieses "Feature" muss sich erst noch beweisen...

Edit: Ist doch eh wieder der Typ von vorhin... ban²
 
Zuletzt bearbeitet:
Ist jetzt echt nicht böse gemeint, aber besser nicht mehr besoffen posten :xmas:
GT215
GT216
GT218

:heuldoch:

Diese sind das Butter & Brot Geschäft von nv

Stimmt den 3ten Shrink des G80 hab ich ganz vergessen. :shot: Allerdings wird man für den nur sehr wenige Wafer brauchen, so klein wie der mittlerweile ist. Da wird man also nicht so viel hin und her schieben können.
 
man man man, NDA ist echt ne uncoole Erfindung :)
 
Stimmt den 3ten Shrink des G80 hab ich ganz vergessen. :shot: Allerdings wird man für den nur sehr wenige Wafer brauchen, so klein wie der mittlerweile ist. Da wird man also nicht so viel hin und her schieben können.

Überleg mal wieviele GT240 alleine in den ALDI- und/oder MediaMarkt/Saturn-Rechnern drin sind und wieviele GTX 4xx. Nur so als Beispiel. Wir haben diesen Monat zwei Bürorechner gekauft, Fertigsysteme. Beide waren mit GT240 ausgestattet.
 
ich finde gerade Olivers Avartar sehr treffend :d
 
Ich sehne 0:01 entgegen,da wird sich alles wieder beruhigen,vorallem hier in dem Thread,es nervt nur noch.
Manchmal kann man hier richtig schön spekulieren,diskutieren,manchmal würde man am liebsten durch die leitung krabbeln...zum glück nur 7,5h!
 
Zuletzt bearbeitet:
ähm lol, die werte aus den letzten links stimmen nie und nimmer bei der hd5870, dass soll wohl ein schlechter scherz sein :d
 
welcher foren-troll hatte bei denen zu viel zeit um so ein fingierten quatsch herzustellen.
 
Ich meinte auch eher die Werte für die HD5870 die teilweise doch ein wenig abenteuerlich wirken. Mit 10.3/10.3a langsamer als 9.10?
 
Ich meinte auch eher die Werte für die HD5870 die teilweise doch ein wenig abenteuerlich wirken. Mit 10.3/10.3a langsamer als 9.10?

Bei Crysis erreiche ich in der 1920x1080 Auflösung mit 4xAA ca.35Fps mit 10.3 Final,das sind immerhin ca.25% mehr Leistung,bei Unigine sinds fast 100% Leistung die hier unterschlagen werden!
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh