nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] [Part 1.1]

Status
Für weitere Antworten geschlossen.
Da ist erstmal garnichts Fakt solange keiner die Karte für ein test vergleichen kann.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
faktum ist, daß ich sowie einige andere auch auf den GT300 warten um vergleichen zu können. Ich hätte gerne eine Karte die als single GPU in etwa an der Leistung der 5er x2 schnuppern kann. Da ich die Hoffnung nicht aufgebe warte ich eben. Sollte sich rausstellen, dass sich qualitative Unterschiede als extrem geringfügig darstellen lassen, warte ich evtl. abermals. Die 4870x2 ist immernoch flotter wie eine single 5870. Der Unterschied sollte für den Anwender schon spürbar sein wenn man upgraden möchte. Ausser die bislang noch wirklich rare DX11 Unterstützung und das verbesserte AF sind ein Argument. Ein MGPU Sys mag ich eigendlich garnicht mehr aufbauen. Gibts da eigendlich schon Tests bezüglich MR?
 
mit dem letzten satz hast du ein weiteres argument für die 5870 gegeben und ein letztes ist der stromverbrauch..lies dir deinen kommentar noch mal durch;) leistung ist ja in etwa gleich..! ich warte mit meiner 5870 ganz entspannt auf den g300..und wenn dieser dann soviel stärker ist steige ich um..die 5870 kann man dann sicher noch gut wieder loswerden. aber erstmal muss der g300 auch entsprechende 3D leistung abliefern.
 
Eben, das sollte man nie vergessen. GT300 wird sich eher mit dem R800 messen müssen. Und letzterer hat ~5 TFLOPS SP und ~1 TFLOPS DP. Dagegen wird nVidia immer noch keine Chance haben, wenn man bisher von maximal 100% mehr SP und etwa 5 mal so viel DP Performance gegenüber GT200 ausgeht.

Soll sogar 8x so hohe DP-Performance wie GT200 haben.

Das mit dem R800 kommt vllt. sogar ziemlich gut hin, bei 50% weniger Chips
auf einem Wafer (davon kann man easy ausgehen bei 44% mehr Transistoren, wg. mehr Verschnitt - wie dicht nV die Tr. gepackt bekommt, steht dann sowieso nochmal auf einem anderen Blatt) würde bereits 90% Yield beim RV870 vs. 70% Yield beim GT300 ausreichen, damit dieser tatsächlich doppelt so teuer in der Fertigung ist - zumindest vom Silizium. Package, RAM und Stromversorgung würden den R800 wahrsch. trotzdem noch ein bisschen teurer ausfallen lassen, aber nicht viel. Wenn allerdings nV bei der Packdichte nicht kräftig aufgeholt hat, ist auch insg. Faktor 2 nicht unwahrscheinlich.


dann bringt nv den nächsten chip usw, da der g300 weider mal aufgebohrt ist kommtja dann evtl was neues

Da beweist nV gerade, dass sie den GT300 noch nichtmal gefertigt bekommen, und du redest schon von seinem Nachfolger? Vllt. hast du das falsch verstanden, der R800 ist der Hemlock, also die 5870X2, und soll in wenigen Wochen erscheinen. Und wie mr.dude schon schrieb, nV hat selber gesagt, dass es so bald keinen neuen Chip geben wird. Und nein, der GT300 ist nicht nur aufgebohrt, das wird erstmal schon die größte Veränderung der nächsten Jahre sein.

das nv seit dem g80 stets schnellr ist unterschlägste ma flott ? die werden sicher rerteshs usw bringen um mit ati mitzuhalten

Schneller in welcher Hinsicht? ;)
Pro €uro war nV das nicht stets.
Und die Performancekrone war (wenn auch mit den damit verbundenen Nachteilen) auch zwischenzeitlich wieder bei ATi, mit den X2.
Und ein Refresh schüttelt sich auch nicht mal eben aus dem Arm, erstmal müssen sie überhaupt schaffen den GT300 rauszubringen.


Grüße,
Mr.Malik
 
mit dem letzten satz hast du ein weiteres argument für die 5870 gegeben und ein letztes ist der stromverbrauch..lies dir deinen kommentar noch mal durch;) leistung ist ja in etwa gleich..! ich warte mit meiner 5870 ganz entspannt auf den g300..und wenn dieser dann soviel stärker ist steige ich um..die 5870 kann man dann sicher noch gut wieder loswerden. aber erstmal muss der g300 auch entsprechende 3D leistung abliefern.

tss, der hat mich bis jetzt nicht gestört, warum denn jetzt meine x2 für 200-220,-€ verkaufen, 150,-€ drauflegen um mir ne 5870 zu kaufen die ich dann etwa 1,5 Monate später für 50,-€ weniger verkaufe um mir ne andere zu holen !? :stupid: Dann lieber ein paar Cent mehr Strom zahlen, der bei Yellow meiner Meinung nach recht günstig ist.
Ausserdem performt die x2 immernoch besser wie die 5870, ausser die Bildquali^^Bis zum GT300 kann ich noch ausharren. Ich MUß mir jetzt keine kaufen um jeden Hype mitzumachen.
 
Zuletzt bearbeitet:
Soll sogar 8x so hohe DP-Performance wie GT200 haben.

Das mit dem R800 kommt vllt. sogar ziemlich gut hin, bei 50% weniger Chips
auf einem Wafer (davon kann man easy ausgehen bei 44% mehr Transistoren, wg. mehr Verschnitt - wie dicht nV die Tr. gepackt bekommt, steht dann sowieso nochmal auf einem anderen Blatt) würde bereits 90% Yield beim RV870 vs. 70% Yield beim GT300 ausreichen, damit dieser tatsächlich doppelt so teuer in der Fertigung ist - zumindest vom Silizium. Package, RAM und Stromversorgung würden den R800 wahrsch. trotzdem noch ein bisschen teurer ausfallen lassen, aber nicht viel. Wenn allerdings nV bei der Packdichte nicht kräftig aufgeholt hat, ist auch insg. Faktor 2 nicht unwahrscheinlich.




Da beweist nV gerade, dass sie den GT300 noch nichtmal gefertigt bekommen, und du redest schon von seinem Nachfolger? Vllt. hast du das falsch verstanden, der R800 ist der Hemlock, also die 5870X2, und soll in wenigen Wochen erscheinen. Und wie mr.dude schon schrieb, nV hat selber gesagt, dass es so bald keinen neuen Chip geben wird. Und nein, der GT300 ist nicht nur aufgebohrt, das wird erstmal schon die größte Veränderung der nächsten Jahre sein.



Schneller in welcher Hinsicht? ;)
Pro €uro war nV das nicht stets.
Und die Performancekrone war (wenn auch mit den damit verbundenen Nachteilen) auch zwischenzeitlich wieder bei ATi, mit den X2.
Und ein Refresh schüttelt sich auch nicht mal eben aus dem Arm, erstmal müssen sie überhaupt schaffen den GT300 rauszubringen.


Grüße,
Mr.Malik

schon klar das nach der 5870 x2 die gtx 395 kommt, also mehr als zeiweise wird das auchnicht sein...
 
Total unnötiger Fullquote :wink:

Ob und v.a. wann die "GT300 x2" kommt, muss sich erstmal zeigen.
Mal ganz davon abgesehen, dass wenn sie jetzt erst A1 mit grottiger Ausbeute
haben (wonach man nach der getürkten Präsentation wohl ausgehen kann) easy noch 2 Respins (á 6 Wochen) bis zum produktionsfähigen Stepping nötig sind (auch wenn es bestimmt schon vorher sündhaft teure Pressesamples geben wird, mit denen man so tun kann als gäbe es die Karten schon wirklich), wird die Thermik "nicht ganz einfach" zu lösen sein. Auch wenn der Frickel-Dummy kein Fermi war, haben sie ihm sicherlich nicht ganz grundlos 6+8 Pin verpasst. Der 40nm Prozess von TSMC hat halt sehr mit Leckströmen zu kämpfen.

Mit 8+8 Pin PCIe + PCIe-Slot kann man max. 375W Verbrauch decken, das ist exakt 2x soviel wie eine HD 5870. Um nun einen 45% größeren Chip (bei angenommener gleicher Effizienz) in jene Verbrauchsregion zu drücken, müsste man ihn auf 69% takten (oder entsprechend Funktionseinheiten deaktivieren). Das lässt die Dualkarte aber wiederum gerademal 38% schneller als die Singlevariante werden, was dank nicht-perfekter Skalierung aber nat. in der Praxis nicht der Fall wäre. Bei sehr großzügig angenommener 90%iger Skalierung blieben somit nichtmal max. 25% Mehrleistung, die man anstattdessen eher mit einem stark übertakteten Singlechip forcieren würde, und nicht mit einer doppelt so teuer herzustellenden Dualkarte.
Man kann nat. die Spannung bei geringerem Takt auch noch senken, aber selbst bei der Annahme, 80% Takt beibehalten zu können, läge die Mehrleistung nur bei MAX. 45% (+Inputlag), bzw. bei 20% gegenüber einem 20% übertakteten Chip.

Oder ein anderer Ansatz: Gehen wir mal großzügig davon aus, dass die Karte sehr effizient ist, und nur den max. 225W von 2x6-Pin so nahe kommt, dass man rein zur Sicherheit 6+8 Pin angeklebt hat, wäre der Verbrauch nur 20% zu hoch. Dann liesse sich evtl. noch 85% des Taktes beibehalten, was aber auch nur in MAX. 50% Mehrleistung (realistisch eher 40%) vs. Single resultiert, bei weiterhin doppeltem Preis. Das könnte man nV sogar noch zutrauen (wenn auch nicht käuflich, sondern nur als Papiertiger um die theoretische Performancekrone um jeden Preis zu bekommen), aber wirtschaftlich wäre das absolut nicht.


Daher wage ich doch SEHR zu bezweifeln, dass wir eine GT300-Dualkarte tatsächlich in den nächsten 6 Monaten zu Gesicht bekommen, wenn überhaupt jemals ohne Shrink.

Evtl. überrascht uns nV aber nat. auch mit einem Quad-Slot-Monster mit
2x8 + 2x6 Pin Anschlüssen (was immernoch weniger Reserve wäre als die 8+6 der Einzelkarte) :fresse:


Grüße,
Mr.Malik
 
Zuletzt bearbeitet:
dir is schon klar das der G200 und auch b in der revision A2 kam, also nix mit revision 3, du spekuleirst alels negativ in richtung nv kann nix, möchtest dich nicht bisserl im ati fred tummeln ?
 
Darf hier nur positiv spekuliert werden? :fresse:
Nagut, die Karte wird bis zum Weinachtsgeschäft fertig, beide Lager unterbieten sich täglich mit den Preisen und ich such mir die für mich am besten geeignete aus :bigok:
 
Darf hier nur positiv spekuliert werden? :fresse:
Nagut, die Karte wird bis zum Weinachtsgeschäft fertig, beide Lager unterbieten sich täglich mit den Preisen und ich such mir die für mich am besten geeignete aus :bigok:

das nicht aber einige atiler toben sich hier gerne aus ,legen alels negativ aus und spielen hier gerne den troll
 
das nicht aber einige atiler toben sich hier gerne aus ,legen alels negativ aus und spielen hier gerne den troll

gibt es genauso andersrum... macht die sache nicht besser, aber ganz sicher nicht einseitig.
 
das nicht aber einige atiler toben sich hier gerne aus ,legen alels negativ aus und spielen hier gerne den troll

naja, aber endlich mal wer, der denkt und kein fanboy gebrabbel von sich läßt. ich find die überlegungen gut und die machen sogar durchaus sinn und sowas sag ich als NV anhänger.

sowas gibts auch in dieser schwarz/weiss welt.
 
Ich versuche nach bestem Wissen und Gewissen objektiv zu spekulieren, dass das zufällig mit "alles negativ in Richtung nV kann nix" übereinstimmt ist nicht meine Schuld ;) Aber ein bisschen Zynismus lässt sich nunmal nicht ganz verstecken, wenn man nV schon seit dem Riva128 (hatte ich mehrere Jahre, in Kombination mit ner VooDoo :hail: ) kennt, incl. vieler Hintergründe (z.B. dass sie 3dfx aufgekauft haben :heul: , und dass sie genau wie Intel oder EA übelst Arrogant sind).

Und ja, bisher war meistens A2 das erste Produktionsstepping, allerdings war bisher wohl auch kein Herstellungsprozess so problematisch, und keine Yield derart schlecht. Auch die Tatsache, dass es immernoch nichtmal Karten mit GT216 oder GT218, im Vergleich winzigen 40nm Chips mit 16 bzw. 48 SPs für 40€ und 60€ im Retailmarkt zu kaufen gibt, die sogar fast nur ein Shrink einer bekannten Architektur (+DX10.1) sind, und man schon längst nichts mehr von GT215 oder gar GT212 hört, deutet nicht gerade darauf hin, dass sich das bis jetzt signifikant geändert hat.


Ausserdem ist an Fermi keineswegs alles negativ, "jetzt" schon volles ECC zu haben, und vor allen Dingen C++ Support, ist schon beeindruckend.
All diese Veränderungen zielen bloß einfach nicht auf den Gamermarkt ab, sondern auf den (bisher allerdings noch sehr kleinen, weil zu speziellen) cGPU Markt. Dass nV selbst das sogar so sagt, unterstreicht das ganze nochmal deutlich.

Es gab vor ein paar Jahren (vllt., als die ersten Gedanken Richtung Fermi gehegt wurden?) sogar mal die Meldung, dass nVidia sich aus dem High-End-Grafikkartenmarkt gänzlich zurückziehen will - ich weiß leider nicht mehr, wie offiziell diese Nachricht war, und danach habe ich auch nie mehr davon gehört. Aber momentan sieht es glatt so aus, als würden sie das tats. wahrmachen wollen (was ich pers. zutiefst bedauern würde, da ich die Zeit für Realtime-Raytracing noch nicht gekommen sehe, wo sie sicher wieder konkurrieren könnten).

Glaub mir, ich kann mir auch nichts besseres vorstellen, als dass nV gute Yields hat, Fermi in Games rocken wird und sehr bald rauskommt, aber momentan spricht halt ALLES dagegen, was man so hört. Ja, das sind nat. auch alles nur Gerüchte, aber ausser einer gefälschten Karte und "lauter Krams" der mit Spielen nix am Hut hat (und auch nichts haben soll), hat man nunmal einfach noch nichts offizielles gehört. Nichtmal Gerüchte (wie irgendwelche unbewiesenen Schwanzmarkwerte, Handyfotos einer vermeintlichen Karte o.Ä.) die darauf schliessen lassen, dass es wenigstens schon einen funktionstüchtigen Prototypen ausserhalb des nV Heiligtums gibt.

Übrigens hat Charlie Demerjian (der scheinbar noch weit mehr Hintergründe über nV kennt als ich, und dementsprechend noch viel zynischer ist) schon am 15. September vorausgesagt, was bei der GTC passieren wird:

Charlie schrieb:
It is going to be very interesting to see what Nvidia shows off at 'Not Nvision' in a couple of weeks. Will it give the parts to the engineers to work on, or show them off as a PR stunt? We will know soon enough. In any case, the yields as they stand are sub-2%, and the status of the GT300 is far worse than we had ever imagined.

Offensichtlich hat nV sich vernünftigerweise für die erste Möglichkeit entschieden, weshalb sie aber keine vorzeigbare Karte hatten. Den Rest der Story kennen wir... :rolleyes:


Ich bleibe dabei, dieses Jahr werden wir IMHO keinen GT300 mehr kaufen können. Und das tut auch mir weh, festzustellen. Ich habe 2560x1600 Pixel zu beschleunigen, da kann man nie genug Leistung haben. Und ich würde auch sehr gerne noch je einen 20"er Senkrecht neben meinen Monitor stellen (Eyefinity), um bei Rennsimulationen ein noch geileres Spielgefühl zu bekommen (da stören die Rahmen denke ich auch nicht so, ist dann halt die A-Säule :d ), aber bei den momentanen Preisen für die 5870 scheue ich das noch. Die Monitore würden gebraucht sogar nur gut 200€ zusammen kosten (obwohl auch S-IPS), und meine Bildfläche fast nochmal verdoppeln. Aber bei 4960x1600 Pixeln halte ich eine 5850 nicht unbedingt für ausreichend. 330€ für ne GraKa finde ich aber auch unökonomisch, also liegt der Plan erstmal auf Eis, bis der Konkurrenzdruck die Preise fallen lässt. Und mittelfristig kann diese Konkurrenz nunmal nur von nV kommen.

Sich einzubilden, dass AMD brav die Preise regelmäßig stark senkt und mit dem gleichen Druck neue Generationen raushaut, braucht man sich da auch nicht. Die können das ganz gut gebrauchen. Dann wird am Grafikmarkt schön der Reibach gemacht (Performance-, Mainstream- und Budgetkarten folgen ja auch sehr bald), und sich erstmal wieder auf die Prozessorforschung konzentriert.

Also nVidia, kriegt euren Arsch hoch! :motz:


Grüße,
Mr.Malik

p.s.: @Flaggschiff: Danke :wink: Richtig so, ambivalent denken!:bigok:
p.p.s: Gott, was ein Roman das wieder geworden ist :stupid:
 
Zuletzt bearbeitet:
Charlie würde ich wirklich nicht als Quelle für Informationen über NV nutzen, da gibt es genug Gründe für, wie zB vermutliche Gehaltslisten auf denen er steht.

Beim Rest muss ich dir aber vollkommen zustimmen. Es wäre schön wenn NV dieses Jahr noch den neuen Chip bringt, im Moment sieht es aber mehr nach 2010 aus.

Das NV sich aus dem High-End Markt zurück zieht glaube ich nicht. Zwar hat ATI sich ja schon aus dem Enthusiast Markt mit Singlechiplösungen zurückgezogen (Wie wir an NV sehen ist die Entwicklung nicht einfach, die Produktion schwierig und die Yields niedrig), aber ich denke nicht das NV den gleichen Weg geht solange man Multigpus nicht ohne Einschränkungen nutzen kann.

Oder NV macht es wie mit 3Dfx und drücken sie über die Entwicklung an die Wand^^, allerdings hat ATI ja schon bewiesen das sie dort ohne Probleme Schritthalten können, bzw durch ihre einfacheren Chips bei der Entwicklung wie jetzt beim RV8xx auch schneller sind/sein können.

Also, abwarten was die nächsten 2 Monate so passiert, in jenen sollte man erfahren wie es um den FErmi so steht und ob er wirklich noch dieses Jahr den Markt erreicht.
 
So, fassen wir mal kurz alle bekannten technischen Details zusammen.

Fertigungsprozess: 40nm TSMC
Transistormenge: ~ 3.0 Mrd.
ROP Taktrate (lauffähige Testsamples): 650 MHz
Shaderdomäne (lauffähige Testsamples): 1700 MHz
VRAM Taktrate (lauffähige Testsamples): 1000 MHz GDDR5
Speicherinterface: 384 Bit
Unified Shader (CUDA Cores; Single Precision): 512 (1D)
Unified Shader (CUDA Cores; Double Precision): 256
TMUs/TAUs: 128
ROPs: 48


Wenn die 1700 MHz final sind, käme man, falls die Techreport Rechnung stimmt so auf 1740 GFlops - was zwar nicht der Hammer wäre, aber ingame Sicher nich schickt, um maximal 40% flotter als der RV870 zu sein.

Die finalen Taktraten werden sicher bei 700/1700/1100 MHz liegen - denk ich mal. Zusammen mit der höheren Leistung pro Takt als ATi sollte man also die Single GPU Krone inne haben - von Double Precision mal ganz zu schweigen.

MfG
Edge
 
Zuletzt bearbeitet:
Es sollen doch zum Start des G300 sollen 3 Karten kommen, wobei ich denke das es so aussehen könnte: GTX360, GTX 380, GTX 395

Das würde auch ein sinn ergeben, da NV druck machen muss gegenüber ATI.

Man beachte folgendes:

NV wäre ja dumm wen sie es so machen würde wie in diesen Bsp: Erst kommt ATI mit seiner 5870/5850 und 4 Monate Später kommt NV mit seiner GTX 360/380 und dann kommt ATI sofort mit ihrer 5870X2, ich glaube nicht das sich das NV gefallen lassen wird das ATI wieder die Krone auf hat!!
Deswegen gehe ich von ein Extrem Lunch aus, das heist NV schickt alle Karten gleichzeitig raus!

Man beachte auch folgendes:

NV hat extremen Zeitdruck und hingen hinter her, was ja folgendes beweist, um NV Kunden zu halten um ihnen Mut zu machen haben sie diesen Fermi Dummi gebaut mit alle NV Freunde denken ja geil bald kommt sie, aber das ging ja leider nach hinten los,die ganze Welt weis jetzt das es nur ein Dummi wahr. Und NV sagt selber sie haben noch keine fertige Verkaufsfähige Version des GTX3XX, was sie bisher haben ist nur ein Version wo überall die Gabel raushängen und noch weit vom G3XX draußen ist.
Und NV hatte auch nie damit gerechnet das ATI so Stark werden würde, das bestätigt meine folgende These, da sie die GTX395 sofort raus bringen wollen.

Ich denke jetzt folgendes:

GTX360 5%-10% Langsamer als 5870
GTX380 10%-15% schneller als 5870
GTX395 10%-20% schneller als 5870X2

Mehr wird es nicht werden.
 
Charlie ist zwar wirklich ein Zyniker wenns um Nvidia geht. Aber es ist schon
so das er verdammt oft richtig liegt. Das muss man ihm lassen.
Was da so abglaufen ist mit dem Fermi hat er vorausgesagt und es traf bisher zu.
Bin mal gespannt ob er hier auch recht hat.
http://www.semiaccurate.com/2009/08/13/gt300-have-nvio-chip/

Wenn er recht hat sollte man vielleicht mal an bessere Kühlung denken diese Lüfter sollten auch diese GPU dann gut kühlen können.;)
http://www.youtube.com/watch?v=YfXF161Ov50
 
Zuletzt bearbeitet:
naja aber die karte besteht ja nicht nur aus dem chip! 30$ unterschiede...mmh. dafür braucht man z.b. um die gleiche speicherbandbreite zu erhalten langsameren ddr5 speicher als die konkurenz> sparpotential..ok dafür ist das pcb dann wieder aufwendiger.... selbst wenn aus den 30$ beim endkunden 100€ werden würde man die karte noch gut am markt plazieren können. dann wär man bei um die 450€. persöhlich rechne ich aber eher mit 550-600 eure für die topline.
 
550-600€ wären aber böse. Dazu müsste sie aber schon mind. Doppelt so schnell wie ATIs aktuelles Modell sein.

Mal kucken was kommt. Vielleicht kaufe ich dann nächstes Jahr doch wieder ne Graka wenn mal wieder ein Spiel gibt was mich vom Hocker haut.
 
wie kommt ihr darauf das eine GTX395 kommt? die 5 am ende deutet auf dem 55nm Refresh hin & warum soll die GTX360 langsammer als die 5870 sein? ich denke die GTX360 wird 15-20% vor der 5870 liegen und die GTX380 wird 35-40% Vor der 5870 liegen. Die Dual Karte sollte GTX390 oder 400 heißen.

Preisvorstellung
GTS350: 200-250€
GTX360: 380-420 €
GTX380: 550-650 €
GTX390: 900-1000 €
 
Zuletzt bearbeitet:
900-1000,- für eine Karte aus Massenproduktion :d sicher nicht ;)

Die Mars hatte diesen Preis, extrem limitiert..

Die Dual-Karte wird einfach später kommen, wenn der Preis der Single-Karten bereits gesunken ist.. dann eben wieder für 500-600,-

Aber sehr Hart das wir hier schon wieder über solche Preise reden, ich wüsste nicht wie sich nVidia das erlauben können soll. Die Karte müsste wirklich annähernd doppelt so schnell sein wie die stärkste Single von AMD, was ich an dieser Stelle mal stark bezweifle!
 
Wenn GTX380 aber wirklich mal wieder 550Euro + kostet, dann muss sie deutlich schneller sein, als ne 5870, wenn nicht mindestens 50%! Weil sonst kauf ich mir für 500Euro ca. zwei 5870er.....

Ich bin mal gespannt!
 
900-1000,- für eine Karte aus Massenproduktion :d sicher nicht ;)

Die Mars hatte diesen Preis, extrem limitiert..

Die Dual-Karte wird einfach später kommen, wenn der Preis der Single-Karten bereits gesunken ist.. dann eben wieder für 500-600,-

Aber sehr Hart das wir hier schon wieder über solche Preise reden, ich wüsste nicht wie sich nVidia das erlauben können soll. Die Karte müsste wirklich annähernd doppelt so schnell sein wie die stärkste Single von AMD, was ich an dieser Stelle mal stark bezweifle!

wenn da der "volle" g300 drauf verbaut werden soll..muss sicher extrem selektiert werden qausi auch limitiert;) halte die preis für durchaus realistisch. und ob die leute 2x500€+ für zwei karten ausgeben im sli oder gleich für eine 900-1000 ist doch gleich. vermarkten kann man das ganze ja dann als singel pcb supercomputer damit der preis und die leistungsaufnahme nicht ganz so abschrecken:d
 
naja aber die karte besteht ja nicht nur aus dem chip! 30$ unterschiede...mmh. dafür braucht man z.b. um die gleiche speicherbandbreite zu erhalten langsameren ddr5 speicher als die konkurenz> sparpotential..ok dafür ist das pcb dann wieder aufwendiger.... selbst wenn aus den 30$ beim endkunden 100€ werden würde man die karte noch gut am markt plazieren können. dann wär man bei um die 450€. persöhlich rechne ich aber eher mit 550-600 eure für die topline.

Ob die Zahlen von SemiAccurate stimmen lasse ich mal dahingestellt, aber bei deiner Rechnung hast du einen sehr wichtigen Punkt vergessen. Entwicklungs- und Forschungskosten. Deiner Rechnung zufolge würde der Endpreis einer Grafikkarte nur von den reinen Fertigungskosten abhängen, dies ist jedoch in Wirklichkeit nur ein sehr kleiner Betrag und der deutlich größere sind eben jene Entwicklungs- und Forschungskosten. Zur genauen Betrachtung welche Karte letztenendes günstiger produziert und somit auch verkauft werden kann, müsste man die Gesamtkosten aus Fertigungs- und Entwicklungskosten, als auch verschiedene andere Kosten wie z.B. Werbungskosten etc kennen. Da diese Zahlen aber wohl nur dem jeweiligen Unternehmen bekannt sind, kann man die Profitablität letztenendes nur schätzen und evtl. teilweise noch von den Quartalszahlen der betreffenden Sparte ablesen.

wie kommt ihr darauf das eine GTX395 kommt? die 5 am ende deutet auf dem 55nm Refresh hin & warum soll die GTX360 langsammer als die 5870 sein? ich denke die GTX360 wird 15-20% vor der 5870 liegen und die GTX380 wird 35-40% Vor der 5870 liegen. Die Dual Karte sollte GTX390 oder 400 heißen.

Preisvorstellung
GTS350: 200-250€
GTX360: 380-420 €
GTX380: 550-650 €
GTX390: 900-1000 €

Eine 900-1000 Euro Grafikkarte in großer Massenproduktion für den Gamerbereich kann ich mir beim besten Willen nicht vorstellen. Dafür ist der Markt, welcher im Highend-Bereich sowieso schon klein ist, einfach viel zu klein. Quadro und Tesla Karten wird es in dieser Preiskategorie aber mit Sicherheit geben.
 
Zuletzt bearbeitet:
Ob die Zahlen von SemiAccurate stimmen lasse ich mal dahingestellt, aber bei deiner Rechnung hast du einen sehr wichtigen Punkt vergessen. Entwicklungs- und Forschungskosten. Deiner Rechnung zufolge würde der Endpreis einer Grafikkarte nur von den reinen Fertigungskosten abhängen, dies ist jedoch in Wirklichkeit nur ein sehr kleiner Betrag und der deutlich größere sind eben jene Entwicklungs- und Forschungskosten. Zur genauen Betrachtung welche Karte letztenendes günstiger produziert und somit auch verkauft werden kann, müsste man die Gesamtkosten aus Fertigungs- und Entwicklungskosten, als auch verschiedene andere Kosten wie z.B. Werbungskosten etc kennen. Da diese Zahlen aber wohl nur dem jeweiligen Unternehmen bekannt sind, kann man die Profitablität letztenendes nur schätzen und evtl. teilweise noch von den Quartalszahlen der betreffenden Sparte ablesen.

Eben. UNd der RV 870 war wohl relativ billig entwickelt, denn erste samples der karten waren schin monate vor dem release bei den entwicklern in den studios. Der fermi hingegen war wohl sehr teuer. 3 jahre entwicklung, insgesamt mehr als 3000 leute. DA wird man erstmal einieges an geld wieder einspieln müssen. ATI ist da im vorteil.

Eine 900-1000 Euro Grafikkarte in großer Massenproduktion für den Gamerbereich kann ich mir beim besten Willen nicht vorstellen. Dafür ist der Markt, welcher im Highend-Bereich sowieso schon klein ist, einfach viel zu klein. Quadro und Tesla Karten wird es in dieser Preiskategorie aber mit Sicherheit geben.


Ja glaube ich auch. Wobei man imer ein paar bekloppte findet die jeden preis zahlen. :wink:
 
Prinz| das ist mir auch bewusst aber wir haben ja nunmal keinen anderen anhalt.
und egal wie hoch der entwicklungsaufwand war..in der laufenden produktion muss man dann gewinne einfahren..und je mehr desto schneller baut man den entwicklungskostenberg ab. wenn der konkurent aber so günstig am markt plaziert ist das man garnicht kostendeckend produzieren kann...es geht ja darum in etwa zu schätzen wie die karten mindestens preislich am markt plaziert werden müssen um nicht noch mit der produktion ins minus zu laufen.

ich denke auch das, bei dem jetzigem wechsel der entwicklungsaufwand/kosten des g300 deutlich höher gewesen sein dürften als beim ati step up.
 
Zuletzt bearbeitet:
Ihr müsst euch überlegen dass die Entwicklungskosten für Fermi nicht nur über Gamerkarten wieder rein kommen müssen.
Die TESLA-Karten lässt sich NV ordentlich bezahlen und die Quadros sind auch alles andere als geschenkt.

Und grad im professionellen Bereich dürfte NV gegenüber AMD die Nase vorn haben.
In Sachen Tesla haben sie aktuell ohnehin eine Monopolstellung weil AMD nichts ähnliches anbietet.

Natürlich muss man die Chips auf den Gamerkarten trotzdem Herstellungskostendeckend verkaufen können.
 
Man jedesmal, wenn ich hier rein gucke, kriege ich Angst. Gibt es denn nicht ein paar positive Gerüchte, es wird ja mit jeder Seite immer schlimmer? Freut mich zwar für AMD, dass ihre Karte so gut geworden ist, aber ich dachte NV legt mal nach, aber wenn ich hier so die letzten Postings verfolge. *würg* Los grabt mal einen 300er Bench aus, bei dem er die 5870 in stücke zerreißt. :d
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh