nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
ohja das stimmt. wären die Hd4XXX nicht so gute Karten gewesen, wäre der Preis der G200 Karten nun immer noch sehr, sehr hoch. aber zumglück ist das nicht so. Hoffe auch das die neuen HD5XXX wieder gute Karten werden damit die nvidias nicht zu hoch im Preis sind.

Ich hoffe nur das nVidia ausreichende Stückzahlen liefern kann, bei AMD dürfte das kein Prob darstellen...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Du schreibst es schon: der R600 sollte der Nachfolger der X19xx Serie werden, und diese war zu der Zeit vor dem R600 nun mal sehr gut. Ich nenne mal ein Beispiel damit du verstehst was ich meine: wenn Porsche ankommt und sagt, wir bauen einen Nachfolger vom Cayenne (der zu der Zeit einfach Top ist/ob er es tatsächlich ist sei mal dahin gestellt), dann wird einfach erwartet, dass der Nachfolger mindestens auf dem selben Niveau ist!

Nehmen wir mal an, es geht etwas in der Entwicklung schief und das Fahrwerk sowie der Motor sind absoluter Schrott. Nun gehst du zu Porsche und willst dir den Nachfolger kaufen. Dort erzählt dir dann der Verkäufer, dass man das gar nicht so sehen kann, dass der neue Cayenne nun so einen schlechten Motor und Fahrwerk hat, weil Porsche nie behauptet hat, der Nachfolger wird min. so gut wie das "alte" Modell.

Du vergisst bei der These, das ein R600 in der XT Version ca. fast doppelt so schnell war/ist wie damals ne X1900XT (im Schnitt gesehen)
klar gibt es Ausnahmen, aber die gibt es überall. Gothic 3 wäre da zum Beispiel ein Kandidat für.
Aber es bleibt auch hier wieder zu erwähnen, deine Erwartungshaltung war scheinbar viel zu hoch, weil du dich von irgendwelchen Spekulationen blenden lassen hast...

Verstehst du worauf ich hinaus will? Im Prinzip hat so ziemlich jeder erwartet, dass der Nachfolger der recht erfolgreichen X19xx Serie auch ein Erfolg wird. Es ist mir durchaus klar, dass AMD sich vorher bedeckt hielt, weil sie nicht wussten wie die Leistung der Karte nun tatsächlich aussieht.
Aber als sie erste brauchbare Infos hatten (hinter verschlossner Tür), wussten sie schon, dass etwas schief gelaufen ist. Ein Hersteller, der sieht, dass sein Produkt super geworden ist, lässt u.U. einige Samples bewusst in den Markt kommen um zu zeigen, was er geleistet hat (C2D damals).
Neja das ist so ne Sache, vom R600 gabs auch im Januar schon Fotos bzw. Testsamples, da gabs sogar Monate vor Release Karten bei Ebay...
Gibt sogar Leute hier im Forum, welche derartige Karten besitzen, sprich mit Vorserienstepping und dem langen Kühler hinten dran.

Schlussendlich bleibt aber wiederum nur zu erwähnen, der Endkunde kann nur nakte Zahlen betrachten, und hier gibt es nirgends Rückschlüsse, das AMD wirklich gewollt hat, HighEnd zu bauen.
Mit Sicherheit wollten sie so gut wie irgend möglich dastehen, aber es weis keiner, ob sie nicht gekonnt hätten, wenn sie gewollt hätten ;)
Und das ist der Springende Punkt, du gehst einfach davon aus, die hätten das versemmelt, ohne das du weist, was da abgelaufen ist...

AMD wird sicherlich auch nicht so blauäugig sein und schon vorher behaupten, dass sie nun eine Karte auf den Markt bringen, die leistungsmäßig über der von ihrem Konkurrenten liegt. Erstens können sie das nicht (weil sie die Leistung der neuen Karte noch nicht kennen) und zweitens werden sie sich ja nicht festlegen und falls es hinterher schief geht (wie beim R600), kann keiner behaupten, man hätte ja gesagt es wird High-End.
Na das sag ich doch die ganze Zeit, die Karte wurde nie als HighEnd beworben...

ich denek jedem logisch denkenden erschliesst sich deine argumentation, ATI wollte High end, der chip wurde versiebt und dann hat man eben aud P/l gemacht, was sicherlcih nicht verkehrt war, nur ist es blödsinn zu behaupten die wollten damals gelcih nur ne P/l karte entwickeln, vor allem das der chip damalas noch nicht wie heute aufs geld sparen ausgelegt war...
Auch hier, das ist deine Meinung der Dinge, aber auch nur deine Meinung, das sie auf biegen und brechen HighEnd wollten, wie NV das derzeit veranstaltet, kannst du nicht behaupten, einfach weil es dazu keine Fakten gibt.
Nüchtern betrachtet ist der R600 der Technologievorreiter für die folgenden Generationen, bei dem es darum ging, die Architektur zu testen und zu sehen, was damit zu machen ist.
Alle Karten vom R300 an bis zum R580+ basieren auf nem aufgeborten R300.
Nun mit dem R600 basieren alle kommenden Karten auf diesem eben...

NVIDIA hat auch mal mit der FX 5xxx serie mist gebaut, aber aufgehört absolute high end karten zu bauen haben sie nie, das ist auch das modell von NV UND intel, der ruf der schnellste zu sein verkaufte den rest noch mi
t, marketing ist alles und das hat nv drauf wie intel ;), amd war da leider schon immer nichso pralle...

Spätestens hier solltest du doch selbst merken, das AMD gar nicht bestrebt ist, absolutes HighEnd zu bauen!? Irgendwann hats bei dehnen halt klick gemacht, ich denke mal das kam nach der Übernahme von ATI, wo mehr oder weniger AMD dann das sagen hatte was läuft und was nicht...
Seit dem Konzentriert man sich auf P/L, weil damit deutlich mehr Geld zu holen ist.

Über Marketingtechnische hast aber recht, hier war/ist ATI damals genau so wie AMD heute noch äußerst nachholebedürftig.
Selbst die meilenweit bessere R580+ GPU verkaufte sich schlechter als die G71er GPUs.

oder eben ati, das nur aufbohren und billig um jeden preis manchma eben nich reichen kann, we will see ;)

Das macht NV mindestens genau so...
Von G80 zu G92 zu G200 und bedingt auch noch zum G300 ist alles eine Suppe, gleichsam vorher basierten alle NV GPUs vor dem G80 auf den Erfahrungen mit der Geforce FX Reihe...

Aber was ist verkehrt dran? Solange die Architektur das hält, was sie verspricht, ist das doch vollkommen OK. Billig um jeden Preis hat damit auch nix zu tun... Wozu unnötig teuer bauen, wenns auch deutlich günstiger aber nur unwesentlich langsamer geht? Das ist halt Wirtschaftlicher...

Wie gesagt, der Größte Nachteil von NV ist seit dem G80, das sie die kleine Karte, welche in der Region der Top AMD Karte liegt, auch mit dem Top Chip bauen und ihn teildeaktivieren. Das kostet unnötig Ressourcen.

Und wie Wiz schon sagt, die G200er sind Top Karten, aber sie müssten eigentlich mehr kosten um wirtschaftlich zu sein...
Bestätigte Zahlen von NV Boardpartnern räumten vor einigen Wochen sogar ein, das NV mit jeder verkauften 260GTX sogar verlust einfährt, weil der Verkaufspreis niedriger als die Produktions und Vermarktungskosten ist.
Bei AMD hingegen ist noch Gewinn drin ;)

Wer hat da nun die bessere Arbeit geleistet?

Nur mal blöde gesagt, es wäre für NV wirtschaftlicher gewesen, die 280er GTX stecken zu lassen und stattdessen gleich nur ne native 260GTX zu bringen ;) Das hätte ne ganze Ecke Kosten gespart in der Produktion...
Aber der gleiche Fehler wie beim G200 bahnt sich beim G300 wieder an. Ich gehe wiederum von ner Top Karte ala 380GTX aus und nem kleineren 360er GTX Modell, welches Teildeaktiviert ist...

BTT:
Die Angabe von 3TFlops sagt leider bei ner Grafikkarte kaum was aus. Schön zu sehen an der jetzigen Situation zwischen NV und ATI, obwohl die ATI Chips mehr Flops liefern sind sie am Ende doch langsamer als ihre NV Pendanten.

Kommt auf die Anwendung drauf an und den Einsatzzweck, hier werden sicher größtenteils Gamer rumschwirren...
Im Profibereich zählt derartiges aber überhaupt nicht, GPGPU und andere Sachen kann die AMD Karte dank deutlich schnellerer Shader besser ;)
 
Ich hoffe nur das nVidia ausreichende Stückzahlen liefern kann, bei AMD dürfte das kein Prob darstellen...

Da ich sowieso erst 2010 auf ne dx 11 umrüsten werde, denke ich ist es da dann kein problem das ich ne dx11 Gk bekommen werde^^ entweder im Sommer dann oder eben doch ein wenig später.
 
Da ich sowieso erst 2010 auf ne dx 11 umrüsten werde, denke ich ist es da dann kein problem das ich ne dx11 Gk bekommen werde^^ entweder im Sommer dann oder eben doch ein wenig später.

Ich brauch ne neue Granka möglichst bald, meine 4870 mit 512MB VRAM geht leider oft der Speicher aus:(
 
Der G300 is auch keine Neuentwicklung...

Stimmt, aber warum sollte auch eine der beiden Karten eine sein? DX11 ist das Maß der Dinge, alles was darüber hinaus an Features geboten wird die nicht zu mehr Geschwindigkeit führen oder zu einer einfacheren Programmierung erzeugt keinen Nutzen.

Wie die MIMD Einheiten des G300 zu bewerten sind bleibt abzuwarten.
 
Zuletzt bearbeitet:
Denkt ihr wir werden dann bei den Singlegrafikkarten schon öfter die 2GB V-Ram sehen ?

Momentan gibt es ja bei den aktuellen Modellen einige wenige "Ausreißer" die vom Referenzdesign abweichen und auf 2GB setzen.
 
Denkt ihr wir werden dann bei den Singlegrafikkarten schon öfter die 2GB V-Ram sehen ?

Momentan gibt es ja bei den aktuellen Modellen einige wenige "Ausreißer" die vom Referenzdesign abweichen und auf 2GB setzen.

Ich denke mal schon, allerdings wohl noch nicht als Standard beim High-End.
Bestimmt werden wir auch nächstes oder übernächstes Jahr die 4GB Mauer fallen sehen.
 
Die 2GB Versionen machen imho aktuell nur wirklichen Sinn für SLI/CF Gespanne...
Ansonsten reichen 1GB VRam eigentlich aus, ein sinnvoller Schritt in die Zukunft wäre vllt sogar der Weg zu 1,5GB Sprich 384Bit SI.
Aber NV will ja scheinbar mit nem 512Bit SI punkten und somit wären da auch nur 1 oder 2GB machbar ;)
Bei AMD hingegen könnte da vllt sogar was passieren... soweit ich weis, wollen die noch kein 512Bit SI haben ;)
 
Denkt ihr wir werden dann bei den Singlegrafikkarten schon öfter die 2GB V-Ram sehen ?

Momentan gibt es ja bei den aktuellen Modellen einige wenige "Ausreißer" die vom Referenzdesign abweichen und auf 2GB setzen.

Wäre Wünschenswert, dann hätte man länger Ruhe:bigok:
 
Ja, da wird die Performance aber auch aufgrund der hohen Rechenlast schlecht, Speicher hin oder her. ;)
 
Ich bin mir sicher, dass zumindest NVidia in diesem Jahr die GTX 380 (wenn 512 Bit SI verwendet wird) schon 2 GB GDDR5 verwenden wird. Eine GTX 360 wird,
sofern sie mit 448 Bit SI betrieben wird, mit maximal 1,792 GB VRAM kommen.

Mehr als 1 GB VRAM sollten die nächsten High End Karten schon von Haus aus haben.
Frühstens im nächsten Jahr (spätestens 2011) werden wir vielleicht schon die ersten Karten der etwas überarbeiteten Hersteller Karten mit 3,6 GB oder 4 GB VRAM sehen
(siehe GTX 260 /275 heute mit 1,792 GB oder GTX 285 2 GB heute - oder auch HD 4870 1 GB / 2 GB und HD 4890 2 GB).


Ja, da wird die Performance aber auch aufgrund der hohen Rechenlast schlecht, Speicher hin oder her. ;)

Das ist zumindest bei der aktuellen Generation so - bei der nächsten Gen könnte dank - zumindest theoretisch deutlich höherer Rechenleistung -
mehr VRAM schon die Grenze zwischen bedingt- und flüssig spielbar darstellen (hat natürlich auch seine Grenzen, also 2560x1600 und etwa hohes SSAA
oder ähnliche leistungsfressende Modi, werden, mit einer Single GPU, weiterhin bescheiden laufen - wir werden es sehen, in wie weit die Leistung hier in
praxisrelevanten Anwendungen gesteigert werden konnte.

MfG
Edge
 
Zuletzt bearbeitet:
Der Preis ging nur herunter weil nVidia nicht mit so ner starken HD4870 / 4850 gerechnet hat. Siehe GTX280, die nach ner Woche weit über 100€ im Preis gesunken ist.

@GA-Thrawn

Der G300 is auch keine Neuentwicklung...

Wie du in meine post siehst habe ich das gleiche geschrieben,ganz durch lesesn ;)
 
Man darf nicht vergessen das sich einige Programmierer in der Spielebranche schon öfter über das Hinderniss des zu kleinen VRams bei aktuellen Karten beschwert haben.

Un wozu sollte man Texturen etc erschaffen die VRam lastig sind wenn es keinen gibt der das nutzen kann. Logischer Weise wird es also kaum Anwendungen geben die mehr als 1GB ausnutzen können.
 
NV sagt zu dem thema garnix, ich pers rechne mit einem weiteren SChock für AMD alla G80....
Da rechnest du aber womöglich falsch. ;) Das kann man mit ziemlicher Wahrscheinlichkeit sagen. nVidia wird übrigens auch nur eine aufgebohrte Architektur bringen. Das lässt sich anhand der Fläche/Transistor Relation gut ableiten. Allerdings werden und müssen sie an den Shadern etwas mehr ändern, um wieder konkurrenzfähiger zu werden. Dir mag das vielleicht nicht bewusst sein, aber nVidia hinkt da technologisch momentan hinterher.
Ausserdem haben wir hier andere Vorzeichen. Der G80 wurde ein halbes Jahr vor dem R600 gelauncht. Diesmal wird nVidia wohl eher 3-6 Monate nach AMD die neue Generation launchen.
Eine komplett neue Architektur gibt es bei ATI nach bisherigen Infos übrigens erst mit dem RV9xx. Vorher würde ich bei nVidia damit auch nicht rechnen.

... nachdem man gemerkt hat, dass der R600 leistungstechnisch nicht mithalten kann. Eigentlich war der R600 ursprünglich als High-End Variante geplant.
Soweit ich mich erinnern kann, war lediglich die HD 2900 XTX als High-End Variante geplant. Die gab es ja bekanntlich nicht, lediglich die XT.
Man sollte aber nicht soweit zurückblicken. Die aktuelle Situation lässt sich kaum noch damit vergleichen.
 
Soweit ich mich erinnern kann, war lediglich die HD 2900 XTX als High-End Variante geplant. Die gab es ja bekanntlich nicht, lediglich die XT.
Man sollte aber nicht soweit zurückblicken. Die aktuelle Situation lässt sich kaum noch damit vergleichen.

XT und XTX waren schon immer bei ATi Kürzel für High-End gewesen; so wurden diese Karten auch verkauft (preislich). Aber die Diskussion, ob der R600 nun ein Flopp war und ATi/AMD ihn deswegen als P/L bewarb oder nicht bring hier scheinbar nichts :(

Also in diesem Sinne btt ;)
 
Soweit ich mich erinnern kann, war lediglich die HD 2900 XTX als High-End Variante geplant. Die gab es ja bekanntlich nicht, lediglich die XT.
Man sollte aber nicht soweit zurückblicken. Die aktuelle Situation lässt sich kaum noch damit vergleichen.

Jupp so schauts aus, es gab laut inoffiziellen News eine damals noch X2800XTX genannte Karte, welche für den OEM Markt bestimmt war, und diesen Fullsize ATX Kühler hatte...
Hier im Forum gibts wie angesprochen Leute, welche derartige Karten daliegen haben. Ich glaub Stock Taktrate von 800-850MHz hatten die. Die Endfassung der 2900XT hatte 750MHz GPU Takt ;)
 
Klingt gut finde ich.

Man könnte sagen, dass sie den Chip wohl so beschneiden (bzw. evtl. teildefekte Chips) verwenden um auch den Entry bzw. Midrangemarkt abzudecken. Der defekte Bereich wird dann halt kategorisch deaktiviert.

D.h. es könnte wieder eine 380 GTX kommen, eine 360 GTX und evtl. noch 2 kleinere Karten.

Bin sehr gespannt!

Wenn nichts schief läuft könnte laut der obigen News ein Release im Oktober möglich sein ?

Wäre das göttlich...:bigok:

Dann könnte ich mir fast den Ausflug ins HD5000er Lager sparen.

Mal schauen :)
 
Zuletzt bearbeitet:
Also an ein Erscheinen im Okt. glaub ich nicht. Ich hab mal irgendwo gelesen, dass vom "Tape-Out" bis zum Release ca. 100 Tage vergehen.
 
Ja, mal lieber von Dezember oder so ausgehen...

Dann wird man nicht enttäuscht.

Und solange kann man immernoch die HD5000er Serie durchtesten :) :bigok:
 
Klingt gut finde ich.

Man könnte sagen, dass sie den Chip wohl so beschneiden (bzw. evtl. teildefekte Chips) verwenden um auch den Entry bzw. Midrangemarkt abzudecken. Der defekte Bereich wird dann halt kategorisch deaktiviert.

D.h. es könnte wieder eine 380 GTX kommen, eine 360 GTX und evtl. noch 2 kleinere Karten.

Bin sehr gespannt!

Wenn nichts schief läuft könnte laut der obigen News ein Release im Oktober möglich sein ?

Wäre das göttlich...:bigok:

Dann könnte ich mir fast den Ausflug ins HD5000er Lager sparen.

Mal schauen :)

Wenn es keine gute Yield-Rate gibt, haste dieses Jahr net mehr wie einen Paperlaunch;)
 
Das gilt aber nur, wenn im Design keine schweren Bugs lauern und der Produktionsprozess mit 40-Nanometer-Technik bei TSMC endlich auf nennenswerte Stückzahlen kommt.

Und wie es momentan aussieht, wird ein Hardlaunch dieses Jahr nichts mehr. Es sei denn, TSMC kann die Yield Rate über Nacht verbessern...
 
D.h. es könnte wieder eine 380 GTX kommen, eine 360 GTX und evtl. noch 2 kleinere Karten.

Bin sehr gespannt!

oder die knallen direkt ne 395er mit rein und noch ne 340er oder so. Wenn dem so ist, dann ist das Jahr lediglich ein Energiesparjahr geworden.
 
Eine GTX 395 ist ohne Refresh mit DIE - Shrink eigentlich nicht wirklich sinnvoll, deswegen wird so eine Karte sicherlich erst kommen,
nachdem ATi die HD 5870 X2 bringt, um die GTX 380 im Kampf um die Leistungskrone zu überholen.

Ich denke mal das Lineup wird in etwa wie folgt aussehen:

GTX 380
GTX 360
GTS 350 (beerbt GTS 250 aka 9800 GTX+)
GTS 340 (beerbt GTS 240 aka 9800 GT)

Eventuell lässt man eine "GTS" weg und bringt stattdessen noch eine Low - End a la GT100 Serie, etwa mit Namen G oder GT 3x0 .
 
Zuletzt bearbeitet:
ein durchaus logischer wie auch wirtschaftlicher schritt. aus "schrott" noch möglichst viel rausholen. besser kann man die kosten doch garnicht decken. nvidia weiß selbst das der gt300 dermaßen komplex ist das die ausbeute auf einen komplett funktionstüchtigen chip gering erscheint. der 40nm prozess von tsmc scheint nebenbei sicherlich auch ausschlaggebend zu sein. und bevor man pures geld in die tonne wirft baut man den chip so auf um bei defekt eins nach dem anderen auszuschalten. find ich ne bomben idee.

aber wie wird beschnitten? wie beim gt200 über die shadercluster?

ich nehm mal für die tabelle das namensshema von edgecrusher86



hab mal 2 versionen die mir glaubwürdig scheinen ausgedacht.

mit gddr5 wäre die leistung mit der kleinsten version vermutlich immernoch höher wie ne 280gtx. aber 50% bis zum topmodel einbüsen. ich glaube da nicht daran. für midrage wäre der chip in der massenproduktion (obwohl kastriert) immernoch zu teuer
 
Zuletzt bearbeitet:
Ich denke mal das Lineup wird in etwa wie folgt aussehen:

GTX 380
GTX 360
GTS 350 (beerbt GTS 250 aka 9800 GTX+)
GTS 340 (beerbt GTS 240 aka 9800 GT)

So etwas wie deine GTS 350/340 würde aber in Konkurenz zu den GTX 2xx Modellen stehen. Langsamer dürften sie nicht sein, dafür sind sie eigentlich zu teuer um so kastriert zu werden.

Ka was mit den drei Karten überhaupt passieren soll? Shrink? Auslaufen lassen?
Bisher dachte ich das sie erstmal unter den neuen Karten gut angesiedelt seien.
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh