nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hi Koebes,

Kannst du nicht auch mal dabei schreiben, was du im 1. Post updatest?
 
Hmm...vielleicht nvidia? Es sind doch noch nicht mal Infos draußen, was er überhaupt für Karten mit der GPU geben soll, geschweige denn, was die GPU dann für einen Verbauch hat, von daher ist es total verfrüht zu fragen, ob es eine Dual-GPU Karten geben wird.
 
Denke, nVidia wird sich mit ner GT212 basierten Dualgraka wieder zurückhalten, um dann auf ATI
zwecks Sicherung der Performance-Krone reagieren zu können.
 
Du meinst, sie lassen ATI erstmal den Vortritt, um sie dann wieder zu schlagen?
 
Das denke ich auch, denn wie wir alle wissen, bringt nV nun mit der GTX 295 erst wieder eine Dual Karte raus, nachdem die HD 4870 X2 die 9800 GX2 zersägt hat.

Solange ATi keine schnellere Dual - Lösung als die GTX 295 auf dem Markt bringt, wird es nV sicher erstmal bei den 40nm Single Karten belassen - spätestens jedoch wenn die "R800" mit 2 x RV870 kommt - wird man sich vorbereiten eine GT300 Dual - Lösung auf die Beine zu stellen - vielleicht auch erst, wenn es möglich ist, den GT300 auf ~ 32 nm zu shrinken,
da man hier mit Sicherheit an die 2.5 Mrd. Transistoren verbauen wird, wenn es so ein Monster Chip, evtl. mit GDDR5 + 512 Bit SI, wird -> sicherlich gute Abwärme.
 
Zuletzt bearbeitet:
Du meinst also mit dem GT212 werden die nichts auf die Beine stellen? Bis der geshrinkte GT300 draußen ist, vergeht aber bestimmt noch über 1 Jahr, meinst und ATI kommt bestimmt dann schon im Sommer mit einer neuen Dual-GPU Karte. Meinst du, die lassen sich so lange das Zepter aus der Hand reißen?
 
Nicht unbedingt - man könnte ja auch eine Dual GT212 als Zwischenlösung benutzen (vor dem GT300 Release) , um die R800 zu bekämpfen, denn ich glaube nicht, dass man bei 40nm eine GT300 Dual - Karte baut - es sei denn, man schafft es den Stromverbrauch und somit auch die Abwärme trotz Monsterchip extrem zu senken - auch der GT212 soll hier ja schon große Fortschritte machen.

Eventuell ist sich nV mit dem GT300 und dessen Leistungsvermögen so sicher (vergessen wir nicht, dass es sich um eine neue Architektur handeln wird -
der GT200 / 206 / 212 und co. basieren im Grunde ja noch auf dem G80 !), dass man erst wieder mit dem Shrink von diesem eine Dual - Lösung präsentiert.
 
Zuletzt bearbeitet:
Naja, es hatte sich so angehört, als wenn du davon ausgehst, dass erst mit dem GT300 erst wieder ein Dual-GPU Karte kommt. Aber was solls, so eine Karte würde ich mir ohnehin nie zulegen, von daher zählt für mich nur das was als Single-GPU rauskommt.

Ist aber schon interessant, was für einen lange Atem die Architektur des G80 hat, bis der GT300 erscheint, hat diese dann ungefähr 3 Jahre durchgehalten.
 
Naja, es hatte sich so angehört, als wenn du davon ausgehst, dass erst mit dem GT300 erst wieder ein Dual-GPU Karte kommt. Aber was solls, so eine Karte würde ich mir ohnehin nie zulegen, von daher zählt für mich nur das was als Single-GPU rauskommt.

Ist aber schon interessant, was für einen lange Atem die Architektur des G80 hat, bis der GT300 erscheint, hat diese dann ungefähr 3 Jahre durchgehalten.

Ja das stimmt - ich finde persöhnlich eine flotte Single GPU auch lieber - aber nun wird es bei mir dennoch zum ersten mal eine Dual - Lösung, da die Performance stimmt.


Ja, das stimmt - die G80 Architektur hat sich verdammt wacker geschlagen - war ja afaik auch nVs teuerste Investition (inkl. 4 Jahre Forschung) ever.
Ich dachte ja, dass die Architektur, nach dem Release des G92 ziemlich am Ende ist und nicht mehr viel in Sachen Performance geht - aber der GT200 lehrte uns eines besseren. :d

Aber nun (Ende 2009) wird es auch für nV Zeit, nach drei Jahren (inkl. G80 - Dominanz bis Frühjahr 2008) wieder mal was Frisches zu bringen.
 
Zuletzt bearbeitet:
Erstaunlich es aber schon, dass man dieses Jahr mit einem G80 immer noch gut dabei ist. Hoffentlich gelingt nvidia mit dem GT300 wieder so ein großer Wurf und hoffentlich kann ATI gut nachziehen oder evtl. sogar vorlegen, ist für uns Gamer nur von Vorteil!
 
Klar - ansonsten würde es preislich so aussehen wie bei den CPUs - Intel diktiert, zumindest bis zum Phenom II den Preis - siehe i7 940 @ ~ 500€.
 
Der i7 940 wird durch den Phenom II bestimmt nicht günstiger. Der Gegenspieler da dürfte wohl der i7 920 sein.
 
Zuletzt bearbeitet:
Klar, war ja nur ein Beispiel (die Gegner des Phenom II 940 sind Q9550 und vielleicht auch Core i5, beim i7 höchstens, wie du schon erwähntest der 920). Wäre es aktuell genauso mit der GT200 ff, könnte nV auch 600€ für ihre High End Karte verlangen und die GTX 260 würde auch mal mindestens 400 - 450€ kosten.

Siehe den sehr hohen und stabilen Preis der 8800 GTX von ~ 500€.


Also ist es für uns als Kunden schon gut, wenn ATi ordentlich Paroli bieten kann.

Das Gegenteil (ATi in der absoluten Dominanz) wär natürlich auch nicht besser für den Kunden.
 
Zuletzt bearbeitet:
Ich bin mal gespannt, wo sich die GT212 basierten Grakas preislich so einordnen, wenn das SI wirklich nur 256Bit hat?!?
Das und das 40nm Fertigungsverfahren müßten die Produktionskosten im Vergleich zum GT 200 doch erheblich senken!?!
Also wären so ca. 200 - 250 EUR ein fairer Preis.
 
Jo, das wäre Fair und etwa auch aktuelles GTX 260 / HD 4870 1 GB Niveau - wobei ich bei nV erstmal von 300 - 350 als UVP ausgehe
(dann sollte die GT212 aber schon die GTX 285, die bis dahin sicher so knapp 300€ kosten wird, überall besiegen !) - man will ja trotzdem was verdienen.

Aber 300 und mehr wird sie wohl nicht lange kosten - siehe 8800 GTS 512 damals. ;)
 
Zuletzt bearbeitet:
Nach ein paar Wochen werden sich die Launchpreise wie üblich nach unten relativieren und für 200 - 250 EUR wären die GT212 basierten Grakas vl. dann der absolute P/L Geheimtipp. ;)
 
Ich bin mal gespannt, wo sich die GT212 basierten Grakas preislich so einordnen, wenn das SI wirklich nur 256Bit hat?!?
Das und das 40nm Fertigungsverfahren müßten die Produktionskosten im Vergleich zum GT 200 doch erheblich senken!?!
Also wären so ca. 200 - 250 EUR ein fairer Preis.

Wenn man bedenkt, dass nvidia den GT212 dem Performancesegment zuordnet, dann wird sich er der Preis dort auch ansiedeln. Ich denke mal, selbst nvidia wird aber wohl noch keine konkreten Preise sagen können, wird wohl auch von der Preisentwicklung der GTX260/285 abhängen. Ich denke der Preis wird dann irgendwo dazwischen liegen.
 
Wird wohl so kommen - die GTX 280 fällt ja nun teils schon unter 300€ und wird im Laufe der Zeit sicher auf etwa 250€ sinken, die GTX 260 (216) wird in einiger Zeit vom Preis her sicher auf etwa 200€ fallen.

Die GT212 wird also sicherlich nicht mehr zum Launch als damals die 8800 GTS 512 oder die 9800 GTX (+) kosten - höchstens 300, was sich aber schnell bei etwa 250 - 270€ einpendeln dürfte.
 
Zuletzt bearbeitet:
Die hohen Preise der damaligen G92 Karten sind ja auch nur aufgrund der schlechten Lieferbarkeit entstanden. Aber da macht es nvidia ja im Moment besser.
 
Naja, im Prinzip ist das ja keine neue Karte. Von der Leistung her hat sich an den Karten doch nichts geändert.
 
Vielleicht ist das PCB ja hochwertiger und es lässt sich mehr aus der GPU herauskitzeln, die 55nm GTX260 lassen sich z.B. nicht besser übertakten. Und außerdem ist sie ja auch noch nicht auf dem Markt erhältlich, geht ja erst in 1 Woche los.

Aber ich denk, wir beginnen hier vom Thema abzuschweifen.
 
Ich bin mir noch nicht so sicher das NV den GT212 wirklich nur dem Performancesegment zuordnet. Somit hätten sie ja praktisch keine Grakas mehr im "HighEnd" Bereich und die jetzt releaste Dual GTX 295 wird sicher nicht alleine die ganze Zeit bis zum Erscheinen des GT300, ATI Paroli bieten können.
Mal davon abgesehen, hat NV seinerzeit die 9800GTX marketingtechn. ja auch als Nachfolger der HighEnd Grakas
8800 GTX/Ultra beworben und das trotz des nur noch 256 Bit SI. ;)
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh