nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Yoa, deshalb verhalte ich mich "passiv" und gehe mal von der Leistung einer 295 GTX+- 10% aus.

Das war bisher eigentlich immer ein guter, grober Richtwert für neue Generationen.

Also die Dualkarte der Vor-gen.

Eben.
Deshalb lohnt sich das Warten für mich nicht und werde mir aus diesem Grund die neue 295GTX bestellen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Eben.
Deshalb lohnt sich das Warten für mich nicht und werde mir aus diesem Grund die neue 295GTX bestellen.

Die 295 ist gut für Benches, aber nicht für jedes Game, Single Karten skallieren immer noch besser als Dual Karten und wer glauben sollte das die GTX380 nur auf 295GTX Niveo ist, liegt falsch ;) Die 295 ist außerdem ein Remix aus 260,285...
 
Zuletzt bearbeitet:
Die 295 ist gut für Benches, aber nicht für jedes Game, Single Karten skallieren immer noch besser als Dual Karten und wer glauben sollte das die GTX380 nur auf 295GTX Niveo ist, liegt falsch ;) Die 295 ist außerdem ein Remix aus 260,285...

Ich habe seit je her nur Dual Karten. ;)
Hatte zwar zwischendurch eine 8800GTX, aber bis die nächste Dual-Karte von nVidia kommt dauert es eh noch. ;)
 
selbst wenn die 5870x2 auf gleichem Level liegen sollte mit der GTX380 werde ich zur GTX greiffen. Dass die Nachfolgenden Modelle so stark sind wie ein CF oder SLI Verbund der jetzigen Karten ist tatsächlich absehbar, da es zumindest bei ATI in den letzten Generationen so war. Warum sollte man mit neuer Technologie einen geringeren Performancezuwachs erwarten. Ich gehe aber auch von 15-25% aus...kommt eben aufs Game an. Solange es bei den Games passt die ich zocke stört mich weiteres nicht.
 
Nun, kann gut sein dass die HD5870 ca. 4870X² Performance bringt, die GTX 380 vielleicht die 30-40% Mehr als die NV Karte, aber da wird die HD5870 X² sowas von vorbeiziehen bei dieser NV Karte dass es nicht mehr schön ist.
Wenn man sich der Microrcukler auch noch mehr annimmt als bisher, hat man so geringe Nachteile gegenüber dem GT300 Koloß. Und dass NV eine Dual GTX 380 bringt wage ich zu bezweiflen bei der Größe, aber lass mich gerne eines Besseren belehren.
Spannend wird es auf alle Fälle...
 
Leute, ihr wisst doch garnicht wie schnell die Karten werden. Weder RV870 oder G(T)300. Klar kann man Mutmaßungen und Vermutungen anstellen, aber bitte nicht immer diese leeren Behauptungen als Wahrheit verkaufen.
 
Nun, kann gut sein dass die HD5870 ca. 4870X² Performance bringt, die GTX 380 vielleicht die 30-40% Mehr als die NV Karte, aber da wird die HD5870 X² sowas von vorbeiziehen bei dieser NV Karte dass es nicht mehr schön ist.
Wenn man sich der Microrcukler auch noch mehr annimmt als bisher, hat man so geringe Nachteile gegenüber dem GT300 Koloß. Und dass NV eine Dual GTX 380 bringt wage ich zu bezweiflen bei der Größe, aber lass mich gerne eines Besseren belehren.
Spannend wird es auf alle Fälle...

bei GT200 meinte auch jeder da kommt nie ne dulakarte, vielzu gross und heiss, also sovie dazu ne ;)
 
Eins weiß ich aber, in mein Gehäuse passt sie locker rein, da ich da 33 cm Platuz für die Graka zur Verfügung habe :shot:
 
bei GT200 meinte auch jeder da kommt nie ne dulakarte, vielzu gross und heiss, also sovie dazu ne ;)

Damit haben die Leute, welche das gesagt haben auch recht behalten. Eine Dualkarte mit GT200 gibt es nicht käuflich zu erwerben und wird es auch nicht mehr geben. De Facto gibt es nur Dualkarten mit 2x GT200b.
 
Damit haben die Leute, welche das gesagt haben auch recht behalten. Eine Dualkarte mit GT200 gibt es nicht käuflich zu erwerben und wird es auch nicht mehr geben. De Facto gibt es nur Dualkarten mit 2x GT200b.

weiste wie mn sowas wei dich hier nennt ? ich sags leiber net, wusste jeder was ich mein ,aber hauptsach ma stunk gemacht
 
er hat aber nicht unrecht. tatsächlich hat der gt200 einen die-shrink benötigt um eine dual-gpu karte zu ermöglichen. naja, vielleicht sehen wir das ende nächsten jahres beim g(t)300 :3
 
weiste wie mn sowas wei dich hier nennt ? ich sags leiber net, wusste jeder was ich mein ,aber hauptsach ma stunk gemacht
PrinzVonBillAir hat aber vollkommen recht. Das Top Modell beim GT200 Launch war die GTX 280. Und davon gibt es keine Dual GPU Karte. Diese kam erst mit dem GT200b viele Monate später und ist von den Specs her eher ein Zwischending aus GTX 260 und GTX 280. Also bleib mal schön locker und vergleiche nicht Äpfel mit Tomaten. ;)
 
bei GT200 meinte auch jeder da kommt nie ne dulakarte, vielzu gross und heiss, also sovie dazu ne ;)

gibt es auch nit wirklich

sie setzt eben wegen der Hitze + leistungsaufnahme auf die sehr abgespeckte 260 statt auf die 280 bzw 285 und trotzdem musste vorher sogar ein DIE Shrink her.
Und sie ist deshalb in den wichtigen Auflösungen nur kaum schneller als ne 4870 x2 bzw durch weniger Speicher teilweise sogar lahmer
 
wie schön das mein kommentar einfach ignoriert wird :rolleyes:
 
Ich denke auch dass ein Dual - G(T)300 erst Sinn macht, wenn man seitens nV durch eine bährenstarke HD 5870X2 dazu genötigt ist (wie damals als die HD 4870X2 raus kam).

Alleine schon durch den Stromverbrauch (geschätzten 225W TDP was etwa realen 180 - 190 Watt bei Volllast entspricht) pro GPU wäre ohne PCIe 3.0 Norm und die damit erhöhte Watt - Spezifikation zur Versorgung oder einem DIE - Shrink auf 28nm eine Dual - Karte auf Basis des 40nm G(T)300 sehr unwahrscheinlich (das wäre dann ja eine TDP von 450 Watt ->
WaKü inklusive ?! :fresse:).

Übersetztes Zitat von Fudzilla News zum Einsatz des 40nm Prozesses:

Bereits Anfang 2010 will TSMC mit der Umstellung auf die 28nm-Produktion beginnen. Nvidia will dann der wichtigste Kunde von TSMC sein.
Fast sieht es so aus, als wären die 40nm nur ein kurzer Zwischenschritt für ein paar Monate

Oder aber es gibt eine Dual - Karte auf Basis von 2 abgespeckten Karten wie der GTX 360.

MfG
Edge
 
Zuletzt bearbeitet:
Dem wird wohl so sein!
Schauen wie es diesmal so wird, NV kennt nun die Strategie von AMD-ATI, hoff die haben daraus was gelernt. Einen weiteren Schnitzer sollte sich NV nicht mehr leisten!
 
Dem wird wohl so sein!
Schauen wie es diesmal so wird, NV kennt nun die Strategie von AMD-ATI, hoff die haben daraus was gelernt. Einen weiteren Schnitzer sollte sich NV nicht mehr leisten!

Welchen Schnitzer denn? Das einzige Problem was NV hatte war die 260er Serie.
 
Höchstwahrscheilich will nVidia erst ein bisschen Erfahrungen mit 40nm machen und abwarten, wie sich die Yieldrates bei TSMC verbessern. Anders kann ich mir diesen Schritt nicht erklären.

DX 10.1 hingegen wird nur ein kleiner Zwischenschritt sein bevor DX 11 kommt.
 
Höchstwahrscheilich will nVidia erst ein bisschen Erfahrungen mit 40nm machen und abwarten, wie sich die Yieldrates bei TSMC verbessern. Anders kann ich mir diesen Schritt nicht erklären.

DX 10.1 hingegen wird nur ein kleiner Zwischenschritt sein bevor DX 11 kommt.

Aber das würde ja eigentlich für das gegenteil sprechen... Wenn die Yieldrates niedrig sind, pack ich die wenigen guten doch lieber auf Karten wo man mehr Gewinnspanne hab... die LowEnd Karten werden ja massenhaft verbaut in den ganzen Fertig-PCs. Daher kann ich mir den Schritt garnicht erklären :fresse:
Aber ich bin super gespannt auf den Kampf Ende des Jahres :)
Hoffentlich profitieren wir da alle von und ATI/NV fighten ordentlich :drool:
 
Naja, nVidia will den G300 in 40nm lauchen. Daher wollen sie vorher so viel Erfahrung wie möglich mit dem neuen Fertigungsprozess sammeln. Das ist am besten, wenn man dies bei Low-End anstatt bei High-End Karten macht.

Zum einen ist es bei weitem nicht so schlimm, wenn man eine etwas "ältere" Architektur nimmt und diese in 40nm fertigt als wenn ein neu entwickleter G300 in 40nm ein riesen Flopp wird. Zweitens kann man sicher sein, dass die Yieldrate sich doch noch etwas verbessern wird...
 
Die Ausbeute mit kleinen Chips ist einfach höher. Das liegt nicht nur daran das die Chips von der Fläche her kleiner sind, sondern das die Ausfallquote ebenfalls geringer ist wenn man die Fehler mal auf die Waverfläche spiegelt.
 
Mal schauen was da kommt, aber ich denke das ich mir die Karte sicherlich hole....... abwarten und Thread verfolgen...
 
Ja die G300 wird sich bestimmt lohnen.. schade das es im Momente noch nicht so viele Infos/Bilder gibt.....

Fand damals schon die 8800 GTX nicht schlecht und hab sie mir dann auch gekauft :)
 
nun ja die 8800 war auch ein Megahit, hab die auch noch am laufen. Ich hoffe die GT300 wird dann ein würdiger Nachfolger.
 
In letzter Zeit kommen auch kaum noch Spekulationen raus...

Ich hoffe einfach, dass der RLS max. 2-3 Monate hinter den Ati-pendants ist (damit noch dieses Jahr) dann kann man sich im November/Dezember das bessere Gesamtpaket kaufen.
 
Naja lange ist es ja nicht mehr...... Vielleicht ist ATI für ne Überraschung gut. Wobei ich eigentlich bis jetzt immer mit Nvidia zufrieden war
 
Und das ATI richtig gute Preise vorlegt

ja, das wäre wirklich wichtig, denn nVidias Preispolitik kennt man ja zu genüge^^ Vielleicht kann man eine GTX380 dann zu nem Releasepreis von 350,- € rechnen/erhoffen.
 
ja, das wäre wirklich wichtig, denn nVidias Preispolitik kennt man ja zu genüge^^ Vielleicht kann man eine GTX380 dann zu nem Releasepreis von 350,- € rechnen/erhoffen.


Wird wohl bei der GTX380 eher 400 EUR + werden. :(

Naja, aber träumen darf man ja mal. ;)
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh