nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Ich denke es darf als gesichert gelten, dass der G300 schneller sein wird als die ATI5000er Serie...

Ich rechne eigentlich schon mit 20% Unterschied von Singlekarte zu Singlekarte...

Allerdings gehe ich halt auch davon aus, dass man das auf Seiten Atis wieder über den Preis regeln wird. Wie auch zu Beginn der G200 und der HD4000er Serie.

Die "nicht-Marken-fixierten-Enthusiasten" kaufen sich beim Release eine Atikarte können ein paar Monate die wohl schnellste Singlekarte mit DX11 Effekten genießen und zum Release der neuen NV Karten steigen sie wieder um.

Ich denke zumindest, dass ich es so machen werde.

Mal schauen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die "nicht-Marken-fixierten-Enthusiasten" kaufen sich beim Release eine Atikarte können ein paar Monate die wohl schnellste Singlekarte mit DX11 Effekten genießen und zum Release der neuen NV Karten steigen sie wieder um.
.
ach....und welches Spiel willst du in DX 11 spielen?
€dit: .....bis die gtx380 kommt?
 
Zuletzt bearbeitet:
warum sied ihr euch denn eigentlich alle so sicher, das der G300 so ne möder karte wird?
Nacher sinds doch nur 10% unterschied von Hd5870 zu GTX280.....
 
Wer sagt, dass es ein Spiel sein muss ?

Können Techdemos sein, oder Dirt 2. Das kommt Ende des Jahres wohl als eines der ersten Spiele in DX11.

Ich gehe schon davon aus, dass irgendwelches DX11 Material verfügbar sein wird.

Geht mir aber auch nicht primär um DX11...

Ich denke es ist einfach davon auszugehen, dass auch die neue Singlekarte von Ati (ich nehme mal an 5870?) dann vorübergehend die schnellste Single-Grafikkarte sein wird.

Zum testen taugt sie auf alle Fälle ;)
 
wenn die Preise nicht so extrem sind wie damals wäre ich auch dafür.
Die 6800Ultra hat bei release weit über 700 gekostet....und jetzt rechnet nicht durch 2 :motz::)

Stimmt damls fand ich bis auf die Preise den Zweikampf besser / spannender. Ich weiß noch wie ich für meine X800Pro 489 Flocken hingelegt hab.:eek:
 
bei nem Performancevorteil von 10% zu ner GTX280 wäre die 4870x2 ja immernoch flotter unterwegs....das kann ich mir nicht wirklich vorstellen.
Und wenn ich auf ne GTX 395 oder ähnliches warte, dann muss ich ja doch wieder das Board tauschen :wall: Da lobe ich mir die CoreI7 Boards....da ist man nicht angewiesen auf den Grakahersteller***grummel***da will ich aber noch nicht umsteigen weil ich der Meinung bin, dass es sich noch nicht wirklich lohnt...mannmannmann
 
Zuletzt bearbeitet:
Warum Board tauschen für die 395?! kommt die nur mit PCIe 3.0 oder wie?
Außerdem müssen die Intel-ler hier doch eh alle Nase lang die Boards tauschen wegen neuen Sockeln.....
 
bei nem Performancevorteil von 10% zu ner GTX280 wäre die 4870x2 ja immernoch flotter unterwegs....das kann ich mir nicht wirklich vorstellen.
Und wenn ich auf ne GTX 395 oder ähnliches warte, dann muss ich ja doch wieder das Board tauschen :wall: Da lobe ich mir die CoreI7 Boards....da ist man nicht angewiesen auf den Grakahersteller***grummel***da will ich aber noch nicht umsteigen weil ich der Meinung bin, dass es sich noch nicht wirklich lohnt...mannmannmann

braucht man denn für ne 295GTX ein sli board? Denn nromal läuft das sli ja auf derKarte bzw du hast ja nur eine drinn, nur wenn du quad sli haben willst bräuchtest ein sli board, oder was meinst du mit board tauschen?
 
ich habe drei GTX295 bestellt gehabt und leider waren alle drei inkompatibel zu meinem CF Board ;)
Aufgrund des internen SLI kann eine Inkompatibilität zu CF Boards bestehen...muss aber nicht. Aber selbst wenn die Karte nicht inkompatibel ist, würde sie nicht 100% laufen wie es mit nem SLI Board wäre. Das ist der Grund warum ich dann die x2 genommen habe. Ich hätte mir auch ein neues Board kaufen können, aber das habe ich damals nicht eingesehen für nen Umstieg auf nVidia, wobei sich die Karten Performancetechnisch nichts getan haben. Vielleicht wäre ich mit der GTX295 glücklicher gewesen, wer weiss. Das rechtfertigt aber nicht nen Kauf von nem Board. Wenn man was vernünftiges haben möchte latzt man halt da 280,-€ oder mehr.
Wie schon geschrieben empfinde ich ein Kauf noch nicht lohnenswert. Da kommt dann ein ganz neues Sys mit ner CPU die deutlich mehr Performance in Games hat wie der Core i7 der dort Leistungstechnisch gleich auf ist mit dem was bei mir werkelt.
 
ich habe drei GTX295 bestellt gehabt und leider waren alle drei inkompatibel zu meinem CF Board ;)
Aufgrund des internen SLI kann eine Inkompatibilität zu CF Boards bestehen...muss aber nicht. Aber selbst wenn die Karte nicht inkompatibel ist, würde sie nicht 100% laufen wie es mit nem SLI Board wäre. Das ist der Grund warum ich dann die x2 genommen habe. Ich hätte mir auch ein neues Board kaufen können, aber das habe ich damals nicht eingesehen für nen Umstieg auf nVidia, wobei sich die Karten Performancetechnisch nichts getan haben. Vielleicht wäre ich mit der GTX295 glücklicher gewesen, wer weiss. Das rechtfertigt aber nicht nen Kauf von nem Board. Wenn man was vernünftiges haben möchte latzt man halt da 280,-€ oder mehr.
Wie schon geschrieben empfinde ich ein Kauf noch nicht lohnenswert. Da kommt dann ein ganz neues Sys mit ner CPU die deutlich mehr Performance in Games hat wie der Core i7 der dort Leistungstechnisch gleich auf ist mit dem was bei mir werkelt.


ach die x2 ist doch spitze, nur minimal langsamer aber auch billiger als die 295. Ichätte auch die x2 genommen.
 
Auch wenns OT ist, aber das ne GTX295 auf einem CF Board weniger gut läuft als auf einem SLI Board ist meiner Meinung nach totaler Blödsinn! Das wurde noch nie irgendwo Thematisiert und hat auch keine technische Begründung, die Dual-Karten sind "stinknormale" Single Karten mit internem CF/SLI..
 
Das sehe ich genauso - kann mir aufgrund internem SLI / CF nicht vorstellen, dass es Leistungungsnachteile auf CF Boards bzw. non CF Boards und
Intel / AMD Chipsatz gibt, gerade wenn die Karte auch mit PCIe 2.0 x16 angebunden ist.

Nun gut - :btt:
 
@OT: CF ist eh hinfällig wenn man eine GTX 295 in einen PCIe x16 Slot steckt, die SLI Verbindung findet intern statt!

@Topic: auch wenn der G300 nur einen marginalen Vorsprung von 15-20% hat, ist es immer noch eine Single GPU Karte OHNE Mikroruckelr. ATi/AMD hingegen muss schon wieder eine X2 basteln um gerade mal ein bisschen schneller zu sein, aber dafür mit MR...
 
naja noch einen vorteil hast bei der x2 gegenüber der GTX295 das sie zum großteil schon DX11 unterstützt. Und somt spätestens bei DX11 spielen der 295 wohl um einiges überlegen sein sollte.
 
Äh - die Aussage, dass ATI eine X2 bringen muss, um schneller als NV zu sein, bezog sich hier auf GTX 380 vs HD 5870 (X2)
und nicht auf GTX 295 vs. HD 5870 X2, denn diese tritt eben nur gegen die HD 4870 X2 (mit DX 10.1) an ! ;)
 
Zuletzt bearbeitet:
die aktuelle x2 unterstützt ja noch kein DX11, wenn die neue x2 rauskommt dauert es ja noch ne Weile.
@PCZeus
Zur Thematisierung der Kompatibilität von Internem SLI auf CF Boards und anders rum kann ich ja gerne mal nen Thread aufmachen bevor es zu OT wird.
Ich gehe jetzt erst mal essen und dann melde ich mich nochmal.

---------- Beitrag hinzugefügt um 14:48 ---------- Vorheriger Beitrag war um 13:13 ----------

wegen OT: hier können wir jetzt weiter diskutieren
 
Zuletzt bearbeitet:
@Neurosphere
@Edgecrusher86

Na, da haben aber zwei in Mathematik nicht sonderlich gut aufgepasst. :)
Fläche ist quadratisch und nicht linear. Der Faktor zwischen 40 und 55 nm beträgt also nicht 1,375 (55/40), sondern ~1,89 (55²/40²). Nur als Tipp, der Faktor zwischen Full-Node Shrinks liegt immer bei etwa 2. Das ist so gewollt.

Ein Chip mit 71,4% mehr Transistoren als der GT200b hätte in 40 nm also etwa 426 mm² (470 / 1,89 * 1,714). Das ist aber recht theoretisch, da kein Shrink linear erfolgt, siehe GT200 -> GT200b, wo der Faktor bei ~88% lag. Nehmen wir selbiges für den G300, auch wenn es sich diesmal um einen Full Node Shrink handelt, läge die Fläche irgendwo um die 485 mm². Die kolportierten 500 mm² bei 2,4 Mrd Transistoren passen also durchaus.
 
Zuletzt bearbeitet:
Haha, verdammt, ja er hat recht ;)

Naja, müssen wir halt nochmal die wurzel ziehen und am Ende quadrieren.
Demnach liegt die Steigerung bei ca. 89%.
 
ach die x2 ist doch spitze, nur minimal langsamer aber auch billiger als die 295. Ichätte auch die x2 genommen.

Nope... bei hoher Auflösung und genug AA ist die HD4870X2 sogar meistens schneller als die GTX295 ! Und wann kauft man so eine potente Graka ?? Rüschdüüüüsch: wenn man in hoher Auflösung mit viel AA zocken will ! :bigok:
 
Nope... bei hoher Auflösung und genug AA ist die HD4870X2 sogar meistens schneller als die GTX295 ! Und wann kauft man so eine potente Graka ?? Rüschdüüüüsch: wenn man in hoher Auflösung mit viel AA zocken will ! :bigok:

ch war mir nicht mehr sicher, ahtte nur alte benchs in erinnerung daherhab ichs mal so formuliert, aber du hast recht, die x2 ist shcneller, warum wollen dann immer alle aufnvidia umsatteln?? vorallem ist diese auch wieder teurer......
 
wenn ich aber die Bildqualies vergleiche benötigt nVidia aber nicht so viel aa wie ne ATI. Wenn ich die höchsten Kantenglätteinstellungen vergleiche siehts bei nVidia sogar besser aus, obwohl rein technisch gesehen nichts an edge-detect rankommen sollte. Wenn also ati krass gesagt 16x benötigt siehts mit nVidia bei weniger ebenwürdig aus und es läuft gefühlt was besser, obwohl die fps was anderes sagen.
Ich kann mir jedenfalls nicht erklären warum ne GTX285 2GB geschmeidiger läuft wie ne X2, obwohl die X2 bessere fps-Werte hat. Dafür zahle ich verhältnismäßig lieber mehr und sattle demnächst um bei der nächsten Generation. Vielleicht warte ich noch auf ne GTX395 oder so...aber ATI ist bei mir erstmal die Letzte drinne. Die X2 ist jetzt die 6. Generation an ATI, habe seit dem aber immer direkte Vergleiche mit nVidia gehabt. Jedesmal habe ich der P/L nachgeeifert...jetzt will ich Qualität...ja, die kostet ihren Preis, und?
 
wenn ich aber die Bildqualies vergleiche benötigt nVidia aber nicht so viel aa wie ne ATI. Wenn ich die höchsten Kantenglätteinstellungen vergleiche siehts bei nVidia sogar besser aus, obwohl rein technisch gesehen nichts an edge-detect rankommen sollte. Wenn also ati krass gesagt 16x benötigt siehts mit nVidia bei weniger ebenwürdig aus und es läuft gefühlt was besser, obwohl die fps was anderes sagen.
Ich kann mir jedenfalls nicht erklären warum ne GTX285 2GB geschmeidiger läuft wie ne X2, obwohl die X2 bessere fps-Werte hat. Dafür zahle ich verhältnismäßig lieber mehr und sattle demnächst um bei der nächsten Generation. Vielleicht warte ich noch auf ne GTX395 oder so...aber ATI ist bei mir erstmal die Letzte drinne. Die X2 ist jetzt die 6. Generation an ATI, habe seit dem aber immer direkte Vergleiche mit nVidia gehabt. Jedesmal habe ich der P/L nachgeeifert...jetzt will ich Qualität...ja, die kostet ihren Preis, und?

Jo, wenns ums reine Zocken geht kommt man wohl langfristig ned um ne nvidia rum !
 
Zuletzt bearbeitet:
ach, du meinst das kann ATI nicht? :fresse:

€dit: nice Avartar Christoph...kenne ich gut :fresse:

das kännen die sehr wohl, nur ist der unterschied das es die atis leise machenund die nvidias sehr laut und nervig, meine 4870er haben ganz leise vor sich hingesurrt wenn mans or ran hebt, meine 55NM 260er fiepten die ganze zeit(bis auf ne Leadtek GTX 260:hail:)

Also zwischen 260 und hd4870 hab ich von der Bildqualinicht viel gemerkt, außer das ati etwas stärkere farben hat,wodurch ich das bild als etwas lebendiger und besser empfinde. vom reinen zocken her ahab ich auch bei der kantenglättung keinen untershcied gesehen, wahrscheinlichmuss man dazu erstmal beim gamen auf die glättung achten um unterschiede auszumachen.
 
und video ist die ati deutlich besser,

ob nv oder ati ist eh immer nut geschmackssache aber so kommentare wie nv hat einfach ne höhere quali geht mir einfach auf den keks,

das einzige was sie wirklich bisl schlechter haben ist die kantenglättung dafür aber eben zB leuchtendere farben und 8x aa ohne probs möglich.

Das einzige wirklichte totschlag argument das ich gelten lasse ist idle aber die graka muss schon verdammt lange 24/7 laufen damit das durch den P/L vorteil ausgegelichen wird
 
das einzige was sie wirklich bisl schlechter haben ist die kantenglättung dafür aber eben zB leuchtendere farben und 8x aa ohne probs möglich.

Nein, die Filterqualität bei AMD ist schlechter, sprich AF ist nicht wie bei NV winkelunabhängig, das AA hingegen theoretisch mit dem Edge Detect Filter besser, dafür bietet NV aber diese Mischmodi an was auch sehr gut ist...

8xAA Vergleiche zwischen AMD und NV machen auch eher weniger Sinn, weil NV da anders ansetzt, soweit ich weis... Sprich alles über 4xMSAA ist nicht mehr vergleichbar...
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh