nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.

Koebes

Groß-Admiral deLuxx
Thread Starter
Mitglied seit
12.10.2006
Beiträge
2.533
Ort
DA - LIP
nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]


In Anlehnung an den guten alten
geht es in diesem Thread um Informationen, Meinungen, Fragen und Spekulationen
rund um das Thema zum kommenden NextGen. HighEnd DirectX 11 GT300 Chip.


HighEnd oder nicht HighEnd, das ist hier die Frage!?! ;)

Der GT212 sollte also erst der Nachfolger des GT200 (GTX 285) werden.


Somit wird klar, der NextGen. HighEnd DirectX 11 Chip in 40nm, ist der GT300.


nvlogodeluxxpp3.jpg

Infos zum nv GT300:


- Multiply Instruction Multiple Data (MIMD)-Einheiten

- neues Power- und Speichermanagement

- "wahrer" G80 Nachfolger


- 512 Shadereinheiten


- GDDR 5 Speicher


- 512 Bit Speicherinterface


- Anzahl der Shadercluster von 10 auf 16


- 128 statt 80 TMUs

...


Links:


http://www.hardware-infos.com/news.php?news=2663


http://www.fudzilla.com/index.php?option=com_content&task=view&id=11666&Itemid=65


http://www.pcgameshardware.de/aid,654085/TSMCs-40nm-GP-RV870-und-GT300-fast-viermal-so-schnell-wie-heute/Grafikkarte/News/


http://www.hartware.de/news_46678.html


http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/april/erste_direct3d-11-karte_nvidia_q4_09/


http://www.fudzilla.com/index.php?option=com_content&task=view&id=13002&Itemid=65


http://www.hardware-infos.com/news.php?news=2871


http://www.hardware-infos.com/news.php?news=2891


http://www.hartware.de/news_46774.html


http://www.brightsideofnews.com/news/2009/4/22/nvidias-gt300-specifications-revealed---its-a-cgpu!.aspx


http://www.hardwareluxx.de/community/showthread.php?t=607119


http://www.hardware-infos.com/news.php?news=2904


http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/april/kommt_nvidias_gt300_512_shadereinheiten/


http://www.hardware-infos.com/news.php?news=2930


http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/mai/nvidia_gt300_512_bit_gddr5/


http://www.hardware-infos.com/news.php?news=2944


http://www.hardware-infos.com/news.php?news=2952


http://www.hardware-infos.com/news.php?news=2954


http://www.hardware-infos.com/news.php?news=2997


http://www.hartware.de/news_47143.html


http://www.computerbase.de/news/hardware/grafikkarten/2009/juni/gt300_rv870_wann_chips/


http://www.hardware-infos.com/news.php?news=3117


http://www.hartware.de/news_47452.html


http://www.hardware-infos.com/news.php?news=3225


http://www.hardware-infos.com/news.php?news=3226


http://www.hardware-infos.com/news.php?news=3227


http://www.hardware-infos.com/news.php?news=3228


http://www.hartware.de/news_47713.html


http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/oktober/offiziell_fermi_gt300/




-----------------------------------------------------------------------------------------------------------------------------------------------------------------------



News - Historie zum nv GT212:

Der GT212 sollte im 40 nm Verfahren hergestellt werden.
Die Chipfläche beträgt ca. < 300 mm² mit < 1800 Mio. Transistoren.
Es gibt 384 Shadereinheiten und 96 TMUs.
Das Speicherinterface soll (von max. 512 Bit des GT 200) auf nur 256 Bit beschnitten werden.
Um ähnliche Bandbreite zu gewährleisten, sollte hier der verbaute GDDR5 Speicher statt GDDR3 für Abhilfe sorgen.
Launch des GT212 sollte im Q2/2009 sein.


Links:


http://www.hardware-infos.com/news.php?news=2629


http://www.hartware.de/news_46158.html


http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/januar/erste_details_nvidias_gt212-chip/


http://www.pcgameshardware.de/aid,671975/News/GT212-_Angebliche_Specs_der_Nvidia-GPU_gesichtet/


http://www.hardware-infos.com/news.php?news=2612


http://www.hartware.de/news_46263.html


http://www.fudzilla.com/index.php?option=com_content&task=view&id=11696&Itemid=65


http://www.hartware.de/news_46365.html


http://www.hartware.de/news_46403.html


http://www.hardware-infos.com/news.php?news=2892




. . . to be updated ! . . .



.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Na endlich GDDR5 aber dafür haben sie gleich wieder den bus beschnitten auf 256bit,weil man muss ja sparen:)

Ob das der DDR5 speicher wirklich ausgleichen kann:hmm:
 
Zuletzt bearbeitet:
Siehe ATI -> JA ! :d


Naja angesichts der spezifikationen des neuen chips könnte ich mir vorstellen das da doch einiges mehr über das interface geschaufelt werden muss an daten:d

Aber ich glaube ich warte mit dem kauf einer neuen noch bis diese gpu rauskommt ist ja nicht mehr soo lang:bigok:


Ob ich das wirklich aushalte:hmm::lol:
 
Zuletzt bearbeitet:
Ich freue mich schon.

Nvidia deklariert den Chip ja als Performancechip der aber schneller ist als der G200b / G206.

D.h. der wird günstig und schnell! Das ist genau das richtige.

Dazu noch unter 300 mm² Diefläche, schön!

Ich werde auch auf die Karte, bzw. generell auf die ganzen neuen 40nm GPUs warten.

*edit*

Bin schon gespannt, was NV dann als Ablösung für das Highendsegment bringt.
Die Daten des G212 sind ja schon fein!

Und das mit dem GDDR5 und 256 Bit funktioniert vorzüglich bei den Atikarten im Moment, das reicht locker und leicht!
 
Zuletzt bearbeitet:
Aber ich glaube ich warte mit dem kauf einer neuen noch bis diese gpu rauskommt ist ja nicht mehr soo lang:bigok:


Ob ich das wirklich aushalte:hmm::lol:

Du wirst dir doch sicher zwei GTX295 holen. :fresse:

Die Spezifikationen des GT212 lesen sich wirklich sehr gut.
 
Danke für den Thread! Hatte schon gedacht, dass ich mir den Aufwand machen muss :d
 
Zuletzt bearbeitet:
Mit welcher Karte ist die 9900gtx vergleichbar? Ich dachte Nvidia nennt die jetzt GTX260/280/285 usw...
 
Von einem 9900 hab ich jetzt noch gar nichts gehört.

Ich denke auch nicht, dass das so kommen wird,

da die älteren Chips ja jetzt als G120-G130-G140 rauskommen.
 
Siehe ATI -> JA ! :d

Ob das wirklich so ist?

Zur Zeit laufen GDDR3 Module mit oc bis ca. 2700 - 2800MHz.
Um gleiches zu erreichen müsste GDDR5 mit 256er SI ca. 5400 - 5600MHz machen, und da tut er zur Zeit noch nicht.
Zudem sind die Timings sicher langsamer als bei GDDR3.
Aber mal sehen was bis Q2 möglich ist.
 
die bandbreite wird auch immer uninteressanter,wichtiger in spielen wird die shaderpower sein.übertrieben gesagt reicht die banbreite der 280gtx noch sehr lange aus.
 
die bandbreite wird auch immer uninteressanter,wichtiger in spielen wird die shaderpower sein.übertrieben gesagt reicht die banbreite der 280gtx noch sehr lange aus.

Angesichts der immer grösseren auflösungen u immer mehr performance schluckenden modis wie z.B kantenglättung spielt die bandbreite sehr wohl eine bedeutende rolle:)

Denn diese hohe datenflut muss auch schnell genug transportiert werden sonst nützt die schnellste GPU mit dem grössten shader nix :)
 
Siehe ATI -> JA ! :d

und ich sage nein, wenn man bedenkt das die GPU um die 2TeraFlops haben wird und schon die GTX 285 160GB/s Bandbreit hat dürfte 256Bit auch mit GDDR5 recht wenig sein.

Zudem vergessen wohl auch einige immer wieder das GDDR5 im Vergleich zu GDDR3 bis zu ca. 30% ineffizienter ist! Also Vergleiche wie 512Bit 1000MHz GDDR3 vs 256Bit 2000MHz GDDR5 ist gleich schnell kann man vergessen.

Die Frage ist halt wie hoch der Speicher wirklich takten wird, aber auch bei 3GHz wären das halt nur 192GB/s
 
Zuletzt bearbeitet:
Angesichts der immer grösseren auflösungen u immer mehr performance schluckenden modis wie z.B kantenglättung spielt die bandbreite sehr wohl eine bedeutende rolle:)

Denn diese hohe datenflut muss auch schnell genug transportiert werden sonst nützt die schnellste GPU mit dem grössten shader nix :)
machst du große unterschiede aus wenn du den speichertakt erhöht hast?ich denke nicht.

Die Frage ist halt wie hoch der Speicher wirklich takten wird, aber auch bei 3GHz wären das halt nur 192GB/s

nur?völlig ausreichend und mehr als 3ghz speicher wird es in den nächsten monaten bestimmt nicht geben.die speicherbandbreite könnte in etwa hinhauen.
 
Wird dann also ein heißer Sommer, wenn das Teil draußen ist! Obs wohl genauso ein Hammer wird wie damals die 8800GT?
 
Wird dann also ein heißer Sommer, wenn das Teil draußen ist! Obs wohl genauso ein Hammer wird wie damals die 8800GT?

Hoffen wir mal das es nur n heisser sommer wird die karte aber cool bleibt:coolblue:

Und vor allem das sich nvidia das mit dem schmalbrüstigen interface nochmal überlegt:fresse:
 
Zuletzt bearbeitet:
Warum, ist doch ok mit dem 256-bittigen SI, wenn sie DDR5 Speicher verwenden. Hauptsache die Speichermenge stimmt, aber ich denke, da werden die nicht unter 1024 MB gehen.
 
Ich verstehe auch nicht so recht wo das Problem bei GDDR5 + 256 Bit sein soll.

Ich hatte eine X2 und die hat ja auch "nur" ne Bandbreite von 256 Bit, aber Speicher-OC hat so gut wie nichts gebracht (fps in Spielen).

Kann mir das jemand erklären, warum das bei der NV Karte anders sein sollte ?
 
Da der GT212 auf dem GT200 / 206 basiert wurde die Schwäche des G92(b) bezüglich des verheerenden Einbrechens mit 8xAA sicher vom Tisch sein - alle auch wegen den massigen Shader Einheiten und sicherlich (sehr) hohen Taktraten bezüglich GPU und GDDR5.

Wird sicher eine sehr flotte Karte - und über 150 GB/s Speicherbandbreite sollte dicke schicken. :coolblue:

Käme der GT212 doch nur jetzt schon - dann würd ich sofort tauschen. :)


Die Zahlen lesen sich schon sehr beeindruckend (außer das SI, aber das wird dank GDDR5 ja recht gut kompensiert) und sicher werden dies auch die Taktraten sein und vor allem das OC - Vermögen !

Ich glaube aber nicht, dass ein (Single) 40nm GT212 schneller als die GTX 295 wird - 50% schneller als die GTX 285 vielleicht.
 
Zuletzt bearbeitet:
So kannst du dich halt noch ein paar Monate freuen.

Ich sehe es schon kommen, dass ich im Sommer auch wieder wechseln will. Naja, kommt halt auf den Preis an. Aber wenns laut nvidia ein Performance Chip sein soll, dann dürfte der ja vom Preis her nicht weit entfernt sein von einer aktuellen GTX260.
 
Zuletzt bearbeitet:
So kannst du dich halt noch ein paar Monate freuen.

Ich sehe es schon kommen, dass ich im Sommer auch wieder wechseln will. Naja, kommt halt auf den Preis an. Aber wenns ein Performance Chip sein soll, dann dürfte der ja nicht weit entfernt sein von einer aktuellen GTX260.

Öhm - der GT212 soll den GT200 / GT206 ablösen - also wird es bis zum GT300 die High End GPU sein !

Btw - er hat sogar ~ 78 % mehr Shader Units als die GTX 260 - also um die sollt er schon Kreise fahren. ;)
 
Zuletzt bearbeitet:
Ich meinte vom Preis her nicht weit entfernt!

nvidia selbst stuft ihn ja als Performance Chip ein und nicht als Highend!
 
Zuletzt bearbeitet:
Da wär ich nicht so optimistisch....High End Leistung war schon immer teuer, würde mich nicht wundern, wenn man mindestens 400€ verlangen würde, eventuell sogar 500. :cool:

So ? Hm - na dann wird der Preis höchstens 400€ betragen.
 
Da der GT212 auf dem GT200 / 206 basiert wurde die Schwäche des G92(b) bezüglich des verheerenden Einbrechens mit 8xAA sicher vom Tisch sein - alle auch wegen den massigen Shader Einheiten und sicherlich (sehr) hohen Taktraten bezüglich GPU und GDDR5.

Der G92 hat kein 8xAA problem, das problem liegt viel eher darin das für den G92 und seiner Leistung zb. 9800GX2 512MB einfach zu wenig sind und die Bandbreite hat sicher auch noch etwas beigetragen, im grunde sind G92 und G200 im dem Bereich aber gleich ausser das der G200 natürlich viel mehr Leistung und eben 1GB hat.

nur?völlig ausreichend und mehr als 3ghz speicher wird es in den nächsten monaten bestimmt nicht geben.die speicherbandbreite könnte in etwa hinhauen.

Ja nur, Praktisch ist das dann ca. auf GTX 285 höhe und das mit einem Chip der ca. 80% mehr ALU Leistung hat...

Wenn die Software nicht brutal von der ALU Leistung abhängig ist werdet ihr schon noch grosse Augen machen...
 
Zuletzt bearbeitet:
Der G92 hat kein 8xAA problem, das problem liegt viel eher darin das für den G92 und seiner Leistung zb. 9800GX2 512MB einfach zu wenig sind und die Bandbreite hat sicher auch noch etwas beigetragen, im grunde sind G92 und G200 im dem Bereich aber gleich ausser das der G200 natürlich viel mehr Leistung und eben 1GB hat.

Nun ja - auch mit 1 GB VRAM (kann ich bestätigen - Beispiel - Jericho @ 1680x1050, max. Details + 8xAA (maximal ~ 20 fps, mit 4xAA sinds noch über 30 fps Minimum) bricht er gerne ein, wobei ich dir Recht gebe - es wird hauptsächlich an der im Vergleich zum G80 / GT200 / 206 deutlich geringen Speicherbandbreite liegen - 256 Bit SI + GDDR3 war halt doch nicht so der Burner - mit 384 Bit + 768 MB oder gar 1536 MB VRAM z.B. hätte das Ganze schon anders ausgesehen. :d

Aber nV wollte halt noch einen Kaufgrund für die "alte" 8800 GTX und besonders die 8800 Ultra haben und einfach was stärkeres und gleichzeitig kostengünstigeres im Vergleich zur 8800 GTS 640 raus bringen.



Ja nur, Praktisch ist das dann ca. auf GTX 285 höhe und das mit einem Chip der ca. 80% mehr ALU Leistung hat...

Wenn die Software nicht brutal von der ALU Leistung abhängig ist werdet ihr schon noch grosse Augen machen...


Hm - das klingt plausibel - und hat ja schon dem G92 viel Leistung gekostet - gut, hier wird es sicher nicht so krass ausfallen, aber es wäre schon möglich, dass die ALUs nicht ihre ganze Kraft entfallten können.




E: Mal sehen, wie der GT212 dann heißen wird - freie Namen im GTX 200 Namensschema:

GTX 290 (ist wohl am wahrscheinlichsten - Leistung über GTX 285, aber wohl unter GTX 295 - zumindest dort, wo SLi gut geht)

GTX 275 (GT214 ???)
GTX 270

GTX 265 (GT216 ???)
GTX 255


GTX 250
GTX 245 (GT218 ???)
usw.


Eine GTS 200 Serie wird es ja noch geben (G92 - die dritte ! :fresse: - die GT100 Serie wird ja aus G94 und G96 bestehen).
 
Zuletzt bearbeitet:
GTX 300 Serie? :wink:

Naja abwarten, die "Fakten" zum GT212 stimmen wohl so oder so nicht zu 100% ;)
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh