nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] [Part 1.1]

Status
Für weitere Antworten geschlossen.

Koebes

Groß-Admiral deLuxx
Thread Starter
Mitglied seit
12.10.2006
Beiträge
2.533
Ort
DA - LIP
nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]


In Anlehnung an den guten alten
geht es in diesem Thread um Informationen, Meinungen, Fragen und Spekulationen
rund um das Thema zum kommenden NextGen. HighEnd DirectX 11 GT300 Chip.


HighEnd oder nicht HighEnd, das ist hier die Frage!?! ;)

Der GT212 sollte also erst der Nachfolger des GT200 (GTX 285) werden.


Somit wird klar, der NextGen. HighEnd DirectX 11 Chip in 40nm, ist der GT300.


nvlogodeluxxpp3.jpg

Infos zum nv GT300:


- Multiply Instruction Multiple Data (MIMD)-Einheiten

- neues Power- und Speichermanagement

- "wahrer" G80 Nachfolger


- 512 Shadereinheiten


- GDDR 5 Speicher


- 512 Bit Speicherinterface


- Anzahl der Shadercluster von 10 auf 16


- 128 statt 80 TMUs

...


Links:


http://www.hardware-infos.com/news.php?news=2663


http://www.fudzilla.com/index.php?option=com_content&task=view&id=11666&Itemid=65


http://www.pcgameshardware.de/aid,654085/TSMCs-40nm-GP-RV870-und-GT300-fast-viermal-so-schnell-wie-heute/Grafikkarte/News/


http://www.hartware.de/news_46678.html


http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/april/erste_direct3d-11-karte_nvidia_q4_09/


http://www.fudzilla.com/index.php?option=com_content&task=view&id=13002&Itemid=65


http://www.hardware-infos.com/news.php?news=2871


http://www.hardware-infos.com/news.php?news=2891


http://www.hartware.de/news_46774.html


http://www.brightsideofnews.com/news/2009/4/22/nvidias-gt300-specifications-revealed---its-a-cgpu!.aspx


http://www.hardwareluxx.de/community/showthread.php?t=607119


http://www.hardware-infos.com/news.php?news=2904


http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/april/kommt_nvidias_gt300_512_shadereinheiten/


http://www.hardware-infos.com/news.php?news=2930


http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/mai/nvidia_gt300_512_bit_gddr5/


http://www.hardware-infos.com/news.php?news=2944


http://www.hardware-infos.com/news.php?news=2952


http://www.hardware-infos.com/news.php?news=2954


http://www.hardware-infos.com/news.php?news=2997


http://www.hartware.de/news_47143.html


http://www.computerbase.de/news/hardware/grafikkarten/2009/juni/gt300_rv870_wann_chips/


http://www.hardware-infos.com/news.php?news=3117


http://www.hartware.de/news_47452.html


http://www.hardware-infos.com/news.php?news=3225


http://www.hardware-infos.com/news.php?news=3226


http://www.hardware-infos.com/news.php?news=3227


http://www.hardware-infos.com/news.php?news=3228


http://www.hartware.de/news_47713.html


http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/oktober/offiziell_fermi_gt300/




-----------------------------------------------------------------------------------------------------------------------------------------------------------------------



News - Historie zum nv GT212:

Der GT212 sollte im 40 nm Verfahren hergestellt werden.
Die Chipfläche beträgt ca. < 300 mm² mit < 1800 Mio. Transistoren.
Es gibt 384 Shadereinheiten und 96 TMUs.
Das Speicherinterface soll (von max. 512 Bit des GT 200) auf nur 256 Bit beschnitten werden.
Um ähnliche Bandbreite zu gewährleisten, sollte hier der verbaute GDDR5 Speicher statt GDDR3 für Abhilfe sorgen.
Launch des GT212 sollte im Q2/2009 sein.


Links:


http://www.hardware-infos.com/news.php?news=2629


http://www.hartware.de/news_46158.html


http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/januar/erste_details_nvidias_gt212-chip/


http://www.pcgameshardware.de/aid,671975/News/GT212-_Angebliche_Specs_der_Nvidia-GPU_gesichtet/


http://www.hardware-infos.com/news.php?news=2612


http://www.hartware.de/news_46263.html


http://www.fudzilla.com/index.php?option=com_content&task=view&id=11696&Itemid=65


http://www.hartware.de/news_46365.html


http://www.hartware.de/news_46403.html


http://www.hardware-infos.com/news.php?news=2892




. . . to be updated ! . . .



.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also dieses mal wird Nvidia nicht so punkten, ATI hat mit der 5800 schon verdammt viel richtig gemacht.
Zumal ja schon durchgesickert ist das wieder so ein Transistoren Monster kommt.
 
Solange die Leistung stimmt, ist es mir völlig egal ob das Teil ein Monster ist oder nicht...

Der Stromverbrauch könnte auch noch ein Kriterium sein, aber das war bei der jetzigen Generation auch kein großer Unterschied zw. Ati und NV.

Bzw. verbrauchten die NV Karten glaube ich sogar etwas weniger, oder ?

Im Prinzip kommt es NUR auf das P/L Verhältnis an.
 
Der Stromverbrauch könnte auch noch ein Kriterium sein, aber das war bei der jetzigen Generation auch kein großer Unterschied zw. Ati und NV.

Bzw. verbrauchten die NV Karten glaube ich sogar etwas weniger, oder ?


Die alte Generation ist da unerheblich, schau auf die neue. Und da sieht Ati sehr gut aus. Ich bezweifle, dass der GT300 nur annähernd so sparsam sein wird.
 
Mal schauen, Nvidia ist ja genau wie ATI an die PCI-E Spezifikationen gebunden...

Ein großer Unterschied kann also nicht sein.

Und selbst wenn die Karten schneller wären (wovon ich ausgehe, wegen der vollmundigen Ankündigungen) dürften Sie auch etwas mehr Strom verbrauchen...

*edit*

Das soll jetzt aber nicht heißen, dass die ATI Karten schlecht, sind! Ganz im Gegenteil :)

Ich will nur erstmal die Konkurrenz abwarten, dürfte auch bezüglich des Preises eine nicht unerhebliche Rolle spielen!
 
Zuletzt bearbeitet:
Wenn sie schneller ist, dann darf sie auch mehr verbrauchen ;)
 
Mal schauen, Nvidia ist ja genau wie ATI an die PCI-E Spezifikationen gebunden...

Ein großer Unterschied kann also nicht sein.

Und selbst wenn die Karten schneller wären (wovon ich ausgehe, wegen der vollmundigen Ankündigungen) dürften Sie auch etwas mehr Strom verbrauchen...


Und ob der Unterschied groß sein kann. Unter Last verbrauchen die neuen gerade mal so viel wie die Vorgängergeneration, was angesichts der besseren Leistung sehr gut ist. NVIDIA braucht da schon mehr. Und da NVIDIAs neue Generation wieder deutlich mehr Transistoren aufweisen sollte und noch einen größeren Leistungssprung hinlegen dürfte, würde ich keine Wetten abschließen wollen. Vom Idle Verbrauch wollen wir nicht reden. Da müsste NVIDIA einen effizienteren Modus bauen, um da in die Nähe zu kommen.
 
Wollte mir auch ne neue Graka kaufen. Wollte eigentlich jetzt von meiner GTX 260er zur neuen ATI wechseln............. aber so wie es im Moment aussieht werde ich glaub auch noch warten und gucken was NV rausbringt.
Hab mir damals auch die G80 gekauft, so lange hatte ich noch nie ne Grafikkarte im PC, war echt ne Top Karte mit der man noch immer fast alles spielen kann!
 
Also ich glaub ja nicht, dass die GTX 380 eine höhere TDP als die spekulierten 225 Watt hat. Von daher würden wohl 2 x 6 pol. PCIe ausreichen. Den Volllastverbrauch schätze ich minimal höher ein als der der HD 5870 (188 Watt) - der sollte so um die 200 Watt liegen.
 
Hallo,

hoffentlich tut sich auch etwas beim Shadertakt im Vergleich zu alten Generation. Mit Erhöhung der Anzahl der Shadereinheiten gewinnt man halt nicht automatisch bei allen Spielen bzw. Auflösungen bzw. Spiel-Einstellungen. Darüber hab ich mir schon mal Gedanken gemacht und nach den Grakatests vom 23.09 fühle ich mich in dieser Befürchtung etwas bestätigt.
aus dem CB-Test:
100 % mehr Shadereinheiten und dabei nur 48-62 % mehr Performance in Spielen.
Das ist imho nicht gerade effizient.
Aber Nvidia muss es erstmal besser machen.

ciao Tom

P.S. Beim G200 wäre wohl afaik ohne die Probleme bei der Chipausbäute auch mehr Takt angedacht gewesen.
 
Zuletzt bearbeitet:
aus dem CB-Test:
100 % mehr Shadereinheiten und dabei nur 48-62 % mehr Performance in Spielen.
Das ist imho nicht gerade effizient.
Aber Nvidia muss es erstmal besser machen.


Schonmal dran gedacht, dass noch andere Werte ausschlaggebend sind und bremsen können? Speicherbandbreite ist dir ein Begriff?
 
wenn die GTX 380 Leistungstechnisch zwischen der 5870 und der 5870 x2 liegt reicht mir das. Dann ist die GTX meine. Allerdings hätte ich schon ganz gerne eine mit 2GB...aber dann muss ich ja locker noch 1-2 Monate länger warten :(
 
Update 25. September 2009
Wie Fudzilla meldet, hat ein Senior Manager von Nvidia ihnen gegenüber ausgesagt, dass die Ausbeute bei der Herstellung in 40nm gut sei und die Gerüchte, die im Umlauf sind, jeder Grundlage entbehren würden.

Außerdem will man erfahren haben, dass es für Nvidia kein Problem darstellen dürfte, Ende November oder zumindest im Dezember mit der Auslieferung der eigenen DirectX-11-Karten mit GT300-Grafikchip zu beginnen. Nvidia könnte die Karten sogar vorher vorführen, um Interessenten nicht ins ATI-Lager wechseln zu lassen.

Quelle:
http://www.gamestar.de/hardware/news/grafikkarten/1959028/nvidia.html
 
dass es für Nvidia kein Problem darstellen dürfte
naja, Produktion ab mitte Oktober auf Volltouren....
wieviel produzieren die denn pro Tag?!? weiss das einer?
 
Update 25. September 2009
Wie Fudzilla meldet, hat ein Senior Manager von Nvidia ihnen gegenüber ausgesagt, dass die Ausbeute bei der Herstellung in 40nm gut sei und die Gerüchte, die im Umlauf sind, jeder Grundlage entbehren würden.

Außerdem will man erfahren haben, dass es für Nvidia kein Problem darstellen dürfte, Ende November oder zumindest im Dezember mit der Auslieferung der eigenen DirectX-11-Karten mit GT300-Grafikchip zu beginnen. Nvidia könnte die Karten sogar vorher vorführen, um Interessenten nicht ins ATI-Lager wechseln zu lassen.

Quelle:
http://www.gamestar.de/hardware/news/grafikkarten/1959028/nvidia.html

auch gerad gelesen :d
wollen wir hoffen, dass an den (üblen) Gerüchten wirklich nichts dran ist!
hab auch nicht wirklich bock auf ATI/AMD umzusteigen :fresse:
 
Also der G300 sollte wohl mindestens mit 700 MHz Coretakt und 1600 MHz Shadertakt kommen (was ja auch vor ein paar Monaten spekuliert wurde) - wenn alles gut geht (Temps. und so weiter) kann man ja die Taktraten auch auf 750 MHz oder so setzen. Auf jeden Fall sollte mit OC auch 850 MHz drin sein; damit wär man sicher noch ein gutes Stück schneller als eine HD 5870 @ 1 GHz.

Die Effizienz der Shader soll ja auch deutlich verbessert sein. Nun ja, ein Paperlaunch im November wär zwecks Review - Battles mit RV870 nicht schlecht.

Jedenfalls denk ich, dass NV zumindest bei der GTX 380 gleich auf 2 GB GDDR5 setzt - wenn man schon ein 512 Bit SI hat. 1 GB würde, auch wenn das Memory - Management gegenüber G200 verbessert wurde, sicher keine optimale Lösung sein und die GPU in FullHD+ Auflösungen mit extremen AA Modi sehr ausbremsen.

Die nächst kleineren Karten a la GTX 360 werden sicher ein 448 Bit großes SI samt 1792 MB GDDR5 haben - denk ich mal.
 
Also der G300 sollte wohl mindestens mit 700 MHz Coretakt und 1600 MHz Shadertakt kommen (was ja auch vor ein paar Monaten spekuliert wurde) - wenn alles gut geht (Temps. und so weiter) kann man ja die Taktraten auch auf 750 MHz oder so setzen. Auf jeden Fall sollte mit OC auch 850 MHz drin sein; damit wär man sicher noch ein gutes Stück schneller als eine HD 5870 @ 1 GHz.

Die Effizienz der Shader soll ja auch deutlich verbessert sein. Nun ja, ein Paperlaunch im November wär zwecks Review - Battles mit RV870 nicht schlecht.

Jedenfalls denk ich, dass NV zumindest bei der GTX 380 gleich auf 2 GB GDDR5 setzt - wenn man schon ein 512 Bit SI hat. 1 GB würde, auch wenn das Memory - Management gegenüber G200 verbessert wurde, sicher keine optimale Lösung sein und die GPU in FullHD+ Auflösungen mit extremen AA Modi sehr ausbremsen.

Die nächst kleineren Karten a la GTX 360 werden sicher ein 448 Bit großes SI samt 1792 MB GDDR5 haben - denk ich mal.

ich hoffe auch das die karten gleich 2 GB ram haben, das würde den premium anspruch unterstützen. Nicht wie bei ATi, wo man erstmal auf die sinvollen 2GB Ram warten darf....
 
Also wenn NV einen Preis etwa auf HD 5870 X2 Level (afaik 599$) für die GTX 380 anpeilt, was sie wohl tun werden -
vielleicht auch etwas weniger also um die 550$ - dann wird man schon auf 2 GB VRAM setzen.

Alles andere wäre, wie du schon sagtest kein "Premium Anspruch". ;)
 
sagte ich doch schon, wie beim G80, es macht Knall und die Dinger liegen im Laden :d

Naja mir Wurscht, ich kauf mir keine Graka mehr über 350€.


Meine einzige GraKa die ich über 400€ gekauft habe war die 8800GTX für 600€ damals (Anfang 2007). Und diese Karte war und ist jeden Cent wert, sowas kriegt man bestimmt nicht wieder zu Gesicht:shake:Ich hoffe aber dennoch, dass es auch beim GT300 so wird.


mfg
 
Mehr als 400 Flocken würde ich schon ausgeben, aber dann muss die Leistung wesentlich besser sein als bei der 5870 (X2)...
 
na dass sie mehr Leistung hat wie ne x2 wage ich zu bezweifeln. Wäre zwar wünschenswert...glaube ich aber kaum. Warten bis zum Launch werde ich auf jeden Fall noch. Ich denke zwar schon die ganze Zeit über ne x2 nach, aber die paar Wochen bringen mich nicht um. Da reicht mir die 4er x2 noch. Ne GTX 395 wäre ja nicht möglich bei mir wie ich schonmal schrieb, aber wenn ich die Leistung der 5er x2 sehe wäre das auch overkill bei meiner Auflösung 1920x1200. Zumindest bei aktuellen Games. Ausgeben würde ich bis zu 600,-€ wenn sie die Leistung der x2 bringt
 
Update 25. September 2009
Wie Fudzilla meldet, hat ein Senior Manager von Nvidia ihnen gegenüber ausgesagt, dass die Ausbeute bei der Herstellung in 40nm gut sei und die Gerüchte, die im Umlauf sind, jeder Grundlage entbehren würden.

Außerdem will man erfahren haben, dass es für Nvidia kein Problem darstellen dürfte, Ende November oder zumindest im Dezember mit der Auslieferung der eigenen DirectX-11-Karten mit GT300-Grafikchip zu beginnen. Nvidia könnte die Karten sogar vorher vorführen, um Interessenten nicht ins ATI-Lager wechseln zu lassen.

Quelle:
http://www.gamestar.de/hardware/news/grafikkarten/1959028/nvidia.html


Laut der Aussage des nVidia Managers "könnte" man die Karten sogar schon vorher vorführen so dass mögliche Käufer des G300 nicht zu ATi/AMD wechlsen.

Also wenn sich die neuen HD5000er Karten schon so gut verkaufen und der Preis für die gebotene Leistung recht ordentlich ist, wieso reagiert nVidia dann nicht? Haben sie es echt nicht nötig? Das stimmt mich schon ein bisschen nachdenklich.

Eine andere Theorie wäre, alles bis zur aller letzten Minute geheim zu halten und erst beim Release die Fakten auf den Tisch zu knallen.
 
Laut der Aussage des nVidia Managers "könnte" man die Karten sogar schon vorher vorführen so dass mögliche Käufer des G300 nicht zu ATi/AMD wechlsen.

Also wenn sich die neuen HD5000er Karten schon so gut verkaufen und der Preis für die gebotene Leistung recht ordentlich ist, wieso reagiert nVidia dann nicht? Haben sie es echt nicht nötig? Das stimmt mich schon ein bisschen nachdenklich.

Eine andere Theorie wäre, alles bis zur aller letzten Minute geheim zu halten und erst beim Release die Fakten auf den Tisch zu knallen.

wei beim G80 nämlcih da dachte jeder es wird nur verbesserte architektur ohne unified shader usw, und was kam dann..
 
Im Vergleich zum G200 soll es fast schon eine neue Architektur sein - auf jeden Fall gibt es nun soviele Änderungen / Verbesserungen wie zuletzt Anno 2006 beim G80 Release !
Gut, ganz soviele nicht - da man beispielsweise immer noch auf 1D Unified Shader setzen wird oder etwa auch deren Clusteraufbau sehr ähnlich sein wird, aber man muss das Rad ja nicht immer neu erfinden - das hat ATi ja nun auch nicht gemacht. ;)
 
Zuletzt bearbeitet:
Abwarten. Komplett neu wird sie sicherlich nicht sein. Aber da der "wahre" G200 damals gecancelt wurde und der jetzige mehr ein Aufguss der G80 Architektur ist die noch so einige Berreiche hat in denen man sie verbessern könnte ist es schwer zu sagen was denn nun rauskommt.

Komplett neu wird er sicherlich nicht, trotzdem könnte die doppelte Leistung einer 285er möglich sein, vielleicht sogar mehr. Allerdings halt auch bedeutend weniger, die FX Serie damals klang am Anfang auch wie die Erlösung, am Ende war sie es allerdings irgendwie... nicht.

Sollte es NV gelingen wirklich einen verdammt Performanten G300 zu schaffen wird ATI es mit einer X2 aufgrund der PCIe 2.0 Restriktionen allerdings schwer haben gut Kontern zu können in diesem Segment.
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh