nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Tja die Bandbreite...ich glaub das hat auch was mit den miniFPS zutun.....
Ich schnapp mir da bis zu 6 FPS mehr (je nach xAA) wenn ich von ~1100 auf 1250mhz Ram OCe...

Ich glaube auch die X2 User können das bestädigen.....
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Auf jedenfall ist eines klar neu entwickelte programme u auch spiele verschlingen immer mehr der so dringend benötigten bandbreite,was heute vielleicht noch ausreichend erscheind kann morgen schon zum flaschenhals werden.Deshalb finde ich ein 265bit speicherinterface selbst wenn es mit DDR5 speicher bestückt ist für die nächste higendgeneration von grafikkarten etwas zu schwach auf der brust.Denn man sollte auch bedenken,das ein solch ausgestattetes system doch wieder für 1 - 2 jahre halten sollte u nicht ende des jahres eventuell einbricht in irgendwelchen applikationen aufgrund der zu eng gewählten datenanbindung.

Auch spiele werden wohl nicht ewig in der üblichen art u weisse weiterprogrammiert werden wie wir sie bis jetzt kannten.Erste versuche spiele auf basis von echtzeitraytracing zu berechnen wurden auf der nvision auf einem nvidia tesla system schon erprobt u werden wohl auch weiterentwickelt,weil diese technik einen quantensprung in der spielegrafik darstellen könnte.
Die sache ist nur die,diese technik benötigt enorm viel rechenpower u was noch viel wichtiger ist bandbreite die ein 256bit DDR5 interface höchstwahrscheinlich nicht liefern kann auch wenn diese neue Highend GPU vielleicht schon in der lage wäre aufgrund der cuda engine raytracingeffekte in echtzeit zu berechnen:)
 
Zuletzt bearbeitet:
Das stimmt wohl - udn es könnte durchaus sein, dass die Leistung, die auf dem Papier so gut aussieht aufgrund fehlender Bandbreite doch nicht so rüber kommt und vielleicht schon schneller am Limit ist - aber mal ehrlich - nV kann doch gar nicht wollen, dass eine GraKa so lange von ihrer Leistung her aktuell wie der G80 ist, oder ?! :asthanos:

Man hätte ja bei GDDR5 nicht unbedingt auf 512 Bit setzen müssen - 384 Bit hätten es z.B. auch getan - von mir aus auch 320 Bit. ;)

Aber wenn es eh nur ein "Performance" - Chip sein soll - der GT300 wird sicher wieder ein größeres SI kriegen. :cool:
 
Letztendlich ist die gesamte GT212 - 218 Serie doch eh nur eine 40 nm + GDDR5 Spielwiese für nV - um Erfahrungswerte für den GT300 zu sammeln. :fresse:
 
Ob sich später die Karten von Nvidia genauso wie heute übertakten lassen bezweifel ich, DDR5 und 256Bit??? ich dachte Nvidia kommt später mit 1024 Bit SI.... doch nicht.
 
Ich denke schon, dass sich die 40nm Modelle sehr gut übertakten lassen, zumindest die GPU - keine Ahnung wie weit der GDDR5 bis dahin gehen wird können.


Also 1024 Bit SI + GDDR5 ? :fresse: Das wär echt overpowered und so eine Bandbreite braucht es wohl erst frühstens Ende 2010!

Ich denke, der GT300 wird wohl auf 512 Bit + bis zu 2 GB GDDR5 setzen.
 
Ein Schritt vor und ein halber zurück?

Naja schließe mich meinem Vorrednern an, welche besagen, dass 512 Bit in der GT300 Fakt sein muss. 256 Bit ist einfach nicht mehr so ganz zeitgemäß und sollte nur als Übergangsmaßnahme zu sehen sein. Ausserdem soll ja der R-770 Nachfolger ja auch über 512 Bit + DDR -5 verfügen; und dann wird`s eng für Nvidia.
 
Hm - ich dachte ATi setzt auch beim RV870 auf 256 Bit ?!

Aber es stimmt schon - ne dicke nV Single High End Karte braucht 512 Bit SI - ob mit GDDR5 oder GDDR3 - es geht ums Prinzip - außerdem kann Leistung nie schaden, vor allem, wenn man DX 11 / SM 5.0 einführt. :coolblue:
 
Naja schließe mich meinem Vorrednern an, welche besagen, dass 512 Bit in der GT300 Fakt sein muss. 256 Bit ist einfach nicht mehr so ganz zeitgemäß und sollte nur als Übergangsmaßnahme zu sehen sein. Ausserdem soll ja der R-770 Nachfolger ja auch über 512 Bit + DDR -5 verfügen; und dann wird`s eng für Nvidia.

Laut bisherigen Infos soll auch der AMD Nachfolger weiterhin auf 256bit basieren.
 
Hm - ich dachte ATi setzt auch beim RV870 auf 256 Bit ?!

Aber es stimmt schon - ne dicke nV Single High End Karte braucht 512 Bit SI - ob mit GDDR5 oder GDDR3 - es geht ums Prinzip - außerdem kann Leistung nie schaden, vor allem, wenn man DX 11 / SM 5.0 einführt. :coolblue:

die leistung hat sehr wenig mit dem SI zutun.ums prinzip geht es schonmal garnicht,nur um kostaquanta.
 
So verallgemeinern kannste das nun auch nicht.

Das SI beeinflusst die Speicherbandbreite schon im großen Maße - sieht man halt vor allem beim G92 (auch wenn 1 GB VRAM eingesetzt werden).

Klar, eine hohe Bandbreite lässt sich auch durch hohen VRAM - Takt (und hier kann GDDR5 wirklich überzeugen - siehe ATi - RV 770) erziehlen.

Generell ist halt auch die Rohleistung der GPU sehr wichtig - es nützt nichts, eine hohe Speicherbandbreite zu haben und zu wenig Rohleistung, ebenso bringt es nix, wenn man eine hohe Rohleistung und eine niedrige Speicherbandbreite (G92 und co. - wobei etwa bei der 8800 GTS 512 und 9800 GTX(+) auch noch der geringe VRAM von 512 MB dazu kommen) hat.


Der GT300 wird Ende 2009 kommen und eine neue Architektur mit sich bringen - ich gehe darum mal davon aus, dass 512 Bit SI + GDDR5 kommen, auch wenn ein großes SI hohe Kosten bedeutet, aber wenn die Leistung stimmt, werden die Enthusiasten auch gerne 550+ € bezahlen.
 
Zuletzt bearbeitet:
Also ich denke nicht das die bandbreite den chip so einbremst wie hier einige vermuten! Ich gehe eher davon aus das die lächerlichen 96 TMUs das machen werden! Meinermeinung nach viel zu wenig in vergleich zu den overkill 384shader! Bei 384Shader müßte es min 128 TMUs sein und selbst dann wären es eigentlich noc zu wenig TMUs bei der hohen shader leistung!
Die bandbreit sollte dann aber auch in richtung min 150GB's gehen damit der chip nicht verhungert!
 
Zuletzt bearbeitet:
Ich finde das kommt darauf an.

Der G92 ist ja, genau wie der G212 im Performance Segment angesiedelt.

Ich würde den Bereich mal bis zu einer Auflösung von 1680*1050 deklarieren.

Und ich glaube auch da besteht der G92 noch recht gut. Zumindest bis 4x AA.

Ich glaube eher nicht, dass es bis zu dieser Auflösung zu irgend einer Limitierung kommen wird. (Einbrüche etc.)
 
Beim GT212 ist natürlich (bei einer Bandbreite von geschätzten 150 - 160 GB/s) und dem wesentlich stärkeren Chip in Kombination mit genügend VRAM (wohl 1 GB) davon auszugehen,
dass er im Vergleich zum G92 auch bei 8xAA nicht all zu sehr Leistung verlieren dürfte.

E: Außerdem trifft das zu, was TopAce888 schon andeutete - der G92 hatte im Vergleich zum G80 nich mehr Shader Units, weniger ROPs (16 statt 24), dafür halt höhere Taktraten (gut GDDR3 Takt war afaik bei der 8800 Ultra höher).

Beim GT212 wird aber nur das SI beschnitten, was sich in etwa durch schnelleren GDDR5 ausgleichen lässt, ansonsten ist der dem GT200 / GT206 in allen Belangen (Taktraten, Temperaturen, OC, Shader Units und TMUs überlegen.
 
Zuletzt bearbeitet:
Dazu noch unter 300 mm² Diefläche, schön!
Für 40 nm ist das aber immer noch ziemlich gross. Proportional auch nicht grossartig besser als 576 mm² in 65 nm. Das einzig gute daran ist, dass der Chip dafür vermutlich um einiges leistungsfähiger als der G200 wird.
 
Wobei - bei 1.8 Mrd. Transitoren ist der Wert imho schon ok - klar ATi wird hier mit dem RV 870 um einiges kleiner sein (260 mm² @ 55nm + 0.976 Mrd. Transistoren), aber der Chip wird sicher nicht so ein Monster wie GT212 / GT300 werden, sondern eine sehr konkurrenzfähige und auch moderne Performance - GPU werden.
 
Beim GT212 ist natürlich (bei einer Bandbreite von geschätzten 150 - 160 GB/s) und dem wesentlich stärkeren Chip in Kombination mit genügend VRAM (wohl 1 GB) davon auszugehen,
dass er im Vergleich zum G92 auch bei 8xAA nicht all zu sehr Leistung verlieren dürfte.

E: Außerdem trifft das zu, was TopAce888 schon andeutete - der G92 hatte im Vergleich zum G80 nich mehr Shader Units, weniger ROPs (16 statt 24), dafür halt höhere Taktraten (gut GDDR3 Takt war afaik bei der 8800 Ultra höher).

Beim GT212 wird aber nur das SI beschnitten, was sich in etwa durch schnelleren GDDR5 ausgleichen lässt, ansonsten ist der dem GT200 / GT206 in allen Belangen (Taktraten, Temperaturen, OC, Shader Units und TMUs überlegen.

Wie siehts denn mit den ROPs beim GT212 aus? Da das SI auf 256 Bit reduziert wird, müsste sich (wenn nvidia nichts am Aufbau der GPU ändert), die Anzahl der ROPs wieder auf 16 reduzieren. Das kann ich mir aber beim Besten willen nicht vorstellen. Oder wird einfach die Anzahl der ROPs in einer ROP-Partition verdoppelt? Dann wären wir wieder bei 32 ROPs ei eine 256-bittigen SI.
 
Ich verstehe sowieso nicht warum das Speicherinterface jetzt gekürzt und GDDR5 genutzt werden soll. Werden dadurch die Herstellungskosten billiger oder was?
 
Genau so ist es und das Platinenlayout wird dadurch vereinfacht.
 
Wie siehts denn mit den ROPs beim GT212 aus? Da das SI auf 256 Bit reduziert wird, müsste sich (wenn nvidia nichts am Aufbau der GPU ändert), die Anzahl der ROPs wieder auf 16 reduzieren. Das kann ich mir aber beim Besten willen nicht vorstellen. Oder wird einfach die Anzahl der ROPs in einer ROP-Partition verdoppelt? Dann wären wir wieder bei 32 ROPs ei eine 256-bittigen SI.

Das ist eine gute Frage - wäre gut möglich, dass man wieder auf deren 16 setztm aber das klingt für Mitte '09 und im Prinzip einer so starken GPU doch ein wenig schwachbrüstig.
 
wozu das teure 512 Bit Speicherinterface benutzen, wenn der Markt GDDR5 hergibt der die Speicherbandbreite ausgleicht .. völlig logisch.

Nvidia wird langsam auch mal gezwungen sinnvoll zu produzieren, das muss aber nicht heißen schlechter ;)

um zu wissen wo der G212 steht müssten jetzt noch infos vom RV870 durchsickern.
 
Das ist eine gute Frage - wäre gut möglich, dass man wieder auf deren 16 setztm aber das klingt für Mitte '09 und im Prinzip einer so starken GPU doch ein wenig schwachbrüstig.

Selbst mit 800 MHz Core-Takt läge man mit 16 ROPs noch unterhalb einer GTX260 mit 28 und 575 Core-Takt.
 
Eben, genau deswegen kann ich es mir nicht vorstellen, dass die Anzahl der ROPs so beschnitten wird. CB mutmaßt ja, dass evtl. das SI der einzelnen ROP Partitionen auf 32-Bit verkleinert wird und dann der Core um weitere Partitionen erweitert wird.
 
Genauso ist es und dann wird für die Massen wieder beschnitte und günstig angeboten! ;)
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh