nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] [Part 1.1]

Status
Für weitere Antworten geschlossen.
Selbst bei der HD 5870 hat man ein 512bit SI erwartet, dabei reicht das jetzige vollkommen aus. Die Frage ist halt auch, in wie weit nVidia das Speichermanagement verbessert und optimiert hat.

Bei ATi ja nicht nötig denn das Speichermanagement is ja besser als bei nV, aber wenn nV nichts dran verändert hat dann müssten es schon 512 Bit sein ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Duplex: kannst du deine Aussage mit Fakten belegen? Nein! Also sind das nur reine Vermutungen auf emontionaler Basis.
 
Über den RV970 is nix bekannt, ergo :confused:
 
Wenn überhaupt, dann wird ATi/AMD wie bisher gehabt versuchen erstmal Erfahrungen mit einem neuen Fertigungsprozess zu sammeln anstatt gleich mit einer neuen Generation 28nm auszuprobieren. Bis man mit 28nm soweit ist und auch Karten am Markt anbieten kann, wird noch ein bisschen Zeit vergehen.
 
Wenn die wirklich schon in der ersten Jahreshälfte 2010 erscheinen, dann lohnt sich der Kauf der neuen HD5000-er Reihe überhaupt nicht. Wenn man jetzt 300 Euro für eine HD5870 zahlt und schon im Mai eine HD6870 mit 28nm kommt, die wahrscheinlich auch um die 300 Euro kosten wird, dann wäre es jetzt sinnlos eine neue Karte zu kaufen. Außer man braucht unbedingt DX11 für Dirt 2.....
MfG
Boby
 
Der RV970 sollte doch ne komplett neue Architektur sein, da glaub ich kaum an 2010, vielleicht knapp vor Weihnachten :)

Und nV soll endlich hinne machen mit dem G300, ich will Benches sehen...
 
hat nicht amd vorrecht auf 32nm und NV auf 28? und 28nm soll NV ende 2010 bekommen zum testen so wie es ati für die 4770 bekommen hat.
 
Denke auch nicht das 28nm vor der zweiten Jahreshälfte 2010 spruchreif ist und man anfangen kann erste Chips testweise zu produzieren. Wenn überhaupt, evtl bleib 2010 auch alles in 40nm.
 
ne 32nm kommt sicher notfalls von GF die wollen ihn ja mitte Q2 ready haben und ab mitte Q3 für die massenproduktion.
 
Bei ATi ja nicht nötig denn das Speichermanagement is ja besser als bei nV, aber wenn nV nichts dran verändert hat dann müssten es schon 512 Bit sein ;)

Naja besser ist das nicht, sondern anders. Nvidia verfolgt die Strategie den Ram mit oft verwendeten Texturen/Daten, etc zu füllen, leider kommen Grakas dadurch sehr ans Limit, hätte die Graka genug Ram, wäre das definitiv flotter als bei ATI.
Man kann nicht sagen, dass das besser ist oder das.
 
Interestingly, it is rumored that AIC partners will design GT300 cards themselves.GT300 has double shaders than that of the previous generation. GT 300 will have 480 shader processors fitted with GDDR5 memories on 384-bit memory interface.

Das wär ja mal was Neues - 480 Unified Shader und 384 Bit SI statt wie bisher angenommen deren 512 Shader und 512 Bit SI.
Dann würde die "GTX 380" wohl mit 1536 MB VRAM kommen.


Gut - 384 Bit SI + GDDR5 würde an für sich auch schicken. Man wär in Sachen Speicherbandbreite immer noch ein gutes Stück vor ATi (153,6 GB/s bei 256 Bit SI + 1,2 GHz GDDR5)

384 Bit SI + 1,0 GHz GDDR5 = 192,0 GB/s
384 Bit SI + 1,1 GHz GDDR5 = 211,2 GB/s
384 Bit SI + 1,2 GHz GDDR5 = 230,4 GB/s
384 Bit SI + 1,3 GHz GDDR5 = 249,6 GB/s

Für die kleineren Modelle könnte man ja 320 Bit SI und 256 Bit SI einsetzen, (eventuell auch noch 192 Bit)

128 Bit SI wär dann etwa HD 5770 Level und kombiniert mit GDDR3 VRAM Lowend.


Angenommen das mit den 320 Bit für den kleineren G300 Ableger bewahrheitet sich, dann wären das bei sicher 1280 MB VRAM:

320 Bit SI + 1,0 GHz GDDR5 = 160,0 GB/s
320 Bit SI + 1,1 GHz GDDR5 = 176,0 GB/s
320 Bit SI + 1,2 GHz GDDR5 = 192,0 GB/s
320 Bit SI + 1,3 GHz GDDR5 = 208,0 GB/s


Für die Mainstream Ableger (im Kampf gegen HD 5850) wär dann wohl 256 Bit + GDDR5 mit 1024 MB VRAM angebracht

256 Bit SI + 1,0 GHz GDDR5 = 128,0 GB/s
256 Bit SI + 1,1 GHz GDDR5 = 140,8 GB/s
256 Bit SI + 1,2 GHz GDDR5 = 153,6 GB/s
256 Bit SI + 1,3 GHz GDDR5 = 166,4 GB/s


It is reported that GT 300 has taped out and expected to lanch in late 2009.GT300 has billions of transistors,bigger and faster than Radeon HD5870.Its GX2 dual version is on track.

Hm - ob man es schafft ohne Teildeaktvierung und Heruntertakten eine "GTX 395" zu bringen ?! Wir werden es sehen.
 
Zuletzt bearbeitet:
Schade, kein 512Bit SI...
 
Bei einer verbesserten Speicherverwaltung und einer erhöhten Bandbreite ist das auch nicht wirklich nötig. Ich frage mich nur, wie die kleineren G300 "Ableger" mit einem evtl. 256 bzw. 320bit SI und reduzierter Anzahl an US klar kommen werden? Sicherlich ist das SI dann an die Leistung "angepasst", aber wenn das ganze etwas zu klein dimensioniert ist...
 
sieht man doch bei amd das es nicht unbedingt 512bit sein müssen..wobei mir dort auch 320-384 lieber wären;)
ist ja aber alles nichts neues..fragt sich immer noch wann und ob das ganze rechtzeitig kommt.
 
Ich frage mich, was dann für eine Speichermenge auf der "großen" Karte verbaut wird. 1536MB oder was? Meine nächste Karte(n) sollte eigentlich 2GB Speicher haben.
 
Ich frage mich, was dann für eine Speichermenge auf der "großen" Karte verbaut wird. 1536MB oder was? Meine nächste Karte(n) sollte eigentlich 2GB Speicher haben.

mit sicherheit dürft es etwas später auch 3gb modelle geben. entweder durch größere speicherchips oder beidseitiger bestückung.
 
Beidseitige Bestückung finde ich nicht gut, da ich sicher wieder einen Fullcover Wakü-Kühler verbauen werde. Und 3GB werden wohl etwas sehr teuer werden und dann eventuell noch ein vom Standard abweichendes Design erfordern. Das finde ich eh blöd, dass NV jetzt seinen Board-Partnern erlauben will eigene Designs zu entwerfen. Dann wirds sehr schwer einen ordenlichen Wasserkühler zu bekommen.
 
mit sicherheit dürft es etwas später auch 3gb modelle geben. entweder durch größere speicherchips oder beidseitiger bestückung.

wofür 3GB?
Wenn die Karte wirklich 1,5 GB beherbergt ist das doch optimal. Sie werden an den jetzigen 2GB Modellen gesehen haben, dass die Auslastung im Grenzbereich liegt. Das ist der Grund warum ich ne 2GB haben wollte. Wenn aber 1,5 angeboten werden und diese ausreichen ists doch gut ;)
Ist zwar schade, dass das SI geringer ist wie erwartet...aber sonst kann man ja wieder nicht rummosern :fresse:
Einzige Befürchtung die ich habe, dass die Karte "LAAUUT" wird :(
 
Zuletzt bearbeitet:
jahaa, mit der Single...warte mal die x2 ab ;) :fresse: Ich denke nicht, dass sich da viel zur jetzigen tun wird. Genau das möchte ich nicht mehr. Zwar haben die das AF verbessert, aber das Geflackere soll immernoch nicht ganz weg sein sowie anscheinend immernoch ein paar optimierungen an sein sollen die die Bildquali verschlechtern. Alles in Allem sollen die Qualitäten deutlich verbessert worden sein. Ich war auch drauf und dran mir ein CF zu basteln, habe mir es aber nochmal durch den Kopf gehen lassen und warte nun auf die GTX380.
 
1,5 GB VRAM (12 x 128 MB) sollte erstmal ne Weile schicken. Es heißt ja auch, dass das VRAM Management optimiert worden sei.

Man könnte später ja auch je 256 MB (2 Gigabit - bin da derzeit nicht auf dem neusten Stand, was maximal an Kapazität möglich ist - bis jetzt wurden halt immer 1 Gigabit Chips verwendet) einsetzen oder halt auch den halben VRAM noch auf die Rückseite packen - für 3 GB.

Man kann sich auf jeden Fall sicher sein, dass sagen wir mal 2010 einige Hersteller Versionen mit dem doppeltem VRAM vorstellen werden.
 
Zuletzt bearbeitet:
was für dicke Karten sollen denn dabei rauskommen wenn die Chips auf der Rückseite verbautwerden sollen !?! :eek: Die müssen ja auch irgendwie gekühlt werden. Da wirds sicherlich Probleme geben. Ausserdem kann ich den Release kaum noch erwarten. Wenn ich sie habe wandert meine x2 in den MP
 
was für dicke Karten sollen denn dabei rauskommen wenn die Chips auf der Rückseite verbautwerden sollen !?! :eek: Die müssen ja auch irgendwie gekühlt werden. Da wirds sicherlich Probleme geben. Ausserdem kann ich den Release kaum noch erwarten. Wenn ich sie habe wandert meine x2 in den MP

wieso dick , es gab schon immer karten mit speicherchips auf beiden seiten, eigentlich bei fast jeder generation mal
 
naja, aber die Abwärme war bis dato nicht so groß. Ein gutes Kühlkonzept muss da sicher her und kann mir nicht so ganz vorstellen, dass sie gleiches wie der GTX285/295 verwenden werden.
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh