nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.

Koebes

Groß-Admiral deLuxx
Thread Starter
Mitglied seit
12.10.2006
Beiträge
2.533
Ort
DA - LIP
nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]


In Anlehnung an den guten alten
geht es in diesem Thread um Informationen, Meinungen, Fragen und Spekulationen
rund um das Thema zum kommenden NextGen. HighEnd DirectX 11 GT300 Chip.


HighEnd oder nicht HighEnd, das ist hier die Frage!?! ;)

Der GT212 sollte also erst der Nachfolger des GT200 (GTX 285) werden.


Somit wird klar, der NextGen. HighEnd DirectX 11 Chip in 40nm, ist der GT300.


nvlogodeluxxpp3.jpg

Infos zum nv GT300:


- Multiply Instruction Multiple Data (MIMD)-Einheiten

- neues Power- und Speichermanagement

- "wahrer" G80 Nachfolger


- 512 Shadereinheiten


- GDDR 5 Speicher


- 512 Bit Speicherinterface


- Anzahl der Shadercluster von 10 auf 16


- 128 statt 80 TMUs

...


Links:


http://www.hardware-infos.com/news.php?news=2663


http://www.fudzilla.com/index.php?option=com_content&task=view&id=11666&Itemid=65


http://www.pcgameshardware.de/aid,654085/TSMCs-40nm-GP-RV870-und-GT300-fast-viermal-so-schnell-wie-heute/Grafikkarte/News/


http://www.hartware.de/news_46678.html


http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/april/erste_direct3d-11-karte_nvidia_q4_09/


http://www.fudzilla.com/index.php?option=com_content&task=view&id=13002&Itemid=65


http://www.hardware-infos.com/news.php?news=2871


http://www.hardware-infos.com/news.php?news=2891


http://www.hartware.de/news_46774.html


http://www.brightsideofnews.com/news/2009/4/22/nvidias-gt300-specifications-revealed---its-a-cgpu!.aspx


http://www.hardwareluxx.de/community/showthread.php?t=607119


http://www.hardware-infos.com/news.php?news=2904


http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/april/kommt_nvidias_gt300_512_shadereinheiten/


http://www.hardware-infos.com/news.php?news=2930


http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/mai/nvidia_gt300_512_bit_gddr5/


http://www.hardware-infos.com/news.php?news=2944


http://www.hardware-infos.com/news.php?news=2952


http://www.hardware-infos.com/news.php?news=2954


http://www.hardware-infos.com/news.php?news=2997


http://www.hartware.de/news_47143.html


http://www.computerbase.de/news/hardware/grafikkarten/2009/juni/gt300_rv870_wann_chips/


http://www.hardware-infos.com/news.php?news=3117


http://www.hartware.de/news_47452.html


http://www.hardware-infos.com/news.php?news=3225


http://www.hardware-infos.com/news.php?news=3226


http://www.hardware-infos.com/news.php?news=3227


http://www.hardware-infos.com/news.php?news=3228


http://www.hartware.de/news_47713.html


http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/oktober/offiziell_fermi_gt300/




-----------------------------------------------------------------------------------------------------------------------------------------------------------------------



News - Historie zum nv GT212:

Der GT212 sollte im 40 nm Verfahren hergestellt werden.
Die Chipfläche beträgt ca. < 300 mm² mit < 1800 Mio. Transistoren.
Es gibt 384 Shadereinheiten und 96 TMUs.
Das Speicherinterface soll (von max. 512 Bit des GT 200) auf nur 256 Bit beschnitten werden.
Um ähnliche Bandbreite zu gewährleisten, sollte hier der verbaute GDDR5 Speicher statt GDDR3 für Abhilfe sorgen.
Launch des GT212 sollte im Q2/2009 sein.


Links:


http://www.hardware-infos.com/news.php?news=2629


http://www.hartware.de/news_46158.html


http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/januar/erste_details_nvidias_gt212-chip/


http://www.pcgameshardware.de/aid,671975/News/GT212-_Angebliche_Specs_der_Nvidia-GPU_gesichtet/


http://www.hardware-infos.com/news.php?news=2612


http://www.hartware.de/news_46263.html


http://www.fudzilla.com/index.php?option=com_content&task=view&id=11696&Itemid=65


http://www.hartware.de/news_46365.html


http://www.hartware.de/news_46403.html


http://www.hardware-infos.com/news.php?news=2892




. . . to be updated ! . . .



.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hmm, mir wurde gesagt wenn man den Desktop auf die 3 Monitore verteilt, das es dann vielleícht möglich sein könnte.
Matrox ist mir zu teuer und unterstütz kein 3D, hmm, und ATI eben auch kein PhysiX... Ich hätte eben gerne PhysiX, einen Monitor mit 3D-Unterstützung und ansonsten zocken eben auf 3 Monitoren (auch mit PhysiX)...

wobei physix doch mittel- bis kurzfristig vollkommen egal ist, da die implementierung doch über DX11 erfolgen kann. ein offener standard - also egal ob NV oder ATI - wird bei spieleentwicklern deutlich größeren anklang finden. und für die drei spielen ein "feature" zu kaufen, macht eh keinen sinn.

grüße
actionB52
 
wobei physix doch mittel- bis kurzfristig vollkommen egal ist, da die implementierung doch über DX11 erfolgen kann. ein offener standard - also egal ob NV oder ATI - wird bei spieleentwicklern deutlich größeren anklang finden. und für die drei spielen ein "feature" zu kaufen, macht eh keinen sinn.

grüße
actionB52

Damit würde es deutlich sinn machen für mich zu ATI zu greifen, nur werde ich für die 3 Monitore wahrscheinlich noch auf die HD5870 X2 warten,
angeblich als HD589x, rauskommend,
oder?

grüße GANY
 
nein, das wird die 5970 ;)
Physix bei ATI nennt sich doch Havoc, oder irre ich? Ausserdem ist es mit nem Treiberhack auch möglich ne nvidia als Physix mit ATIs laufen zu lassen....ich warte brav auf den GT300 für non MGPU ;)
 
so weit ich weiß ist es schon möglich einn spiel auch mehrere monitore zu verteilen. ich hab das auch schon mal getestet mit Grid und zwei 17".
wenn alle monitore die selbe auflösung (und möglichst die selbe größe) haben, kann man bei nvidia im treiber auch "als ein großer horizontaler desktop" anwählen. nun wird es komplett wie ein einziger monitor behandelt (maximieren zieht das fenster dann zB auch über alle Screens).
Ich hab es zwar noch nicht mit mehr als zwei monitoren und mehr als einer GPU gemacht, aber ich denke das geht auch...

Gruß
 
so weit ich weiß ist es schon möglich einn spiel auch mehrere monitore zu verteilen. ich hab das auch schon mal getestet mit Grid und zwei 17".
wenn alle monitore die selbe auflösung (und möglichst die selbe größe) haben, kann man bei nvidia im treiber auch "als ein großer horizontaler desktop" anwählen. nun wird es komplett wie ein einziger monitor behandelt (maximieren zieht das fenster dann zB auch über alle Screens).
Ich hab es zwar noch nicht mit mehr als zwei monitoren und mehr als einer GPU gemacht, aber ich denke das geht auch...

Gruß

Das klingt schonmal gut, und würde für mich heißen:
G300 wäre interessant.
Ich teste das ganze erst mal, sobald das ganze Zeug da ist.
Und dann werde ich mich wohl oder übel für NVidia oder ATI entscheiden müssen,
was dieses mal echt schwer werden dürfte...
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
so weit ich weiß ist es schon möglich einn spiel auch mehrere monitore zu verteilen. ich hab das auch schon mal getestet mit Grid und zwei 17".
wenn alle monitore die selbe auflösung (und möglichst die selbe größe) haben, kann man bei nvidia im treiber auch "als ein großer horizontaler desktop" anwählen. nun wird es komplett wie ein einziger monitor behandelt (maximieren zieht das fenster dann zB auch über alle Screens).
Ich hab es zwar noch nicht mit mehr als zwei monitoren und mehr als einer GPU gemacht, aber ich denke das geht auch...

Gruß

Ja das geht soweit erstmal, Nachteil, man ist auf zwei Monitore beschränkt, da nur zwei Ausgänge gleichzeitig funktionieren ;)
Im SLI könnte das gehen, da besteht aber soweit ich weis die Einschränkung ebenso auf zwei Monitore bei aktivem SLI.

Ebenso besteht als Nachteil weiterhin, man streckt quasi ein Anzeigegerät über beide Monitore hinweg. Ergo im Desktopbetrieb ist ein maximieren eines Fensters auf nur einem Monitor dann wohl nicht mehr möglich, weil Windows das Anzeigegerät nur als ein einziges erkennt...

Man kann also sagen, es wäre ne Art Eyefinity light, mit Einschränkungen und nur zwei Monitoren...
 
Sind umgelabelte G200 so wies Charlie angekündigt hat.
http://www.semiaccurate.com/2009/08/28/nvidia-renames-2xx-parts-3xx/
Nvidia muss es nötig haben die Leute zu verarschen.
Aus GTX 260 wird GTS 360
aus GTS 250 wird GT 335 oder aus GT 240 wird GT 330

Du weißt schon, dass die Seite PRo-ATI und Anti-Nvidia ist???? Außerdem konnte man das auch ohne den dummen Kommentar von dem erwarten, war bei der Geforce 200M Serie nicht viel anders. Die GTX 280M ist z.B. nur ein G92, kein GT200. Ich finde es geht da überhaupt nicht anders. Der GT300 (GF100) wird ein Riesenchip sein, der mit Sicherheit mit ATI´s HD 5970 fertig wird. Man müsste für den Notebook Markt die Chips ziemlich stark "kastrieren", was sich zur Zeit net lohnt. Aber was mich echt ankotzt, ist das der Typ behauptet, Nvidia würde wenn sie demnächst keinen neuen Chip rausbringen untergehen. Klar, und wie hat es AMD und ATI damals geschafft, als sowohl der Phenom als auch der R600 "Schrott" waren + AMD war finanziell ziemlich angeschlagen. Nvidia ist eine Riesenfirma, die ihr Geld nicht nur durch Desktop GPUs einnimmt;)


mfg
 
unabhängig davon, ob die seite pro ati und anti nv ist. es ist schon ein starkes stück, dass nv die alte generation einfach mal mit neuen namen versieht und damit suggeriert, dass es brandneue karten sind. aber die diskussion kam schon ungefähr gefühlte 1.000.000 mal im luxx vor und sollte auch nicht ausufern.

wohl eher ein paperlaunch.

grüße
actionB52
 
unabhängig davon, ob die seite pro ati und anti nv ist. es ist schon ein starkes stück, dass nv die alte generation einfach mal mit neuen namen versieht und damit suggeriert, dass es brandneue karten sind. aber die diskussion kam schon ungefähr gefühlte 1.000.000 mal im luxx vor und sollte auch nicht ausufern.
grüße
actionB52

Wenn die GTXen EOL gehen, woraus bestehen dann 380M und 360M? Entweder könnte man eine solch geringe Nachfrage noch befriedigen (sofern sie gering ist) oder es sind nunmal wirklich andere Chips. Allerdings scheint das GT21X Design mit dem Tot des GT212 nicht wirklich in der Lage zu sein ein solch hohes Leistungsniveau zu bieten.
 
Ja das geht soweit erstmal, Nachteil, man ist auf zwei Monitore beschränkt, da nur zwei Ausgänge gleichzeitig funktionieren ;)
Im SLI könnte das gehen, da besteht aber soweit ich weis die Einschränkung ebenso auf zwei Monitore bei aktivem SLI.

Ebenso besteht als Nachteil weiterhin, man streckt quasi ein Anzeigegerät über beide Monitore hinweg. Ergo im Desktopbetrieb ist ein maximieren eines Fensters auf nur einem Monitor dann wohl nicht mehr möglich, weil Windows das Anzeigegerät nur als ein einziges erkennt...

Man kann also sagen, es wäre ne Art Eyefinity light, mit Einschränkungen und nur zwei Monitoren...

ich hab mit mehreren gpus auch nicht ein SLI setup gemeint. sonder zwei von einander unabhängig arbeitenden karten.(ohne brücke so wie er es auch geplant hate mit einer gtx260 und einer gtx3...) das mit dem maximieren ist inder tat ein großer nachteil. dann müsste man entweder die fenster immer auf die richtige größe "manuell" ziehen oder immer die Treiber einstellungen ändern... beides nervig, aber eine möglichkeit

derPank
 
Zuletzt bearbeitet:
Bin mal gespannt, wann die wirklich verfügbar sind. Wie man an meiner SIG sieht brauch ich dringend ne Neue...

Da hat mir jemand mit Bargeld für meine 5870er gedroht ;)
 
ich hab mit mehreren gpus auch nicht ein SLI setup gemeint. sonder zwei von einander unabhängig arbeitenden karten.(ohne brücke so wie er es auch geplant hate mit einer gtx260 und einer gtx3...) das mit dem maximieren ist inder tat ein großer nachteil. dann müsste man entweder die fenster immer auf die richtige größe "manuell" ziehen oder immer die Treiber einstellungen ändern... beides nervig, aber eine möglichkeit

derPank

Ich hab das schon verstanden...

Aber wie gesagt, es besteht das Problem, das die GPU an der der als Primär geklarierte Monitor hängt die Rechenarbeit übernimmt.
Hast du nun zwei GPUs wird immer nur die GPU rechnen, wo der Primäre Monitor dran klemmt. (beim Zusammenfassen der Schirme zu einem großen Bereich gilt hier dann die primäre GPU)
3D Ausgabe auf einem Schirm hängend an einer zweiten GPU übernimmt nur die zweite GPU, wenn du das ganze im Fenstermodus startest (auch keine Lösung)

Ebenso ist ein Zusammenfügen und Anzeigen des Bildes über 3 Monitore hinweg nicht machbar, da mindestens zwei GPUs für die Ausgabe nötig wären, was wiederum den ersten Fall wirken lassen würde...
Man kann das aktuell einzig und allein umgehen, wenn man ne externe Matrox Lösung dran klemmt, oder auf Eyefinity setzt...

Es bleibt laut aktuellem Stand nur abzuwarten, ob NV nicht ein ähnliches Feature wie Eyefintiy aus dem Hut zaubert um 3 Monitore an einer GPU nutzbar zu machen... im Moment sieht man davon aber nix...
 
3 monitore? mission impossible?

Hmnm, das klingt alles nach sehr kompliziert mit 3 Monitoren...
Wahrscheinlich wird es dann doch ne HD5970 oder ne HD5870 wenn ich mit Dual-GPU nicht klarkommen sollte...
Eyefinity ist auf jedenfall verlockend...

Probieren werde ich das alles natürlich trotzdem! :asthanos:

Und mal abwarten was Nvidia so zu bieten hat, vorallem gegen Eyefinity...
 
Zuletzt bearbeitet:

Hehe, sehr geill! :-)

Nichts für ungut, aber dieser Rebranding schrott finde ich ne riesen Schweinerei! Egal wer das macht! Wenn ich mir eine Grakka mit dem namen 3.. kauf, dann will ich auch eine die auf dem G300 aufgebaut ist und nicht einfach ein G200 der umbenannt wurde! Nicht jeder Kunde, kennt sich da genug aus und kann den Unterschied erkennen!
 
Zuletzt bearbeitet:
haha voll witzig hier [ironie off]
die 250 GTS wurde auch "umgelabelt" und ist ein kassenschlager.
!

Gekauft von Leuten die von der 8800 GTS 512 auf die 9800 GTX(+) und dann eben auf die GTS 250 umgestiegen sind :fresse::shot:

wenn eine GT200 graka zur GT300 umgelabelt wird und alles mitbringt wie DX11, warum nicht?!

Woher weißt du das die DX11 haben werden? Wenn es wirklich nur umgelabelte Karten sind werden die max. DX10.1 haben.
 
mal ehrlich... in jedem bereich des lebens würde man sich tierisch aufregen, wenn einem was altes für neu angedreht wird. nur bei NV ist das ja vollkommen o.k. :d

grüße
actionB52
 
uMLABELN

Gerade das die Leute nicht gleich ein Triple SLI damit gemacht haben, hätte doch was gehabt.

Gamer:
"Hey Leute ich hab ein Triple-SLI-System!"
Leute:
"Und welche Karte?"
Gamer:
"Ne GTS250, ähh, 9800GTX, ähh, 8800GTS!, Ich meine alle drei zusammen!!!"
Leute:
"WTF, ein Wunder!!"
 
Na, wie läufts mit dem Gt300?!?
Die 5980 steht vor der Tür.
Wann kommen die echten 300er?!? :lol:
Die 5800er sind mir zu teuer, also macht hin ffs!
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh