nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
Außerdem wäre es mal schön zu erfahren, ob jetzt maximal 448 CUDA Cores oder doch deren 512 zum Einsatz kommen und natürlich auch die finalen Taktraten.

MfG
Edge


Viel wichtiger wäre ob es die selben sind wie bei der Tesla,oder ob Nvidia das Kunststück "modulare Bauweisse" gelungen ist u diese speziell dem Aufgabengebiet angepasste Shaderprozessoren bekommen.

Will heissen Tesla=mehr DP Shader / Geforce= mehr SP Shader
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Stimmt, aber das werden wir wohl erst zu den Launch-Reviews erfahren.

Allerdings wär der Aufwand sicher nicht unerheblich hier zweigleisig zu fahren.
Eventuell wird man auch nur bestimmte Features wie den ECC Memory bei den GeForce Modellen verzichten.

Mal sehen.
 
Zuletzt bearbeitet:
Will heissen Tesla=mehr DP Shader / Geforce= mehr SP Shader

Es gibt aber keine dedizierten Einheiten für DP... ;)

Die ALUs sind die gleichen. Nur bringt man ihnen bei was sie berechnen. Und für DP werden da zwei zusammengefasst. Diese Funktionalität wird es dann wohl bei den Gamerkarten nicht für alle (oder für gar keine?) der ALUs geben. Zumindest wenn man den Folien der letzten Tage trauen kann...

Mit Modularer Bauweise wurde genau dieses weglassen beschrieben.
Bin mir nur nicht ganz sicher, was das schlussendlich wirklich an Platz sparen würde... Da die ALUs aber dennoch voll funktionsfähig vorhanden sind.


Zu dem Interview. Vllt baut man ja auch für die Geforce Karten vorerst nur 448 ALUs auf den DIE und bringt dann später nen Refresh mit allen 512 ALUs als HighEnd?
In der letzten HWLuxx News stand ja, das NV erst jüngst die ALU Anzahl der Teslas nach unten korrigiert hat...
 
Es gibt aber keine dedizierten Einheiten für DP... ;)

Die ALUs sind die gleichen. Nur bringt man ihnen bei was sie berechnen. Und für DP werden da zwei zusammengefasst. Diese Funktionalität wird es dann wohl bei den Gamerkarten nicht für alle (oder für gar keine?) der ALUs geben. ...

Ich wollte es nicht so kompliziert u ausführlich schreiben wie du:haha:

Aber genau dieses "Beibringen was sie berechnen" oder wie du sagst zusammenfassen der Shader machen den Chip komplexer u damit auch fehleranfälliger:p

Lasse ich dieses weg sind möglicherweisse sogar 512 möglich für den Geforce mit akzeptabler Ausbeute
 
Zuletzt bearbeitet:
Neja die Logik dahinter ist aber vergleichsweise unaufwendig im Gegensatz zu einer ALU ansich. Denn dort steckt die Logik drin, nicht in der Funktion zum Zusammenfassen zweier ALUs für die Berechnungen von DP.

Und ja, lässt man diese Funktion weg, bzw. beschneidet sie stark, wäre das durchaus denkbar mehr ALUs verbauen zu können. Die Frage ist aber, reicht die Einsparung für derart viele ALUs mehr? Das würde ich bezweifeln.
 
Hm...um nochmal die letzten Infos der Tesla Karten zusammenzufassen:

maximal 448 CUDA Cores
maximal 600 GFlops DP
maximal 1400 MHz Shadertakt
1 GHz GDDR5 bei C2070 und 900 MHz GDDR5 bei C2050
beide Modelle - C2050 und C2070 mit je 384 Bit SI
je 10 Layer PCB
TDP bei 225W mit 8+6 Pin PCIe

Mal sehen, ob der Unterschied zwischen Tesla und GeForce nur in den Taktraten und VRAM Menge steckt oder deutlich größer ist, z.B. in der Anzahl der ALUs.
 
Zuletzt bearbeitet:
Bloss nicht nur 448 shader und dann 4 Monate später 512 das würde mich :motz:.
wenn das so laufen würde.
Da kann ich gleich bis ende Sommer 2010 auf meiner GTX275 rum reiten.
MFG
 
Zuletzt bearbeitet:
Hm...um nochmal die letzten Infos der Tesla Karten zusammenzufassen:

maximal 448 CUDA Cores
maximal 600 GFlops DP
maximal 1400 MHz Shadertakt
1 GHz GDDR5 bei C2070 und 900 MHz GDDR5 bei C2050
beide Modelle - C2050 und C2070 mit je 384 Bit SI
je 10 Layer PCB
TDP bei 225W mit 8+6 Pin PCIe

Mal sehen, ob der Unterschied zwischen Tesla und GeForce nur in den Taktraten und VRAM Menge steckt oder deutlich größer ist, z.B. in der Anzahl der ALUs.

Ich denk auch fähigkeiten wie ECC werden bei der GF nicht gebraucht, hier kann man fehler leichter verkraften.
 
Neja wenn man jetzt von 448 ALUs ausgeht, wären das bei 1400MHz 1254,4GFlop/sec. Zum Vergleich, eine 285er GTX hat ohne MUL ~708,5GFlop/sec. Würde also nen Zuwachs von 77% machen... Halte ich für zu gering muss ich sagen.
Bedenkt man das theoretischer Verdopplung der Leistung idR nie auch doppelte Ergebnisse auf dem Schirm drin sind erst recht.

Ebenso ist ungewiss was mit dem MUL der G200 passiert, sprich das was die G200 Karten aufs MUL abdrücken konnten muss der Fermi irgendwie anders berechnen.
Man sagt, das MUL der G200er Karten konnte bis zu 93-94% für general Shading benutzt werden. Würde also bedeuten im Extremfall wären wir bei 93-94% von 354,24 GFlop/sec (MUL only bei der 285er GTX) = 329,44-332,99 GFlop/sec + 708,48 durch MADD = 1041,47 GFlop/sec...

Im Vergleich dazu wäre der Fermi mit seinen etwas über 1250 GFlop/sec ja der Witz schlechthin ;)

Irgendwie glaube ich da so recht noch nicht dran... Das sieht mir alles zu wenig aus um sich mit den Aussagen von NV selbst zu decken. Von wegen schnellste GPU und schlägt alle bisherigen Karten usw.
 
Das sieht mir alles zu wenig aus um sich mit den Aussagen von NV selbst zu decken. Von wegen schnellste GPU und schlägt alle bisherigen Karten usw.

Das dumme ist es gibt noch keine offiziellen Aussagen,außer ein bisschen
"Säbelrasseln":p

Aber du hast schon recht addiert man das wenige was NV bis jetzt von sich gegeben hat,wäre das sehr knapp bemessen von der Leistung
 
Das dumme ist es gibt noch keine offiziellen Aussagen,außer ein bisschen
"Säbelrasseln":p

Aber du hast schon recht addiert man das wenige was NV bis jetzt von sich gegeben hat,wäre das sehr knapp bemessen von der Leistung

Und genau daher kommt mir hier irgendwie der R600 in den Sinn...
Alle haben wunder erwartet, auf die Fakten hat niemand geschaut bzw. nur oberflächlich. Die paar Leute mit Ahnung von 5D Einheiten wurden teils als FANs des Konkurenten angesehen usw.
Schlussendlich bewahrheitete sich aber deren Aussage...

Aber warten wir es ab. Sofern die HD58x0er Karten nicht in den nächsten paar Wochen exorbitannt günstiger werden, rückt auch eine 3x0er GTX in für mich greifbare und ausgebbare Regionen. ;)
Es sei denn, sie werden nochmals dicke teurer...
 
Ich bin etwas verwirrt über diese Meldung:



Soll ich daraus jetzt schliessen das zu Anfang nicht die High-End Modelle kommen? oO
 
Ich bin etwas verwirrt über diese Meldung:



Soll ich daraus jetzt schliessen das zu Anfang nicht die High-End Modelle kommen? oO

Die News wurde schon kommentiert u allein die Namensgebung,die dort auftaucht für GF100 als Midrange Karte scheint schon arg merkwürdig.

Ich würde sagen abwarten ob zur CES was kommt im Januar in Sachen Geforce.
 
Zuletzt bearbeitet:
Ich denke der GF100 wird Enthusiast, GF104 soll die alten GT200b beerben und wird halt High-End, je nach dem wie man das ganze definieren möchte...
 
Erst mal abwarten ob diese News stimmt;)

Nach dem was ich so gelesen habe kommt das mit dem Märzlaunch wohl hin, evtl wirds sogar nen Hardlaunch.

Was es mit dem GF104 auf sich hat weiß aber scheinbar niemand. Worst Case wäre für mich jedenfalls eine Version mit allen Cores die aber erst später kommt.
 
Soll ich daraus jetzt schliessen das zu Anfang nicht die High-End Modelle kommen? oO

Wenn man jetzt mal bedenkt das die 5870 auch kein High End Produkt ist, sondern "lediglich" Performance, ist das für eine Single GPU durchaus denkbar.

Demnach könnte der GF104 entweder eine speziell auf dual GPU angepasste version vom Fermi sein, wegen der hohen verlustleistung der GF100. Oder aber wie Neurosphere auch schon sagte den GT200b beerben, sprich GTX3x5er karten. Wobei man sagen muss das der GT200b aus einem DIE shrink entstanden ist, und dies wohl kaum bis zum 2H 2010 beim Fermi zu erwarten ist :shot:

Eine andere Theorie die mir so durch den Kopf geht ist. Der GF100 wird vorerst mit den 448 SP kommen wie auch die Teslas, und der GF104 dann mit den ursprünglich vorgesehenen 512 SP.
Auch wenn man hauptsächlich die Verlustleistung als grund für die beschneidung sieht wäre eine schlechte Ausbeute auch denkbar. So das NV sich evtl. gezwungen sah die Shaders zu reduzieren und zugleich damit einen höheren takt zu ermöglichen.


Wenn letzteres sich bewahrheitet bedeutet das zumindest für mich das ich noch länger warten werde, selbst wenn der GF100 bereits sehr gute leistung zeigen "sollte". Lieber warte ich auf ein ausgereiftes produkt das einer ausgereiften produktion entspringt als eine karte zu ergattern die wohlmöglich ähnliche kinderkrankheiten hat wie damals der G80 oder anfänglich die GT200 wo die heatspreader stellenweise mangelhaften kontakt zur DIE hatten und reihenweise ausfielen.

Selbes gilt mMn auch für die Radeon familie. Derzeit lese ich von viel zu viel Problemen als das ich dort bedenkenlos zugreifen würde, auch wenn einige das versuchen zu verharmlosen.

Es war ja eigentlich schon immer so das Menschen die ungern warten und stets aktuell sein wollten sich häufiger mit Problemen rumschlagen mussten. :coolblue:
 
CB schrieb:
Denn erst dann wird es die dafür nötigen 64Mx32-GDDR5-Chips geben, von denen dann immer noch 24 Stück benötigt werden. Diese 6-GB-Version könnte auch den Codenamen GF104 tragen, der ebenfalls in Gerüchten auftaucht und passenderweise als High-End-Modell im zweiten Quartal erscheinen soll.

:rolleyes: Was ist dann denn wieder für eine gequirlte kacke von CB? 1.) Was hat ein Chipcodename mit der Speicherbestückung zu tun? 2.) Wo steht denn bislang geschrieben das desktop vertreter in form einer Geforce bitte 6GB vram bekommen sollen, geschweige denn 3 GB. Da hat CB mal wieder fein säuberlich falsch abgeschrieben was andere schon berichtet haben. :-[


Bin mal gespannt was bei der Pressekonferenz mit dem CEO rum kommt. Hoffentlich nimmt sich der CB Reporter nen dolmetscher mit :coolblue:
 
Ich bin fast vor lachen vom Stuhl gefallen....der war echt gut ich freu mich schon wenn einige 3 Way SLI haben und ich sie dann ärgern kann wenn ich trotzdem 3 solche "Monster Fermis" platt machen kann :haha:

Na wenn dich da mal nicht täuscht!
Hast mal ein Tri-SLI aus 3x GTX285 in aktion gesehen?

http://www.guru3d.com/article/geforce-gtx-285-review--3way-sli/22

Schau dir mal den GPU Score an bei 3DM Vantage, die 3x GTX285 ziehen problemlos an 2x GTX295 vorbei (3 vs. 4 GPUs).
Das ist aber nicht nur beim Benchmark so, sondern komplett die Bank durch bei allen getesteten Spiele!

Das wird wirklich spannend mit der Fermi...:d:hail:
 
Zuletzt bearbeitet:
Na wenn dich da mal nicht täuscht!
Hast mal ein Tri-SLI aus 3x GTX285 in aktion gesehen?

http://www.guru3d.com/article/geforce-gtx-285-review--3way-sli/22

Schau dir mal den GPU Score an bei 3DM Vantage, die 3x GTX285 ziehen problemlos an 2x GTX295 vorbei (3 vs. 4 GPUs).
Das ist aber nicht nur beim Benchmark so, sondern komplett die Bank durch bei allen getesteten Spiele!

Das wird wirklich spannend mit der Fermi...:d:hail:

das einzige was ich da sehe ist, das SLI zum :kotz: Skaliert und von 3 Way brauch man garnicht reden^^
Und warum in manchen Benches GTX280 vs 285 schneller ist weiss ich auch nicht, auch die ganzen FPS kommen mit mehr als Spanisch vor weil so schlecht kann doch SLi garnicht sein oder doch ? :-[


PS: und Vantage GPU Score hab ich locker das doppelte :fresse:
 
Zuletzt bearbeitet:
Hallo,

dann bin ich mal gespannt, wieviele Infos von der CES dann überhaupt rausgegeben werden. Eventuell fällt das ein oder andere wieder unter ein NDA womit die Allgemeinheit auf die wirklich interessanten Sachen dann trotzdem noch warten muss.

ciao Tom
 
zocker zeig nochmal schnell deine 60k gpu score ^^

mhh k sry, hab unten bei den Balken nicht geguckt, dachte oben die dicken Blauen sind SLI^^

dann haben sie eben 29k im 3Way SLI, sind trotzdem locker 15k weniger wie ich hab.
Warum Quad SLI langsamer ist als 3 Way SLI ist aber trotzdem witzig, 2xGTX295 sind fast so schnell wie meine 4x ATIs (im Vantage).
 
mhh k sry, hab unten bei den Balken nicht geguckt, dachte oben die dicken Blauen sind SLI^^

dann haben sie eben 29k im 3Way SLI, sind trotzdem locker 15k weniger wie ich hab.
Warum Quad SLI langsamer ist als 3 Way SLI ist aber trotzdem witzig, 2xGTX295 sind fast so schnell wie meine 4x ATIs (im Vantage).

Es skaliert halt besser. Kommt eben auch aufs Game an, außerdem haben die 285er halt eben auch eine bessere Rohleistung als eine 275er.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh