nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Beide halten sich mit offiziellen Aussagen die zumindest mit festen Zahlen von Einheiten ja sehr bedekt

Wieso sehr bedeckt ?

Verdopplung des shader ist doch ne klare aussage;) Nur in wie weit sie als SIMD/MIMD fungieren ist noch nicht bekannt
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
NV selbst hat nie gesagt das sie die Shader verdoppeln wollen, oder kennst du nen offiziellen Artikel dazu?
 
Weils nicht offiziell ist...

Achso:d

Nun es passen wie du goldrichtig angemerkt hast aber immer mehr teile in dem gerüchtepassel zusammen u sind in ihrer gesammtheit schlüssig:p

Was zwar noch nicht ein offizielles statement ist,aber kommt dem doch schon sehr nahe;)
 
Zuletzt bearbeitet:
Die 512 Bit Speicheranbindung genau wie die 512 Shader bleiben pure Spekulation und sind nur bedingt haltbar. Die Chipgröße kann man anhand dieser größen auch selbst ungefähr ableiten und die daraus wiederum resultierende Chipgröße auch. Es bleibt also nichts anderes übrig als das die ganzen Sachen "schlüssig" sind.
 
Naja, die 160 5D Shadereinheiten des ATI sind zwar besser als die 1D des GT200, aber nominel kann man sie trotzdem nicht als volle 800 Einheiten bezeichnen. Das sieht man daran das NV trotz 240 Einheiten dort eigentlich immernoch die Nase vorn hatte.
Dort wo wirklich ausschliesslich Streaming Performance gefragt ist aber nicht. Spiele sind dafür eher weniger ein Indikator. Und wie fdsonne schon richtig sagte, nVidia lässt die Streamprozessoren natürlich auch mit einem viel höheren Takt laufen. Das relativiert wiederum einiges.
 
Schaut euch mal die Architekturen genauer an. nVidia und ATi gehen da etwas anderes heran und haben folglich auch ein komplett anderen Aufbau (daher dann auch die 5D Einheiten bei ATi vs. den 1D Einheiten des GT200) ;)
 
Dort wo wirklich ausschliesslich Streaming Performance gefragt ist aber nicht. Spiele sind dafür eher weniger ein Indikator. Und wie fdsonne schon richtig sagte, nVidia lässt die Streamprozessoren natürlich auch mit einem viel höheren Takt laufen. Das relativiert wiederum einiges.

Stimmt. Aber selbst eine verdopplung des Taktes würde wohl höchstens eine verdopplung der Leistung hervorrufen...wenn überhaupt. Was zählt ist aber letzten Endes die Leistung in Spielen.

Schaut euch mal die Architekturen genauer an. nVidia und ATi gehen da etwas anderes heran und haben folglich auch ein komplett anderen Aufbau (daher dann auch die 5D Einheiten bei ATi vs. den 1D Einheiten des GT200) ;)

Ich glaube das hat hier niemand bezweifelt;)
 
... sollte nur als Ergänzung dienen ;)

Momentan kann man nur grob abschätzen wo der G300 liegen wird, genaueres gibts leider erst wenn die Fakten konkreter sind
 
Aber selbst eine verdopplung des Taktes würde wohl höchstens eine verdopplung der Leistung hervorrufen...wenn überhaupt. Was zählt ist aber letzten Endes die Leistung in Spielen.
Was ebenfalls zu beachten ist, ATI setzt pro Streamprozessor auf eine MADD Einheit, während nVidia MADD+MUL nutzt. Das kann im Optimalfall eben auch nochmal 50% mehr Performance bedeuten. Zusammen mit 100% mehr Takt würde das bis zu 300% Performance pro Streamprozessor bedeuten (200%*150%). Wenn man das mal auf ATI überträgt, wären das 720 (3*240) Streamprozessoren. So weit ist man von den 800 ATI Streamprozessoren performancetechnisch also gar nicht entfernt.
Und wie ich schon sagte, Spiele sind für einen Vergleich der Shader recht ungeeignet, da hier noch andere Einheiten eine wichtige Rolle spielen, wie ROPs oder TMUs. Und dass da die Kapazitäten klar zugunsten von nVidia ausfallen, kann jeder anhand der Specs ablesen. Shader Performance kannst du nur mit GPGPU Anwendungen einigermassen ausreichend bewerten.
 
Zuletzt bearbeitet:
Zusammen mit 100% mehr Takt würde das bis zu 300% Performance pro Streamprozessor bedeuten (200%*150%).

200%*150% das wären 30000(%)^2....nur so am Rande :wink:

ich denke bei der Prozentrechnung kann man nicht so einfach zwei Prozentbeträge ausmultiplizieren.

Korrigiert mich, wenn ich falsch liege.
 
Ja, du liegst falsch. Prozentrechnung funktioniert ein klein wenig anders. Und wenn du mir nicht glaubst, gib obigen Ausdruck einfach mal bei google ein.

100% ist äquivalent zu 1. 200%*150% bedeutet also nichts anderes als 2*1,5. Was wiederum 3 bzw 300% ergibt. Ich habe ja nicht geschrieben 200%*150 oder 200*150%.
 
Was ebenfalls zu beachten ist, ATI setzt pro Streamprozessor auf eine MADD Einheit, während nVidia MADD+MUL nutzt. Das kann im Optimalfall eben auch nochmal 50% mehr Performance bedeuten. Zusammen mit 100% mehr Takt würde das bis zu 300% Performance pro Streamprozessor bedeuten (200%*150%). Wenn man das mal auf ATI überträgt, wären das 720 (3*240) Streamprozessoren. So weit ist man von den 800 ATI Streamprozessoren performancetechnisch also gar nicht entfernt.
Und wie ich schon sagte, Spiele sind für einen Vergleich der Shader recht ungeeignet, da hier noch andere Einheiten eine wichtige Rolle spielen, wie ROPs oder TMUs. Und dass da die Kapazitäten klar zugunsten von nVidia ausfallen, kann jeder anhand der Specs ablesen. Shader Performance kannst du nur mit GPGPU Anwendungen einigermassen ausreichend bewerten.

Du hast recht. Ich wollte auch nur darauf hinaus das NV wesentlich mehr Performance im Shaderbereich bietet, weil ja häufig davon gesprochen wird NV hätte hier aufzuholen.

Da lag übrigens auch eins dieser Probleme mit dem RV870. Die Anzahl an ROPs werden sich, glaubt man den Spekus verdoppeln und die Zahl der TMUs steigen um 20% und halt 50% mehr Shadereinheiten.

Glaubt man den Gerüchten zum GT300, so werden sich die Shaderzahlen um 112% erhöhen und die TMUs um 60%. Zu den ROPs gibt es wohl noch keinen der was Spekuliert hat.
Man weiß zwar nicht wie gut die Shadereinheiten von NV letzten Endes sein werden oder ob der Chip evtl keine guten Taktraten schafft, aber auf dem Papier macht er laut Spekulationen erstmal nen wesentlich besseren Eindruck.
 
Sicherlich klingen die Zahlen auf dem Papier vielversprechend, aber da sollte man auch sehr vorsichtig sein. Ich erinnere nur an den R600 damals. Auf dem Papier sah alles super aus und viele waren fest davon überzeugt, dass es der monsterchip schlechthin wird. Was dabei rauskam war eine Enttäuschung...
 
Du hast recht. Ich wollte auch nur darauf hinaus das NV wesentlich mehr Performance im Shaderbereich bietet, weil ja häufig davon gesprochen wird NV hätte hier aufzuholen.
Das ist ja auch richtig. Solche Aussagen beziehen sich allerdings in erster Linie auf Rechenleistung/mm².

Glaubt man den Gerüchten zum GT300, so werden sich die Shaderzahlen um 112% erhöhen und die TMUs um 60%. Zu den ROPs gibt es wohl noch keinen der was Spekuliert hat.
Man weiß zwar nicht wie gut die Shadereinheiten von NV letzten Endes sein werden oder ob der Chip evtl keine guten Taktraten schafft, aber auf dem Papier macht er laut Spekulationen erstmal nen wesentlich besseren Eindruck.
Nun ja, besser ist relativ. Wenn man wieder einen riesigen Chip dafür benötigt, womöglich sogar grösser als GT200, und das trotz 40 nm, würde ich nicht unbedingt von besser sprechen. Man darf nicht vergessen, ATI wird einen Mainstream Chip designen. Und für High-End gibt es das dann halt wieder in doppelter Ausführung. Das kann man beim GT300, zumindest vorerst, wohl ausschliessen.
 
Sicherlich klingen die Zahlen auf dem Papier vielversprechend, aber da sollte man auch sehr vorsichtig sein. Ich erinnere nur an den R600 damals. Auf dem Papier sah alles super aus und viele waren fest davon überzeugt, dass es der monsterchip schlechthin wird. Was dabei rauskam war eine Enttäuschung...

So kann man das nicht sagen, Problem ist doch eher gewesen, das keiner was mit der Architektur anfangen konnte und sich nur von nakten Zahlen haben täuschen lassen, ohne technischen Durchblick.

Hier läufts aber bisschen anders, zumindest ansatzweise kann man die G200 GPUs als Basis nehmen und anhand dieser Basis auf die Leistung schließen, wenn die Spekulationen wahr sein sollten.

Und eine Enttäuschung war das ganze schon mal gar nicht, schließlich legte die R600 GPU den Grundstein für AMDs heutige RV7x0 GPUs und vor allem, für den Umstieg von absolutes HighEnd um jeden Preis auf sehr gute P/L Karten...

@Neurosphere
lass mal abwarten wie sich das Teil am Ende wirklich positionieren kann, bei AMD sind die Shader nicht das Problem, das sollte nun mittlerweile bekannt sein, eventuell unterschätzen die meisten User aber diesen Fakt ein wenig.
Wenn AMD andere Flaschenhälse beseitigt, tät theoretisch auch die 50% Steigerung der Shader zu ordentlich mehr Leistung führen...

NVs politik mit diesem Riesigen DIE geht sicher nur dann vollkommen auf, wenn ihr Produkt weit aus besser ist, als die AMD Top Karte (und das waage ich zu bezweifeln)
 
NVs politik mit diesem Riesigen DIE geht sicher nur dann vollkommen auf, wenn ihr Produkt weit aus besser ist, als die AMD Top Karte (und das waage ich zu bezweifeln)

Man sollte sich doch eher die frage stellen wofür der riesen Die,die vielen shader die noch dazu bei double precision ordentlich an leistung zulegen sollen?

Ich denke nicht das nvidia prioritätsmässig den chip in erster linie für den home pc u gamer markt baut,sondern ihre chancen durch cuda in anderen bereichen ebenso sieht,wenn nicht sogar höher ansiedelt;)

In bereichen in denen bis jetzt eher ibm,sun u co das grosse geld verdienen.

Um dort mit cuda erfolgreich einzusteigen,benötigt es einer ordentlichen portion an zuwachs der shaderperformance u wenn es dadurch auch vorteile für uns otto normal gamer gibt,weil man eben produktionsbedingt nur eine chipfamilie baut,um so besser;)
 
Zuletzt bearbeitet:
@scully1234
das mag sein, die Frage ist nur, ob sich ein Umstieg auf derartige Hardware von jetzt auf gleich durchsetzen würde...
Eine massive Anpassung der Software wäre von nöten und dort liegt wohl der Punkt...

Auch wenn die GPUs pfeil schnell sein werden auch in DP, die Endkunden werden nicht gleich drauf los stürmen.
Schon allein, wenn man sieht, bei so nem Supercomputer Cluster werden eigentlich nie die maxi Modelle von CPUs genommen, wenn dann irgendwo im mittleren Bereich, so wirds sicher wenn dann auch bei den GPUs laufen, sprich HighEnd wäre hier ebenso uninteressant wie im Gamingbereich (wo HighEnd ja nicht sooo viel gekauft wird)

Das ganze würde zum Beispiel auf ner Mainstream GPU Sinn machen...
 
@scully1234
das mag sein, die Frage ist nur, ob sich ein Umstieg auf derartige Hardware von jetzt auf gleich durchsetzen würde...
Eine massive Anpassung der Software wäre von nöten und dort liegt wohl der Punkt...
...
Sicherlich wird man es schwer haben in diesen markt vorzustoßen,nur wenn man es vor hat,muss man irgendwann damit anfangen entsprechend leistungsstarke chips zu bauen.
Und um auch wirklich aufzufallen zwischen den ganzen grössen in dem bereich,sollte sich der chip performancetechnisch erstmal absetzen können u müssen von heutigen z.B cell prozessoren.

Der grosse vorteil der grafikkarte ist jetzt,das man sie somit vielseitig einsetzen könnte durch den zuwachs an db shadern,sich grosse gewinne im clustersektor sichern könnte u trotzdem im home u gamer bereich keine anteile aufgeben muss weil der chip dort ebenfalls funktioniert.

Nur die passende software im wissenschaflichen bereich u ein flexibleres cuda sollten dann natürlich auch folgen,wenn man dort punkten will.Einzig allein ein starker g300 wird da sicherlich keine universität oder andere firmen zur anschaffung eines GPU clusters überreden;)

Vielleicht profitieren wir demnächst viel mehr durch den supercomputer bereich,als uns lieb ist,wenn diese fusion der beiden bereiche wirklich funktioniert:fresse:
 
Zuletzt bearbeitet:
G300 hatte bereits sein Tape-Out, liegt jetzt im A1-Stepping vor und ist damit bereits lauffähig.
Der GDDR5-Speicher wird mit mehr als 1 GHz takten.

Quelle: Hardware-Infos
 
Klingt zwar gut, aber ich traue diesen Hardware-Infos Quellen irgendwie nicht so ganz.
 
Wie was tape out schon gemeistert u lauffähig,das wird ja immer doller,wenn es stimmen sollte:eek:

Dann könnte sogar das "august/september release gerücht"fast passen wenn es keine weiteren grossen probleme mehr gibt;)
 
Zuletzt bearbeitet:
:haha:

Dann kommen wohl bald 3 x 380 GTX, Scully, oder ?

Ich begnüge mich mit einer. Hoffentlich sind die Wasserkühler dann wieder schnell auf dem Markt.

Auf was ich auch sehr sehr gespannt bin wie warm der G300 wird und wie warm die Spawas werden.

Ich hoffe auf niedrigere Temperaturen als bei den derzeitigen Generationen.
 
Bei mir werdens wohl 2, je nach Preis;)

Naja, wie hoch die Temps werden lässt sich wohl nur schwer sagen. Viel weniger als jetzt vermute ich aber mal nicht.
 
:haha:

Dann kommen wohl bald 3 x 380 GTX, Scully, oder ?

.
Ich denke 2 dürften genügen,denn pcie x 8 beim dritten slot vom x58 board könnte doch zu sehr schon limitieren bei diesen monstern:p

Da hab ich lieber 2 x 16 u eventuell volle leistung,obwohl ich mir da auch schon nicht mehr so ganz sicher bin ob x16 noch ausreichend ist;)

Ausserdem muss der prozessor der 3 von diesen dingern ausreichend füttern kann erst noch erfunden werden:shot:
 
Zuletzt bearbeitet:
OT entfernt - jetzt ist es an der Zeit mal wieder btt zu kommen ;)

:wink:
 
Ausserdem muss der prozessor der 3 von diesen dingern ausreichend füttern kann erst noch erfunden werden

Och nö das glaub ich garnicht mal. Nen Phenom 2 und vor allem nen Core i7 sollten da schon ausreichen.
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh