nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Neurosphere


ich glaube y33H spielt damit auf die Ergebnisse dieses Tests von CB an:Klick

es macht aber denk ich einen nicht unwesentlichen unterschied ob man 800 shader mit 850mhz am laufen hat oder 1600shader bei 425, auch wenns die gleiche theoretische leistung hat.
es ist ja meiner meinung nicht gegeben dass wirklich alle shader ausgelastet werden können. aus diesem grund sind glaube ich zum beispiel manchmal 5770 CF sogar vor der 5870 bei diversen tests
 
...es ist ja meiner meinung nicht gegeben dass wirklich alle shader ausgelastet werden können...
ja, somit ist die Effizienz schlechter (wenn man sie anhand von Fps pro theoretischer Leistung beurteilt).
Das war sicher auch das, was y33H@ aussagen wollte.
Aber wir schweifen vom Thema ab, dabei würde es ja genug Fermi-spezifisches geben, worüber man diskutieren könnte.;)
 
Stimmt schon, aber wie mr. dude schon schrieb steigt die Leistung nie proportional zum Aufwand in Hardware. Von daher ist die Entwicklung ohne Überarbeitung der Einheiten nur logisch.

Aber gerade diese Aussage ist für parallelisierbare Anwendungen wie 3D-Games schlicht weg falsch. Warscheinlich schließt ihr hier von CF und SLI. Hat man aber wirklich alles verdoppelt in einen Chip sollte es auch doppelt so schnell laufen. Wenn nicht gibt es ein Nadelöhr. Das ganze funktioniert erst dann nicht mehr, wenn man eine gewisse Grenze überschreitet, sprich wenn man später mehr Kerne als Bildpunkte hat, davon sind wir aber noch weit entfernt. ;)
Im übrigen gab es in der Vergangenheit bei solchen Verdopplungen schon oft 100% Leistungssteigerung und auch mehr bei entsprechenden Verbesserungen der Architektur. Dies fiel damals aber nicht so auf, da eigentlich auch immer gleich eine neue DX-Version zum Einsatz kam und auch gleich Spiele dafür raus kamen. Nicht so wie jetzt wo wir bei DX9 stehn geblieben sind.
 
Zuletzt bearbeitet:
Naja, die Shaderleistung in der NV bisher zurück lag wurde ca um den Faktor 2 verdoppelt. Speicherbandbreite zwar nicht, aber dort soll es überarbeitungen gegeben haben um die Bandbreite effektiver zu nutzen. Bei der Pixel und Texturierleistung haben sie ebenfalls gut zugelegt, zwar auch nicht um den Faktor 2 aber ich denke das man dort mit dem GT200b eh schon nen leichten Overkill hatte.
Selbst wenn man alle Einheiten verdoppelt hätte, würde sich die Performance nicht verdoppeln. Wenn doch, hätte nVidia den heiligen Gral gefunden. Das ist eher unwahrscheinlich.

Den Specs nach ist Fermi deutlich aufgebohrt - Crypress im Vergleich zum RV670/RV770 nicht.
Wunschdenken ändert keine Fakten. ;)

RV770 -> RV870

Shader FLOPS (SP): +126,7%
Pixelfüllrate: +126,7%
Texelfüllrate: +126,7%
Speicherbandbreite: +33%

G200 -> G300 (?)

Shader FLOPS (SP): +86,5%
Pixelfüllrate: +62%
Texelfüllrate: +72,8%
Speicherbandbreite: +42,3%

Vorausgesetzt, die Spekulationen zur GTX 380 treffen zu. Wobei ich da meine Zweifel habe. Speziell der Shadertakt wird imo niedriger ausfallen. Ausser nVidia hat kein Problem mit einer 300 W TDP.

Im Gegenteil, der ist bei gleichen theoretischen Daten sogar langsamer.
Was praktisch irrelevant ist. Vektor-Architekturen leben ja davon, dass man mehr Rechenleistung kompakter realisieren kann.

es macht aber denk ich einen nicht unwesentlichen unterschied ob man 800 shader mit 850mhz am laufen hat oder 1600shader bei 425
Doch, das ist theoretisch erstmal völlig egal, sofern die Shader identisch sind.

Hat man aber wirklich alles verdoppelt in einen Chip sollte es auch doppelt so schnell laufen.
In der Theorie, ja. Aber das trifft bei Spielen nicht zu. Denn da gibt es noch so schöne Sachen wie Asynchronitäten oder Latenzen zum Prozessor und Speicher. Mal ganz abgesehen von der Effizienz der GPU Architektur selbst.
 
Zuletzt bearbeitet:
Selbst wenn man alle Einheiten verdoppelt hätte, würde sich die Performance nicht verdoppeln. Wenn doch, hätte nVidia den heiligen Gral gefunden. Das ist schlichtweg unwahrscheinlich.

Ich frag mich echt wie du darauf kommst. Das ist bei Cpu's richtig, da man dort nicht 100% parallelisierbare Aufgaben hat. Aber ob der Verteiler bei ner Grafikkarte 2Mio Aufgaben auf 1000 oder auf 2000 Einheiten verteilt, macht keinen Unterschied. Wenn man da wirklich gut arbeitet bekommt man auch die vollen 100% mehr raus.
 
Bei Fermi noch bedenken, dass die Effizienz der Rechenleistung in Flop durch das wegfallende MUL deutlich höher liegen dürfte.
 
Man ich wollte schon garnicht mehr hier rein schauen, ABER BALKEN sind endlich da juhu. Mir wurst, ob fake oder nicht. Irgendwie macht es mich glücklich. Erlären kann ich es auch nicht. Sollten die Ergebnisse dann auch noch an die realität anknüpfen dann wäre es wirklich geil.

p.s. hier darf man nicht vergessen, dass NV einen deutlichen, wenn auch nicht ganz fairen, vorteil gegenüber ATI hat. sie können nicht nur ihre architektur optimieren, um mehr game performance zu erhalten, sie lassen auch games "optimieren" :d :d
was mir als endkunde eig. shit egal ist, hauptsache performance ;)
 
@ mr.dude

Wenn du die Einheiten gescheit auslastest, ist eine HD5870 doppelt so flott wie eine HD4870. Etwa in 1.920 mit 24x ED-CFAA in diversen Spielen - ist halt eine Frage der Settings (und kommender Treiber, eine HD4870 hat seit dem Launch ~25% zugelegt).
 
Man ich wollte schon garnicht mehr hier rein schauen, ABER BALKEN sind endlich da juhu. Mir wurst, ob fake oder nicht. Irgendwie macht es mich glücklich. Erlären kann ich es auch nicht. Sollten die Ergebnisse dann auch noch an die realität anknüpfen dann wäre es wirklich geil.

p.s. hier darf man nicht vergessen, dass NV einen deutlichen, wenn auch nicht ganz fairen, vorteil gegenüber ATI hat. sie können nicht nur ihre architektur optimieren, um mehr game performance zu erhalten, sie lassen auch games "optimieren" :d :d
was mir als endkunde eig. shit egal ist, hauptsache performance ;)

mega lol :lol:
 
@y33H@
Das mag sich in der Theorie toll anhören. Ist nur leider in der Praxis nicht vollends realisierbar.
 
Theorie? Benches mit Saves ( = Praxis) zeigen dies. Ok, ist eher selten bzw. in nur ner Handvoll Spielen, aber es gibt +100%-Szenarien auch in der Praxis.
 
nur welches spiel spielt man dann im 1920x alles max und 24xED-CFAA flüssig?

ist dann sicher doppeklt so schnell

4870 dann 10FPS
5870 dann 20FPS

:d

So wirbt NV und ATI ja immer bei den kleinen karten , 200% mehr leistung :d jetzt 6statt 2FPS ^^
 
Ich frag mich echt wie du darauf kommst. Das ist bei Cpu's richtig, da man dort nicht 100% parallelisierbare Aufgaben hat. Aber ob der Verteiler bei ner Grafikkarte 2Mio Aufgaben auf 1000 oder auf 2000 Einheiten verteilt, macht keinen Unterschied. Wenn man da wirklich gut arbeitet bekommt man auch die vollen 100% mehr raus.

Eben nicht,die Realität sieht anders aus. Es wird zwar an Techniken gearbeitet die Einheiten besser auszulasten, aber 100% parallel wird nicht gearbeitet.

NV hat zB vor kurzen erst dieses Patent eingereicht: http://patft.uspto.gov/netacgi/nph-...50&s1=7609272.PN.&OS=PN/7609272&RS=PN/7609272 ..um die auslastung der Shader zu verbessern.
 
@ Haro

Danach hat ja auch keiner gefragt :d Aber das meinte mr.dude wohl - und er hat idR Recht. Praxisnah (20 zu 40 Fps etwa) siehst du das nämlich nur sehr sehr selten.
 
@carlo33
Nur dass Fermi keine neue Architektur ist. Es ist eine Weiterentwicklung der G80 Basis, G80/G92 -> G200 -> G300. Nun ja, offensichtlich ein Fake. Oder glaubt jemand wirklich, dass eine GTX 360 schneller ist als eine HD 5970 oder eine GTX 380 mehr als doppelt so schnell als eine GTX 285? Ich kann mir das beim besten Willen nicht vorstellen. Und mal davon abgesehen, gibt es denn überhaupt schon A3 Chips und lauffähige Karten? :hmm:



Ich glaube du verwechselst da was mit ner anderen firma.:hmm:
 
Trotzdem sagt er Fermi wäre keine neue Architektur... das ist doch blödsinn macht langsam keinen spaß mehr hier den thread zu verfolgen.
 
Zur Leistungsverdopplung durch Kernverdopplung:
Hier tun ja einige so, als wenn GF100 und HD5xxx die ersten GPUs mit mehr als einem Kern wären. Es bestreitet auch niemand, dass es gewisse technische Hürden bei der Parallelisierung gibt. Nur die Probleme bestehen bei den Vorgängermodelen ganz genau so. Der einzige Unterschied ist, dass man nun auf etwa doppelt so viele Kerne aufteilen muss. Dies wird aber nur dann zu einem Problem, wenn man mehr Kerne als Aufgaben hat...
Nebenbei ist die Shaderauslastung bei NV doch konstant hoch. Wenn ihr recht hättet müsste die ja mit jeder Generation schlechter werden. Aber es läuft genau andersherum, sie wird immer besser.

Zur Neuentwicklung: Wieso sollte man an den TMUs rumspielen, wenn sie nicht der limitirende Faktor sind? Man hat das gesammte Speicherinterface komplett umgebaut und die neuen Shader haben mit den alten nichts mehr gemeinsam, außer dass es weiterhin 1D Shader sind. Aber warum sollte man hier auch was ändern, schließlich hat man sich damit immer gegenüber Ati durchsetzen können.
 
Die Balken sind wohl leider Fake (wär ja für uns schön, wenn nicht. ;)), was man auch schon seitens der VRAM Angaben sieht und vor allem auch daran, dass die GTX 380 immer und die GTX 360 auch öfters flotter als die HD 5970 sind. Außerdem ist es sicher auch unwarscheinlich, dass die 360er in etwa so flott die GTX 285 (1 GB) SLI ist....usw..

Wenns nach den "Benches" gehen würde, hätte die GTX 380 512 Bit SI -> 2 GB GDDR5
sowie die GTX 360 ein 448 Bit SI - 1.8 GB GDDR5, was aber nicht stimmt, da NV maximal 384 Bit beim GF100 verbauen wird und wahrscheinlich 320 Bit beim 2. schnellsten Single GPU Modell.


Eventuell liegt die GTX 380, wenn die finalen Taktraten passen, nur knapp unter der HD 5970 und die GTX 360 etwas über der HD 5870.

Nun ja - ich lass mich gerne eines besseren belehren, wenn hier auch diverse Effizienzverbesserungen gegenüber G200b greifen und dies die Leistung noch einmal etwas steigern kann.

Aber trotzdem kann ich mir nicht vorstellen, dass das Single GPU Flaggschiff von NV am Hemlock vorbei ziehen kann - dies wär denk ich mal höchstens unter Extrem-OC und entsprechenden Kühlmethoden mit Taktraten jenseits von Gut und Böse möglich.
 
Trotzdem sagt er Fermi wäre keine neue Architektur... das ist doch blödsinn macht langsam keinen spaß mehr hier den thread zu verfolgen.

das kann man eben auch nur bedingt immer sagen.

Klar sind die shader und überhaupt der GPGPU teil neu entworfen worden , mit größeren L1 und L2 cache.

Aber manche dinge bleiben halt grundsätzlich gleich.


Mehr veränderung als bei RV670 zu RV870 ist hier schon enthalten , da hier nur leicht optimiert und verdoppelt wurde.
 
Ich glaube die Tatsache das Nvidia sich vom Gamingbereich als alleinigen Fokus getrennt hat, und sich versucht eine Art zweites Standbein zu schaffen stört manche hier mehr. Böses Unternehmen! Als würde es gerade zu fremd gehen:hmm:
 
NV hat sich schon was dabei gedacht mehr wert auf GGPU zu legen.
ATI wird da auch nachziehen müssen mit der nächsten Generation.
Wobei sie aber den Vorteil haben das AMD mit im Boot sitzt.
 
Zuletzt bearbeitet:
Nur hat NV es nötiger, da ATI jetzt halt AMD ist und somit schon mehr als eine Sparte hat.

Schau dir mal die Top500 der super PCs an , wie viel AMD da drin steht in mischung mit IBM Cell.

Da muss NV eher nachziehen um da richtig mitmischen zu können.
 
Schau dir mal die Top500 der super PCs an , wie viel AMD da drin steht in mischung mit IBM Cell.

Da muss NV eher nachziehen um da richtig mitmischen zu können.

Ja überleg mal wie lang die Chips von AMD und IBM im diesen Bereich mitmischen und wie lang NV mit Tesla dabei ist.

Außerdem verbaut AMD in diesen Bereich CPUs und nicht GPUs ^^
 
Ja überleg mal wie lang die Chips von AMD und IBM im diesen Bereich mitmischen und wie lang NV mit Tesla dabei ist.

Außerdem verbaut AMD in diesen Bereich CPUs und nicht GPUs ^^

Mein nur das ATI , wegen AMD schon mehr bereiche abdeckt, und NV muss sich da erst etsblieren.

Ich mein damit nur das NV erst neue standbeine richtig aufbauen muss wie Tegra oder Tesla oder was auch immer, vorallem weil die Chipsatzsparte ja auch langsam wegstirbt.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh