Hardwarekenner
Legende
nein die 9600GT hat den G94 Chip der auf dem G92 basiert, also nichts neues
und welcher war eher im handel, die 9600GT oder die 9800GT ?
Zuletzt bearbeitet:
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
nein die 9600GT hat den G94 Chip der auf dem G92 basiert, also nichts neues
und welcher war eher im handel, die 9600GT oder die 9800GT ?
entweder war hier jemand nicht richtig informiert oder es sind keine Karten mit Fermi-Chip....es soll um zwei Modelle gehen 249€ & 299€ mit 1024 & 2048 MB GDDR5...
ok dann könnte es hin kommen das sie die GTX 285 in GTX310 oder sowas umbasteln.
Letzterer hat ein Speicherinterface mit 384 bit, was auf 1,5 oder 3 Gbypte raus laufen wird
ciao Tom
von NV bestätigt oder irgendwelche vermutungen von irgendwo?
8800GTS G92 ab 350,- & danch 8800GT ab 250,-
so war das damals....
Wer Weiß, vllt kommen die Desktop Varianten wirklich mit einem 256bit SI.. kommt nur drauf an wie lange sowas dauern würde.
Alle gehen zur Zeit von April aus.. sind ~5 Monate obs hin kommt ick wes ja nit..
ich denke da kommen erstmal "kleine" GT300 karten, wie damals die 8600GTS, und schon diese werden die leistung einer 5870 haben, und die haben dann "nur" 1024/2048MB GDDR5.
Das wird das NV Jahr !
lustig deine quelle
1. A3 ist noch nicht fertig
2. steht fest das nichts vor April kommen wird
3. es wird garkeine 1GB oder 2 Gb Version geben (1.5 / 3 Gb Versionen)
Wo ist das schwachsinn?
Das mehr DX11 titel kommen werden ist fakt!
Das zb Dirt 2 nur DX9 oder 11 kann ist Fakt!
Aber man kauft sich dann ne High End karte und verzichtet auf effekte , DX10 reicht ja , sind ja nur paar games
Aufgeräumt! Wann werdet ihr eigentlich endlich erwachsen?
Weiteres Geflame, Gebashe und persönliche Angriffe werden kommentarlos von mir entsorgt
Zur Zeit kann mich aber die HD Serie auch nicht voll überzeugen .
Thema DX11 Bildverbesserung durch Tesselation .
Sobald mann Tessealation unter DX11 bei einer Auflösung von 1920*1080 mit AA nutzt ist bei dieser Karte unter Stalker auch der Arsch ab.
Und das ist ja was DX11 ausmacht.
Perfomance unter DX11 ist zwar höher ,aber nur ohne Bildverbesserung.
Das schaft dan wohl nur die HD5970 aber CF oder Sli halt ich nicht viel von.
Ich weiss das viele auf dem Film sind 1920x1200, für MICH ist und bleibt die Auflösung nichts für eine Singelkarte das war früher so und ist es heute auch noch.
Wenn eine karte das schafft in der Auflösung dann ist das schon sehr gut, egal ob ATI oder Nvidia. (standard Auflösungen sind immernoch 1280x1024 oder wenn es hoch kommt 1680x1050).
Alles was drüber ist, ist nix für ne Singel GPU find ich, ich könnte jetzt so kommen das deine GTX275 in Stalker nichtmal 20 FPS bringt in 1280x1024 4xAA 16xAF (was auch stimmt)
Ausgehend von dieser Annahme können wir die Leistung des GF100 exakt aus Architektur und Shadertakt berechnen. Die Daten des Fermi haben wir im Whitepaper und die der GTX285 sind allgemein bekannt. Aus ihnen ergibt sich, dass die Shader der GF100 2,133 mal so viel Leistung wie die der GTX285 bei gleichem Takt liefern. Nimmt man nun noch die Ergebnisse der Tests zwischen GTX285 und HD5870 in DX9 /DX10, hier veranschlage ich mal 30% Vorteil für die HD5870 (Die DX11 Vorteile der HD5870 sind hier natürlich nicht heranzuziehen, da der GF100 diese Vorteile ebenfalls haben wird. Somit würde dieser Faktor sich bei unserer Rechnung eh herauskürzen.).
Dies liefert uns nun das Ergebniss, dass der GF100 bei einem Shadertakt von 1476 MHz auf die 2,133/1,3=1,6408 fache Leistung der HD5870 kommt. Bei diesem Takt wären es also 64% mehr Leistung.
2,133 stimmt so nicht.
1. Sind die Shader anders, GT200 konnte MADD + MUL, Fermi dagegen FMA.
2. Wird NV evtl auch die Shaderauslastung verändert haben, bzw die Effizienz gesteigert.
Also einfach 512/240 zu rechnen geht hier nicht auf.