Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
ich mach mir mehr sorgen um ATI als um NVBei Ati mache ich mir da weniger Sorgen als bei NV, da Ati ja die erste 40nm Karte Ende April rausgebracht hat.
Dann wird das Ding bestimmt recht teuer ... naja und ob es sinnvoll ist solch großen Speicherdurchsatz zu besitzen?
Ein Nachteil ist es sicherlich nicht. Wenn der GT300 allerdings wirklich so leistungsfähig wird wie man annehmen kann, halte ich die ganze Karte bei der Konkurenz zu ATI ziemlich überzogen!
256bit/512bit interface...das wird sicher ne teuere Karte
Fazit:nein
shader o.ä verdoppeln,verzehnfachen sich...die Karte wird sicher sehr schnell sein
Fazit: sagt nichts aus
Es gab schon immer Karten die auf dem Papier gaaanz toll ausschaun,doch die Wahrheit is immer
Und wer Grafikkarten seit 3Dfx kauft weiß dass.
Fragt mal die alten Hasen nach der Geforce 5
auf dem Papier
in Spielen
Jungens seit ihr denn verückt,da kommt "endlich!!!" mal wieder ne karte die nen richtigen schub nach vorne verspricht u ihr beschwert euch darüber
Schaut euch doch mal an,was die letzten 2 jahre so gelaufen ist in sachen performanceschub,das war ja nicht gerade berauschend
Solche sprünge wie der,der jetzt zu erwarten ist,bräuchten wir nach meiner auffassung jedes jahr!(ach ja schön wäre es wenn träume in erfüllung gehen)Damit endlich techniken,wie echtzeitraytracing u rastergrafik zusammen,im vollem umfang ausgeschöpft werden können
In dem sinne Viva la Revolución!!!
Fazit: sagt doch was aus! Die RV770 besitzt effektiv 160 5D Shadereinheuten. NVs G200b 240 1D. Wenn NV nun bei 1D Shadern bleibt und deren zahl auf 512 erhöht kannst du von einem ziemlichen Leistungssprung ausgehen.
.
wenn die 300 reihe nun genauso eine geschwindigkeitssteigerung hat wie meine damalige elsa erazor geforce 1 wäre ich schon zufrieden
Nun ich würde nicht unbedingt davon ausgehen das die shader unverändert bleiben u nur dessen anzahl erhöht wird
Denn wie wir ja schon wissen will nvidia die performance der shader in wissenschaftlichen bereich(Double Precision) stark erhöhen.Es wahr von einer bis 16fach gesteigerten Performance in dem Bereich die Rede.Das wird aber mit den shadern wie bisher schlichtweg unmöglich sein,selbst wenn man dessen anzahl verdoppelt.
Ich rechne einfach damit, dass die High End Karte der GT300 Generation die Geschwindigkeit der Dualkarte aus der Vorgeneration haben wird.
Somit müsste die 380 GTX so schnell sein wie eine 295 GTX.
Da war zumindest bisher immer ein grober, passender Richtwert.
http://www.theinquirer.net/inquirer/news/1052025/gt300-delayed-till-2010
Hmm, würd ich jetzt irgendwie blöd finden...muss ich ja noch länger warten mitm Aufrüsten...
lFragt mal die alten Hasen nach der Geforce 5
auf dem Papier
in Spielen
Das ist doch alles tarnen u täuschen was da abläuft Wenn die midrange chips wirklich im sommer kommen,kann der fertigungsprozess bei tsmc doch gar keine so grosse probleme bereiten,denn diese kommen ja auch in 40nm daher
nö ist nicht möglich
Zudem tendiert CB dazu, dass 2048 MB Grafikkartenspeicher auf dem Spitzenmodell wahrscheinlich sei.
Mache ich grad nen Denkfehler
Ja machst du...
512Bit SI heist 16 Speicherchips...
Mit 16 Speicherchips kommst du nicht auf 1,5GB, weil alle Speicherchips die gleiche Größe haben müssen. Und Speicherchips mit 96MB Größe gibts net
Und 1GB könnte in anbetracht der Leistung der Karte (wenns denn so kommt) für kommende Blockbuster Titel schon wieder zu wenig werden.
Ich nehme an, dass es wie momentan auch kommen wird.
Die abgespeckte Version wird wieder 448 Bit haben und dann auf 896 oder 1792 MB setzen.
Sollte ja möglich sein, oder ?
Oder die abgespeckte Version kommt mit 256 BIT SI, dann sind wieder 1024/2048 MB möglich, aber die Bandbreite ist um die Hälfte geringer. Mal schauen.
nö, die neue Generation hat GDDR5!
Bei der ganzen Diskussion vermisse ich noch dual-core chips, die ja jetzt auf ein PCB (ein chhip) kommmen sollen.
nö, die neue Generation hat GDDR5!
Bei der ganzen Diskussion vermisse ich noch dual-core chips, die ja jetzt auf ein PCB (ein chhip) kommmen sollen.
Hoffe DirectX 11 (multi-threading) kann irgendwie dazu beitragen, SLI zu optimieren.
Vielleicht mitte oder ende nächstes jahr wenn die 40nm produktion ein bisschen optimiert wurde