@Thunderburne: Warum soll ich bei 3840x2160 spielen, wenn ich auch 2560x1440 und zusätzlich 4xSGSSAA haben kann? Du siehst... Angesetzte 2GB würden dicke reichen, ich kann diesen VRAM Wahn nicht wirklich nachvollziehen.
Das will ich sehen, das die Konstellation 2560x1440 + 4xSGSSAA ausgehend von dieser Auflösung weniger VRAM verbrät als 3840x2160...
Am besten in einem Game wie Skyrim
Ich bin Gespannt auf Vergleiche
carlo geht halt von "normal sterblichen" aus, die nur eine High-End Karte kaufen und da reichen halt 2GB, 3GB kriegst mit einer nie voll
Sag niemals nie
Wie war das damals zu HD4870 512MB Release? -> Ach 512MB riechen dicke aus für die nächste Zeit... Und was war? Pustekuchen war, die 1GB Karte kam unwesentlich später. GPU Technisch gab es keine Unterschiede, als "stolzer" Besitzer der 512MB Version kann ich dir sagen, das es nach gut einem bis anderthalb Jahren nur noch unschönes Spielen war
Gleiches in Bund mit der GTX470/570. Heute gerade so ausreichend. Wenn man aber viele Details reinschraubt, ist der VRAM voll, teils gar übervoll und es gibt Framedrops durch Nachladeruckler. Und nein, da sind noch keine Texturpacks, Downsampling oder SGSSAA mir drauf.
Warum hier Leute wegen dem VRAM Panik schieben ist mir aber schleierhaft, um so mehr, um so besser...
Das klingt immer so, ja sollen sie doch bisschen am VRAM sparen, braucht heute sowieso keiner, damit wird das P/L Verhältnis gleich um Welten!! besser. Aber das kannst du total vergessen. Unterm Strich bleibt HighEnd nunmal HighEnd. Wer P/L kaufen will, kauft Mittelklasse. Ob da nun 50€ mehr oder weniger drauf kommen, spielt bei dem extrem miesen P/L (und das mit kommenden Karten sogar noch schlechter, wenn die Preise weiter steigen) keine Rolle mehr.
Analog dazu der Verbrauch, das interessiert auch nur am Rande, solange es kühlbar bleibt.
Übrigens, es ist halt schwer auf ein 512Bit SI 3GB zu packen, auch wenn NV sowas möglich machen könnte bzw. in kleineren Karten schon tat ist es nicht optimal. Es bleibt halt nur 2GB, was längere Sicht wohl zu wenig oder 4GB, auch auf lange Sicht ausreichend.
Aus Endkundensicht ist in meinen Augen nix schlimmer, als sich für teuer Geld ne HighEnd Karte zu besorgen und dann irgendwann gezwungen zu sein, wegen so ner Lapalie von zu wenig VRAM die Karte tauschen zu müssen. Und nein, der HighEnd Käufer geht nunmal keine Kompromisse ein, dafür bezahlt er auch HighEnd Geld und will HighEnd Optik.
Und du hälst es für ausgeschlossen, dass man die ALUs so verändert, dass sie denen von AMD ähnlicher werden? Die packen ja auch 2048 auf ein noch kleineres Die.
AMD verwendet immernoch Vector ALUs
Platztechnisch scheint sich das deutlich bemerkbar zu machen. Auch wenn sich diese mehr oder weniger unabhängig in SuperSkalareinheiten aufteilen lassen bzw. es dazu noch Skalareinheiten dediziert gibt, ist Leistungstechnisch das ganze aber wohl trotzdem extrem stark Optimierungsabhängig. Rein aus Rohleistungssicht im Vergleich zum Spieleleistungsoutput ist die neue AMD ne Krücke gegen die 580er
Und das kommt sicht nicht daher, weil AMD es nicht kann... Sondern viel eher, weil sich das Problem von Vec4 oder Vec5 ALUs mit GCN eigentlich gar noch verstärkt hat in Form der noch breiteren Vectorisierung.
Der allseits "beliebte" Furmark Test zeigt auch, das die AMD Karte annähernd 50% mehr Verbrauch an den Tag legt, wenn man die ALUs im Gegensatz zur Gaminglast ausfährt. Was unterm Strich wohl auch zeigt, wie wenig Ausgelastet (prozentual gesehen) die ALUs selbst sind. Bei NV lag bis dato der Zuwachs eher im Bereich ~25%. Mit den G200er Karten sogar noch deutlich kleiner