Ich muss ZebuluXX recht geben, ist gibt durchaus Berichte von Spielern die mit einer 980/290x bei einem aktuellen Titel (Watch Dogs, Shadow of Mordor, Dragon Age) Microruckler aufgrund von maximaler VRAM-Auslastung haben.
Genau das meinte ich. Dafür gibt es keine Belege. Allein die Tatsache, dass der Treiber das VRAM vollschaufelt zeigt nicht, dass es ohne das RAM nicht gehen würde. Das sind nicht die ersten Fälle, wo Fehler im RAM Managemaent dafür verantwortlich sind, dass es Probleme gibt. Gerade NVIdiA kann aus der Vergangenheit ein Lied davon singen.
HisN's Bilder (S.2) zeigen auch recht deutlich das diese Titel auf Ultra-Einstellungen 5.0-5.5 GB VRAM belegen, das könnte auch der Grund für die Microruckler bei aktuellen 4GB Karten mit Ultra-Preset sein.
Absolut. Könnte aber genausogut was anderes sein. Insbesondere Karten mit 6GB oder sogar noch mehr sind aufgrund ihrer geringen Verbreitung anfällig für unentdeckte Probleme. Bei einer Standard 4GB GTX 980 fällt sowas nach wenigen Wochen auf. Einer Titan Z kann man das nie nachweisen, weil vielleicht gerade mal ein paar hundert Teile verkauft werden.
Es ist unbestritten, dass die Speichermenge bei kommenden Generationen der GPUs weiter steigen wird. Aber bei einer bestehenden Generation den Speicher zu verdoppeln ist Humbug. Das war es in der Vergangenheit immer und das wird es auch in Zukunft immer bleiben. Ganz blöde sind die Entwickler dieser Karten auch nicht. Schon mal in Erwägung gezogen, dass die unbestritten wirksame Speicherkompression des Maxwell 2 für die Bandbreite auch für die Speicherbelegung selbst genutzt werden könnte ? Es ist viel zu linear gedacht, hier einfach nach doppelter Speichermenge zu schreien.
Leider gibts es (bis jetzt) keine Möglichkeit das VRAM der großen Graka künstlich zu beschränken. Sonst würde ich gerne Gegentests machen.
Das wäre natürlich ein günstiger Test. Alternativ könnte man zwei kleine Karten mit 4GB im SLI hernehmen (z.B. die neuen GTX 960) und dagegen zwei 4GB GTX 980 im SLI laufen lassen. Dann würde sich zeigen welchen Einfluss die GPU Leistung hat.
in der Regel kann man aber eine 970er in 1440p mit abstrichen betreiben
Das sind die Dinge, die ich nicht verstehe. Wozu sollte das gut sein ? Warum nicht lieber ordentliche 1080p mit hohen Details statt 1440p mit niedrigen ? Ich bekomme nicht mal mit meiner übertakteten 980 in 1080p alles auf max. mit vollem AA oder gar Downsampling. Was soll dann eine höhere Auflösung ?
Aber dann nach 8GB Speicher schreien...als ob es der richten würde. Lachhaft. Da fehlt ganz klar die nackte GPU Leistung.
Edit:
@HisN
Ich habe früher auf GPUs Bitcoins und anderes gerechnet. Damit lassen sich Speicher der Grafikkarte teilweise belegen. Vielleicht gibt es Projekte, die den Compute Client in der Kommandozeile über Parameter steuern lassen. Proteinfolding ist gerne sehr speicherintensiv. Evtl. findest du was, womit der Speicher belegt werden kann ohne allzu sehr auf die Rechenleistung zu drücken. Oder es lässt sich über eine Parameter die Berechnung soweit runterregeln, dass die GPU nicht nennenswert belastet wird, aber der Speicher belegt bleibt. Ich bin nun schon eine Weile raus aus der Materie, aber evtl. läuft dir da was über den Weg.