@oooverclocker
du bist mit deiner Theorie ziemlich nah an der Wahrheit dran
Allerdings nicht in allen Punkten...
bspw. gibt es den Auslagerungspool für VRAM Daten schon seit Ewigkeiten. Das ist nix neues oder irgendwie komisches. Daten werde normal auch nicht doppelt gehalten. Den non local Pool gab es schon mindestens seit R300 Zeiten von ATI. Sprich 9700 (Pro). Zumindest ist er seit dieser Zeit definitiv ausweisbar. Selbst meine Geforce 2 damals konnte mehr als ihre 64MB an Videospeicher nutzen... Dort konnte man schon via Rivatuner zwischen local VRAM und non local VRAM Unterscheiden und entsprechend die Werte auslesen. Der non local VRAM dient idR aus Auslagerungspool. Die Größe ist nicht unbedingt direkt in Abhängigkeit der absoluten VRAM Größe. Wie groß der Spaß in Summe ist, kann man bspw. in den erweiterten Anzeigeeigenschaften von Windows sehen. -> in meinem Fall eines Notebooks mit einer 330m von NV steht dort ~3,5GB gemeinsam genutzten Systemram bei 1GB dediziertem local VRAM der GPU. Macht in Summe also 4,5GB. Das Gerät hat dabei 2x4GB RAM verbaut.
Auch ist es bspw. entgegen deiner Aussage nicht schlimm, wenn der "teure" VRAM belegt wird. -> im Grunde ist es logisch sogar die sinnvollere Option, den local VRAM einer GPU voll zu belegen. Das Entscheidende bei der Thematik ist aber, es müssen auch sinnvolle Daten drin stehen. Es nutzt Niemanden etwas, wenn der VRAM brach liegt, selbst wenn er teuer ist
brach liegender VRAM kostet einzig unsinnig Energie, bringt aber keine Vorteile.
Es geht in den Köpfen der Community seit Jahren schon die Meinung um, dass das bessere VRAM Management das ist, welches so wenig wie möglich VRAM verbraucht. Nur ist das genau der Trugschluss, weil die Daten eben dann auch nicht schnell für die GPU verfügbar sind und die GPU die Daten erst über PCIe (oder vorher über AGP) nachladen muss. Das beste VRAM Management ist in der Tat das, welches die Daten möglichst im VRAM Pool der GPU hält und noch besser, diese Daten auch sinnvoll für die Anzeige sind. Also unsinnige Texturdaten vom voll 3D Hauptmenü interessieren genau so wenig wie unbelegter VRAM.
Ebenso ist es so, dass die Daten wohl in gewissem Radius zum Sichtfeld dynamisch nachgeladen werden. Diese Streamingverfahren werden zunehmend immer mehr eingesetzt. Früher war das mal anders. Da gab es nur Hop oder Top.
Also wenn Daten fehlten, gab es einen recht krassen Nachladeruckler. Heute federt man das idR mit intelligenten Streaming ab... Erst wenn das Streaming in den definierten Zeiten nicht genügend Daten nachschieben kann, fängt es an zu ruckeln. Sinnvoll ist das Streaming der Daten genau deswegen, weil eben viel mehr Daten für das Spiel notwendig sind, als absolut in den VRAM rein passen würden... Das Streaming ist also der Workarround um dort nicht mit Hardware umsich schlagen zu müssen.
Und leider geht es heute sogar noch weiter -> es gibt mittlerweile Games, die zwar die Daten Streamen anhand der Sichtposition, aber eben trotz krasser Überbuchung nicht ruckeln (oder nur wenig) und stattdessen einfach Daten weglassen. Das zeigt sich in erster Linie in direkt im Sichtfeld aufpoppenden Objekten, ohne dass die FPS Raten kurz einbricht. GTA IV oder FC4 sind solche Beispiele. Das ist zwar gut für den Spieler, weil es eben nicht oder nur wenig Ruckelt. Aber sehr schlecht für einen VRAM Vergleich, da es schwer ist zu identifizieren, welche VRAM Größe nun ausreicht für volle Details und ab wann es zu Detailverlust und damit auch keiner Vergleichbarkeit mehr kommt.
PS: Das Thema nicht ganz voll belegten VRAM liegt normal übrigens am DWM. Windows nutzt selbst VRAM. Die Menge hängt direkt von der Anzeigegröße ab. Um so mehr hochauflösende Displays Windows bedienen muss, desto mehr VRAM wird dir dort flöten gehen. Bsw. habe ich mit drei Displays dort gut und gerne 600-800MB, die einfach weg sind... Eine Vollbildanwendung kann zwar dort dem DWM Dienst zwingen, die Daten auszulagern (in den RAM), aber eben macht das nur dann Sinn, wenn während des Spielens auf den Displays nix vom Desktop zu sehen ist. In meinem Fall habe ich links und rechts des Hauptscreens den Desktop im erweiterten Modus mit diversen Tools und Fenstern drauf (Afterburner, Taskmanager usw.) -> das kostet VRAM, welcher NICHT dem Spiel zur Verfügung gestellt werden kann. Entsprechend läuft man schneller ins VRAM Limit.
Ebenso kostet SLI/CF idR etwas mehr VRAM als der Betrieb einer Single GPU.
Unterm Strich ist das VRAM Thema ein ziemlich interessantes Thema. Leider bekommt es sogut wie keine Redation hin, das ganze mal anständig für die Community zu beleuchten. Oftmals ist Zeitdruck ein Thema, warum die Tests eher ungünstig für solche Vergleiche sind. Bspw. kratzt CB mit dem jüngsten 2 vs. 4GB VRAM Test nur an der Oberfläche des Themas. Andere Redaktionen geben nur unsinnige avg. FPS Werte an und ziehen ein falsches Fazit, wo die Karte mit weniger VRAM genau so schnell ist wie die mit mehr -> was aber nur bedingt stimmt.
Wenn man sich dann noch den Part mit der GTX 970 ansieht, wird auch eigentlich schnell klar, dass die Karte nicht direkt am lahmen achten Speicherbaustein krankt, sondern viel eher daran, dass 3,5GB einfach zu wenig sind, vor allem, wenn das Spiel so hoch gedreht wird, dass die 4GB Karte gerade noch reicht. -> nur die wenigsten Tests haben bspw. eine 780TI im direkten Vergleich -> die bricht nämlich noch etwas eher ein. (3GB VRAM) Man erkennt es aber bspw. schon an den Frametimemessungen der 980 mit 4GB -> die äußerst unruhig werden, wenn die 3,5GB der 970er überlaufen. Das letzte bisschen 512MB der 970er ist nur unwesentlich schneller ansprechbar wie das Ziehen der Daten über den PCIe Slot aus dem VRAM -> weswegen das auch eher wenig bringt, den Speicher zu nutzen. Nur wäre die Option, die man hätte machen können einzig, das SI auf 224 oder gar 192Bit einzukürzen. Während volle 224Bit an der Situation nichts geändert hätten, währen aber 192Bit noch weniger Sinnvoll, da eben nur 3GB anstatt 3,5GB ansprechbar wären -> dazu noch langsamer als jetzt schon.
Das Thema 970 ist aber derart von den Parteien gepusht, dass man da eigentlich nicht sachlich drüber sprechen kann... Warscheinlich kommen gleich wieder die Basher und schreien ihren Unmut raus
Also kurz gesagt das gerede von wegen mehr als 8gb bräuchte man nich und die geschwindigkeit egal sei (so hieß es noch bis vor ein paar monate in den kaufberatungsthreads mit der begründung sie hätten alle noch kein ram-limit) -> totaler quatsch.
Leider ist in den Foren sehr viel Halbwissen unterwegs... Und man wird nur müde belächelt, wenn man dagegen etwas sagt.
In der Tat bringt mehr RAM in einigen, vor allem aktuellen Titeln durchaus etwas. Eben gerade dort, wo die GPU viele Daten auslagert und das Spiel selbst (neben den so schon laufenden Hintergrund Tasks) noch ne Menge RAM benötigt. 8GB sind extrem schnell voll zu bekommen. Dazu kommt, dass mehr RAM auch gleichzeitig mehr HDD Cache bedeutet. So durchlaufen die HDD/SSD Zugriffe idR den Cache im RAM. Die Daten werden dort in ungenutzten Bereichen gehalten und stehen bedeutend schneller bereit als direkt vom Speichermedium. Das macht ebenso nochmal ne ganze Menge Holz aus. Man könnte sogar sagen, wenn der Taskmanager beim Freien Speicher nur unwesentliche Größen ausgibt, wird man (in)direkt von mehr RAM profitieren. Selbst bei 64GB ist das fertig zu bringen
Ob das dann aber noch sinnvoll ist, den Speicher weiter aufzuziehen, ist allerdings fraglich
Das Thema ist allerdings recht leicht zu identifzieren -> hat man permanent HDD/SSD Zugriffe im Spiel, ist ein RAM Limit vorhanden. -> mehr RAM ist sinnvoll. Ob die FPS Rate direkt steigt oder nicht, hängt vom Spiel und den Mechanismen ab. Es muss nicht immer höhere FPS Leistung raus kommen. Häufig ist es auch nicht der Fall. Manchmal hingegen schon