Das Hauptproblem ist eher der Intervall, in dem die Spiele ihr VRAM mal aufräumen. Bei Oblivion ist dieser Wert auch vom User per Konsole beeinflussbar, was sich bei häufigerem Aufräumen aber in ebenso häufigerem Nachladen von der HD bemerkbar macht. Ansonsten wird dort - wie schon oben gesagt - das verfügbare VRAM als eine Art Texturcache genutzt. Mit einer Karte mit mehr Speicher sollte man also diesen Flush-Wert auf einen langen Zeitraum einstellen, damit das Spiel überhaupt Zeit hat den Speicher der Karte zu füllen. Dafür wirds bei den meisten Übergängen in der Welt nur noch zu minimalen bis gar keinen Ladezeiten mehr kommen.
Da es aber auch andere Spiele gibt, die diesen Lademechanismus beinhalten, fältt es unter Umständen schwer, eine korrekte Aussage über deren VRAM-Bedarf zu treffen, da sie jede Karte, egal wie groß, theoretisch sofort maximal auslasten könnten. Weitere Spiele laden z.B. beim Levelstart alle Grafikdaten in "irgendein" Ram, da Swappen von Arbeitsspeicher in Grafikkartenram immernoch schneller geht als von der HD zur Grafikkarte. Wenn man es gut macht geht ersteres sogar ohne Ruckler und Performanceverlust, so dass es piepegal ist, das ein Spiel auf einer 512MB-Karte 800MB Videospeicher belegen will.
Was noch hinzukommt: Ja, höhere Auflösungen benötigen mehr Ram
Ist auch ganz einfach auszurechnen: Wir gehen mal von 32Bit Farbtiefe aus, das gibt uns 8Bit pro Farbkanal plus einen Kanal für Transparenzen.
Nun nehmen wir mal ne klassische Auflösung, 1024x768.
1024x768x32 = 25165824 Bit pro Bild, bzw. 3145728 Byte oder genau 3 Megabyte (2x durch 1024 teilen).
Ein Bild in dieser Auflösung braucht also glatte 3MB an Videospeicher, aaaaber wir berechnen ja immer mehrere Bilder im Voraus um einen glatten Bildübergang zu bekommen. Beim Triple Buffering wären das 3, also sinds dann schon 9MB, die für die Bildausgabe draufgehen.
Nächte Auflösung: 1680x1050 - beliebt bei 20-Zoll-Widescreens.
1680x1050x32 = 56448000 Bit oder 7056000 Byte bzw. rund 6,73 MB.
Das mal 3 sind dann schon rund 20,2 MB, die wir für die Bildausgabe vom Videospeicher abzwacken müssen.
Jetzt kommt aber hinzu, das für die Bildausgabe diverse Zusatzberechnungen notwendig sind. Beim Supersampling-AA wird das Bild z.B. in einer viel höheren Auflösung berechnet (was zusätzlichen Grafikspeicher benötigt...), und dann werden aus diesen Pixeln Mittelwerte gebildet, die die Farbe des Pixels im runtergeschrumpften Bild bieten. RGSSAA (Rotated Grid Supersampling Antialiasing) ist wohl das bekannteste tatsächlich benutzte Beispiel und liefert ne gute Qualität, aber wie wir gesehen haben kostet es Leistung, da für die interne Berechnung des Bildes in der höheren Auflösung mehr Arbeit notwendig ist (mehr Objektgeometrie muss beachtet werden, obwohl sie im finalen Bild evtl. nicht zu sehen ist, einfach mehr zu berechnende Bildpunkte inklsusive Effekten usw...).
Weitere Effekte wie HDR werden teilweise auch durch mehrere Renderdurchgänge desselben Bildes erreicht. Einige Spiele berechnen z.B. erst eine normale Szene, dann eine HDR-Ebene und legen diese dann wie eine transparente Ebene in einem Zeichenprogramm darüber. Auch EMBM und weitere Effekte werden (teilweise) auf diese Art berechnet, jedesmal ist für diesen Zwischenschritt der Speicherbedarf eines weiteren Bildes vorhanden (bei 1680x1050 könnte man also sagen: Pro Effekt, der auf diese Art arbeitet, gehen zusätzliche 6MB Videospeicher flöten).