Meine alte 2080 Super kam in z.B. CB77 mit 8GB bei 4K nie an ihre Grenzen was die Auslastung des Grafikspeichers angeht.
Man wird auf absehbare Zeit mit 8GB auch nicht an die Grenzen kommen.... bzw man wird es kaum bemerken, falls man an die Grenzen gelangt.
Dazu brauchts auch kein DLSS, denn die meisten Spiele sind so schlau und passen die Texturen automatisch dem verfügbarem Speicher an.
Die Texturauflösung (und damit die benötigte Speichermenge für eine Textur) hängt übrigens nicht von der Monitorauflösung ab. Es gibt lediglich die Korrelation das es erst mit höheren Auflösungen Sinn macht auch höher aufgelöste Texturen zu verwenden, weil man mit einer niedrigeren Renderauflösung Details durch die höhere Auflösung so einer Textur gar nicht darstellen könnte.
Die (meisten) Spiele sind so "schlau" und lassen einfach die höchste Auflösungsstufe der (oder sogar nur mancher) Texturen weg, sollte der VRAM knapp werden. Die meisten Spieler bemerken das nichtmal.
Das ist auch der hauptsächliche Grund, warum Spiele auf einer Graka mit 8GB durchaus laufen, auch ohne großartige FPS-Verluste, aber wenn sie mit den selben Einstellungen auf einer GPU laufen die 16GB hat, auf einmal trotzdem 12GB nutzen (brauchen wäre ja der falsche Ausdruck, weil brauchen tun sie es ja eben nicht unbedingt).
Wenn man diese Mechanismen aushebelt, bemerkt man allerdings sehr schnell deutliche Performanceprobleme.
Der einzige Fall den ich bisher hatte war ARK mit ~35 Mods. Viele dieser Mods brachten eigene Modelle mit eigenen Texturen mit. Das Spiel scheint es mit den Mods nichtmehr hinzukriegen, den VRAM vernünftig zu organisieren, bzw zu entscheiden welche Texturen überhaupt geladen werden müssen und welche eben nicht. Das hat dazu geführt, das ich mit Textureinstellung "hoch" auf eine 8GB-Karte auf einmal nur noch 15fps hatte und bei jedem Kameraschwenk zugucken konnte, wie Texturen nachgeladen/ausgetauscht wurden. Die Texturdetailstufe auf "mittel" zu reduzieren hat das Problem behoben.
Später auf der 16GB-Karte hat das Spiel dann ca. 12GB VRAM benutzt und lief auch mit hoher Textureinstellung wieder einwandfrei. Was dann wohl auch erklärt, warum mein Mitspieler mit einer 1080ti und somit 11GB-VRAM die Probleme nicht nachvollziehen konnte. Er hatte halt von Anfang an einfach 3GB mehr, was in dem Fall halt "gerade so" noch gereicht hat.