Danke für die Erklärungsversuche zum VRAM.
Ich habe über Nacht genau einen sinnvoll aufgebauten Test gefunden,... den hier von HardwareUnboxed -->
GeForce RTX 2060 VRAM Usage, is 6 GB's Enough for 1440p?
Für Jemand, der sich mit dem Thema wirklich mal auseinandersetzen möchte, kann ich das ganze Video empfehlen. Hier kurz zusammengefasst die Eckpunkte.
Der Versuchsaufbau hat zuerst die VRAM BELEGUNG in 37 Games, bei 1440P getestet.
Sowohl mit einer 2060, einer 2070 (8 GB) und einer 1060 (6 GB).
Erstes Zwischenergebnisse:
1. Turing nutzt im Allgemeinen 200-300 MB weniger VRAM, als Pascal. Kompression ist also kein Mythos, aber auch kein heiliger Gral.
2. Nur 4 / 37 Games belegen (knapp) mehr als 6 GB mit der 2070.
3. Fast alle Spiele belegen bei der 2070 mehr, was darauf hindeutet, dass Engines einfach den Puffer prozentual setzen.
Dann wurde die FPS gemessen in 1440p,.... hochgestellt auf 4k und dann der relative Performanceverlust gemessen.
Hier wurde vor allem auf die 0,1 % Lows geschaut, weil das die dem VRAM nachgesagten "Ruckler" sind.
Ergebnisse:
Die 2060 hat in 4K relativ gesehen natürlich weniger Leistung als eine 2070, verliert aber nie mehr FPS, als sie auch weniger Shader hat.
Hier und da verliert sie 1-2% mehr als die 2070, solange sich das aber weiter im Rahmen der Shaderdifferenz bewegt, wird hier von anderen Gründen ausgegangen. Wenn man von 60 auf 35 FPS fällt z.B. ist da schnell mal nen Prozent oder zwei "verschluckt", nur weil man 35, statt 36 gemessen hat.
Die paar Sonderfälle bewegen sich also höchstens im Rahmen der Messtoleranz und sind weiterhin im Rahmen der Shaderdifferenz.
Das Fazit von HardwareUnboxed ist in dem Fall, dass 6 GB sogar für 4K ausreichend zu sein scheint und er vermutet, dass sich das frühestens in 5 Jahren ändern wird.
Das Video ist von 2019 und damit auch noch relativ aktuell.
Die "Nachweise", dass mehr VRAM besser ist kommen alle aus der Zeit als wir verdoppelten VRAM in praktisch jeder Generation hatten und von 1080 erstmals die neuen Auflösungen 1440p und 4K dazu kamen.
Ist es sehr vermessen zu denken, dass wir da evtl. nach Placebos suchen, solange wir nicht auf 8k Monitore umsteigen?
Klar, mehr ist mehr, gilt immer. Aber mehr kost auch mehr und ich würde ungern für Etwas zahlen, was dann idle rumsteht. 24 GB ist echt ne Hausnummer, die ich mir in keinem Szenario sinnvoll vorstellen kann (für Gaming zumindest... in Richtung Machine Learning kann man da schon Use-Cases finden!).