Nein, nicht das Programm liegt dort, das liegt im RAM der CPU. Die von diesem Programm mit Hilfe der GPU als Rechenknecht zu verarbeitenden Daten liegen dort.
Die Daten liegen also schlicht aus Sicht der GPU lokaler vor. Statt von der PCIe-SSD erst in den Hauptspeicher geladen zu werden und dann von dort in die GraKa transferiert zu werden, werden sie dann direkt von der PCIe-SSD in die GraKa geladen.
Der Ansatz ansich ist interessant, setzt nach aktuellen Infos aber dedizierte Anwendungskompatibilität vorraus... Denn das Problem ist schlicht, wie kommen die Daten auf den SSD Pool?
Rein vom logischen her durchlaufen ALLE Daten den Hauptspeicher des Systems. Es ist also reichlich Kontraproduktiv das Ganze quasi lagacy ohne Softwareanpassungen einzusetzen... Denn die Daten kommen so vom Storage, gehen über den RAM in den SSD Pool auf der Grafikkarte und bei Zugriff über den PCIe Port in den RAM über den PCIe Port zur GPU. (das wäre der herkömmliche Weg)
Damit das nicht so läuft, muss die Software explizit wissen, dass da an der/hinter der GPU noch ein Storage klemmt und dort Daten abkippen, auf welche die GPU zur Laufzeit Zugriff hat.
Die Schwierigkeit dürfte wohl eher klar der Speed sein. Wir sprechen hier über ~4-5GB/sec lesend bei zwei M.2 SSDs... Das ist nichtmal die Hälfte dessen, was man heute in der Lage ist über einen PCIe 3.0 x16 Anschluss zu transferieren. Heist also wenn der GPU in Games der Speicher ausgeht, wäre es immernoch schneller mit deutlich größer 4-5GB/sec Texturdaten über den PCIe Slot aus dem RAM zu ziehen als diese mit 4-5GB/sec aus dem SSD Pool zu erhalten.
Man schreibt zwar in den Artikeln zu dem Thema, es wäre schneller direkt auf den SSD Pool zuzugreifen, das sollte primär aber eine Umsetzungssache sein. Denn die Daten müssen ja stand heute erstmal in den RAM kommen, was nicht der Fall ist, wenn man das nicht dort rein kippt.
Leider fehlen so ziemlich alle Infos zu dem genauen Konstrukt seitens AMD, was dort im Video getätigt wurde... Logisch sollte sein, dass der Speed exorbitant schneller ist, wenn man entsprechend große Datenmengen entsprechend schnell der GPU bereit stellen kann... Nur wie sah das Vergleichsystem aus? Laut CB soll das ein nicht näher genanntes System für 10k gewesen sein. 10k? Wirkt für mich nicht wie das technisch maximal mögliche... Für 10k bekomme ich im Zweifel nichtmal 4-5GB/sec Datendurchsatz mit entsprechender Speichergröße eingekauft
Wo ist also der Sinn dahinter?
Hier gehts primär wohl um ganz andere Datenmengen und ganz andere Anwendungsgebiete... Im Profiumfeld ist VRAM Größe sehr wichtig... Zum Teil aber der Speed gar nicht sooo extrem entscheidend.
Ein anderer Vorteil dürfte maximal der sein, dass GPUs üblicherweise aktuell mit 8x oder 16x PCIe 3.0 angebunden sind. Schnellere Speicherzellen, als heute auf idR. mit 4x angebundenen M.2 SSDs könnten also deutlich schneller agieren und das ohne spezielle Schnittstellen oder sonstwedem Zeug. Denn nen 16x PCIe 3.0 Slot haben fast alle PCs der heutigen Zeit.