Im DRAM bzw. bei HMB SSD dann der DRAM des Host (OS) werden allgemein nur die Zuordnungsinformationen (logische Adressen der physischen Speicherorte) in den"Zuordnungstabellen" (L2P) zwischengespeichert.
Faustformel: Je größer die Kapazität des DRAM, desto mehr Zuordnungsadressen/bereiche können dort @ L2P gespeichert werden.
Effekt: Der Workload (Reaktionszeit) bleibt im random (zufälligen) Lesen über längere Sequenzen auf hohen Niveau.
Was bei DRAM SSD und DRAM_less SSD aber gleich ist: Die Zuordnungstabellen (L2P) müssen, da DRAM generell flüchtig ist (egal ob über Host (OS) oder intern auf SSD), so oder so bei trennen, abschalten oder Overflow in den NAND gespeichert werden und sobald die SSD wieder zu Verfügung steht, in der im NAND gespeicherten Form wieder zurück in den DRAM oder bei HMB dann Host (OS) zurück geschrieben werden.
Sequentieller Zugriff hat meist weniger Effekt auf DRAM / Host (OS) und bei HMB SSD (40~64MB DRAM @ Host) ist es meist so, dass man bei random Read Zugriffe bis zu 32GB am Stück so gut wie keinerlei Unterschiede zu DRAM_SSD merkt.
Für Schreibzugriffe ist dann primär eher der pSLC bzw. ob dieser überhaupt beim jeweiligen Modell zu Verfügung steht und dessen prozentuale Kapazität (abhängig von der freien Gesamtkapazität) zuständig.
Das ist aber wieder ein Kapitel für sich.
Die Corsair MP700 Elite gibt zb. in der 2TB Version einen dynamischen pSLC Cache von 440GB vor wenn die SSD quasi zu 0% befüllt ist und sollte laut Datasheet danach auf 1500MB/s abfallen (approx Speed when Cache exhausted) was immer noch hoch ist aber das sind halt alles nur rein theoretische Werte und extrem füllstandsabhängig. Da unterscheiden sich dram_less oder dram_cached SSD so gut wie gar nicht. Beide bekommt man gut an ihre Grenzen wenn man es denn möchte.