Ich habe so eine Fujitsu Celsius M720.
Der sollte zumindest
ab Werk auf jeden Fall ECC RAM haben und damit eines der größten Risiken für Datenkorruption schon mal nicht besitzen. Da der aber offenbar auch unbuffered RAM akzeptiert, hoffe ich das Deiner auch noch komplett mit ECC RAM bestückt ist und wenn nicht, solltest Du das schnell ändern, wenn Du Dir schon solche Sorgen bzgl. Datenkorruption machst.
CRC zwischen SSD und System-Treiber hat NVMe 1.4 wohl.
SATA hat auf jeden Fall eine CRC32 pro FIS, also Paket und Datenpakete können bis zu 8192 Byte Nutzdaten enthalten. Ich müsste es nachschauen, aber es würde mich wundern, wenn PCIe nicht schon selbst in einem der vielen Layer des Protokolls ebenfalls eine CRC haben würde.
Naja, auf DRAM bin ich gar nicht so scharf. Wenn die Kondensatoren auf der SSD nicht groß genug sind...
Kann es sein das Dir nicht bewusst ist, wozu der DRAM Cache bei einer SSD dient? Nein, der ist kein Datencache wie bei HDDs, sondern darin cacht der Controller seine Verwaltungsdaten, vor allem die Mappingtabelle in der steht wo im NAND die Daten einer logischen Adresse stehen und welche NAND Pages frei sind und beschrieben werden können. Daher ist die Größte des DRAM bei den allermeisten SSD Baureihen auch proportional zur Kapazität, da das Verhältnis 1GB RAM pro 1TB Kapazität beträgt. Die Daten werden im internen SRAM des Controller gecacht, den jeder SSD Controller hat. Das war schon bei Intels X25 so:
Da passt aber bei den DRAM less Controllern meist kaum mehr als ein Teil der Mappingtabelle rein der für einen Adressraum von 1GB reicht und bei DRAM less NVMe SSDs kann HMB dies dann noch steigern, aber auch keinen DRAM Cache ersetzen, wie man am diesen Test sieht den Anandtech mal mit und ohne HMB gemacht hat:
Sobald die Zugriffe über mehr als 32GB gehen, brechen die IOPS massiv ein, weil der Controller dann immer erst den passenden Teil der Mappingtabelle aus dem NAND nachladen muss und ohne HMB passiert dies schon, wenn die Zugriffe über mehr als 1GB Adressraum erfolgen.
Neulich habe ich irgendwo gelesen, dass SATA irgendwann verschwinden könnte. Das wäre vernünftig.
Da SATA für HDDs noch lange ausreichen wird, die schnellsten schaffen es ja gerade mal die Bandbreite von SATA 3Gb/s auszulasten bzw. jetzt leicht zu übertreffen, wenn auch nur auf den äußersten Spuren, denke ich das SATA noch lange aktuell bleiben wird. Denn auch wenn viele Heimanwender komplett auf SSDs umsteigen, so haben HDDs gerade bei großen Kapazitäten weiterhin einen unschlagbaren Preis/TB Vorteil und damit ihre Daseinsberechtigung. Laut Trendfocus wurden im letzten Jahr knapp 260 Millionen HDDs mit zusammen 1,338 Milliarden Terabyte (1338 Exabyte) ausgeliefert, rund 220 Exabyte mehr als 2020 und auch wenn ich noch keine Zahlen zu den SSDs in 2021 gesehen haben, waren es in 2020 333 Millionen SSDs die zusammen nur 207 Exabyte hatten. Auch wenn es 2021 mehr SSDs und mehr Exabyte für SSDs gewesen sein werden, so macht die in HDDs ausgelieferte Kapazität sicher noch immer 5 oder 6 mal so viel aus und davon werden immer mehr 3.5" SATA Modelle mit hohen Kapazitäten sein.
Die PLP wird übrigens durchgehend und auch sehr effizient auf Firmware-Basis gelöst.
Naja, sagen wir mal so, da wird etwas ähnliches wie beim Journaling von Filesystemen gemacht um zu verhindern, dass die Mappingtabelle bei unerwartetem Spannungsverlust korrupt wird. Eine echte PLP wie in Enterprise SSDs, die dann auch die Userdaten im Schreibcache umfasst, kann man per Software aber natürlich niemals ersetzen.