aber modernere SSDs sind schon etwas flotter und problemloser
Naja, die Entwicklung hat in den letzten Jahren bei den NVMe SSDs stattgefunden, bei SATA SSDs gab es Stillstand oder Rückschritte um die Kosten zu senken, wie bei bei der MX500, wo man bei der 3. Revision dann am DRAM Cache gespart hat. Die sind halt am Aussterben und es gab in den letzten Jahren kaum noch neue Modelle, während man die bestehenden Modelle aber eben überarbeiten muss, da die Fertigung der damals verbauten NANDs einfach irgendwann eingestellt wird. Generell werden NANDs auf immer günstigere Preise pro TB optimiert, so dass es eben zu teurer wäre NANDs alter Generationen weiter zu fertigen und zu verwenden.
Die Geschwindigkeitsvorteile der neuen NAND Generationen kommen meist von einem schnelleren Interface der NANDs, aber diese höheren Geschwindigkeiten muss der SSD Controller auch unterstützen und dazu müsste man die alten SATA SSD Controller eben überarbeiten bzw. neue designen, aber dies lohnt sich halt für SATA SSDs nicht mehr.
die Ultra3D/Blue3D sind sehr lazy, was Refreshes angeht - über Probleme hat man schon oft berichtet: in benchmarks ordentlich, bringt aber nichts, wenn 1+ Jahr alte Daten plötzlich arschlahm gelesen werden
Das Problem hat man im Prinzip bei jeder SSD mit TLC oder QLC NAND und es liegt eben einfach daran, dass man für TLC halt die langsamere LPDC ECC braucht, sobald die schnellere BCH nicht mehr reicht um Fehler zu korrigieren. Bei LPDC werden die Zellen mehrfach mit unterschiedlichen Schwellwerten ausgelesen und daher dauert es halt viel länger, führt also zu geringen Leseraten bei alten Daten, da diese eben häufiger davon betroffen sind. Dies kann man nur verhindern, indem eben die Daten regelmäßig intern refresht, also umkopiert werden, was aber eben den Verschleiß der NANDs erhöht und natürlich auch nur möglich ist, wenn die SSD im Spannung versorgt wird.
Übertreibt man es mit den Refreshs, verhindert man zwar zuverlässig das die Leseraten alter Daten fallen, verschleißt aber die NANDs schneller, selbst wenn nichts geschrieben wird. Macht man es zu selten, schont dies zwar die NANDs, aber man riskiert das doch mal alten Daten nur langsam gelesen werden können. Die richtige Balance zu finden, ist nicht so einfach, da ja die Daten auch beim Lesen leiden, je häufiger man sie ausliest, umso schneller müssen sie auch wieder refresht werden.
Holt hat aber auch keine Alternative 4TB mit SM2259H und vollem Cache genannt
Weil mir keine bekannt ist, wobei ich nicht in Anspruch nehmen, alle zu kennen. Das Problem ist eben, dass die Modelle mit der Zeit überarbeitet werden, wie man ja an der MX500 sieht, kann dies zu Veränderungen der Größe des DRAM Caches führen und die wenigsten Hersteller dessen Größe explizit angeben. Von der 870 EVO weiß ich aber deren Cachegröße, eben weil Samsung diese halt explizit nennt.
Also, gehen die Anforderungen gegen Null, so zu sagen "lite use". Eine MX500 4TB mit all ihren Nachteilen wäre trotzdem schon mehr als gut genug. Und eine 870Evo wäre schon fast wie "Perlen vor die Säue".
Ja, da hier kaum ständig Zugriffe über große Adressräume stattfinden werden und wenn, dürften sie kaum sehr zeitkritisch sein. Aber man kann die SSD ja ggf. hinterher noch anderweitig nutzen, bei einer guten SSD wird man dies eher machen als bei einer die nicht so toll ist. Nicht vergessen: Die Qualität bleibt, auch wenn der Preis schon längst vergessen ist!