Es gab in der Vergangenheit mehrfach Test´s mit SSDs, um diese an die TBW Grenze zu bringen. Letztlich haben die Probanden alle durch die Bank lännger durchgehalten, als die Hersteller angegeben haben.
Nein nicht alle! Ich erinnere mich noch gut an den Test bei xtremesystems.org wo eine OCZ lange vor Erreichen der spezifizierten P/E Zyklen der NANDs wegen NAND Defekten ausgestiegen ist. TBW Angaben waren damals noch unüblich, die kamen erst später als immer mehr Unternehmen Consumer SSDs in Enterpriseanwendungen verwendet und dort nicht selten vor Garantieende todgeschrieben haben, Alle SSDs von NAND Herstellern bzw. deren Tochterfirmen haben aber spezifizierten P/E Zyklen der NANDs immer um ein mehrfaches überstanden und daher kaufe und empfehle ich seither auch nur solche SSDs, aber dies hilft bei der Frage WD oder Samsung natürlich nicht weiter, da beides NAND Hersteller sind.
Mehr als 2,4PB TBW in 5 Jahren erreicht man auch in einem NAS und mit einer Datenbank normalerwiese bei weitem nicht, außer die SSDs wird als Cache genutzt und regelmäßig das ganze NAS gelesen. Wenn also z.B. die Config des Caches nicht stimmt und man womöglich jede Woche ein Scrubbing des RAIDs der HDDs macht und dabei alle Daten einmal in den Lesecache gehen, also jede Woche die Kapazität der SSD womöglich mehrfach überschrieben wird, dann bekommt man sie kaputtgeschrieben, aber da liegt der Fehler dann eben auch woanders.
Man sollte übrigens nicht auf die Werbung mit den angeblich so intelligenten Cache Algorithmen reinfallen, denn sowas zu implementieren wäre viel zu aufwendig und würde damit zu viel Zeit und ggf. Speicher verbrauchen. Die Caching Algorithmen sind im Alltag also simple und meist wird einfach ein Zähler genommen der von 0 bis zum höchsten Eintrag im Cache zählt und dann wieder ab 0 um zu bestimmen wo die Daten im Cache gespeichert werden und es werden entweder alle Daten gecacht oder nur solche die mit kurzen Lesezugriffen gelesen wurden. Dies geht schnell, viel schnelle als wenn man eine Zähler für die Anzahl der Zugriffe oder ein Datum für den letzten Zugriff verwalten und jedes mal für alle Cacheeinträge vergleichen wollte. Es werden dann zwar auch häufig genutzte Daten verdrängt, aber die werden ja bald wieder gelesen und damit gecacht und stehen dann wieder im Cache und da sie häufig gelesen werden, werden sie auch oft aus dem Cache gelesen bis sie wieder verdrängt und neu gecacht werden. Damit können aber eben auch schnell mal alle Lesezugriffe auf das NAS oder je nach Konfiguration eben auch internen Lesezugriffe des NAS auf das HDD RAID zu Schreibzugriffen für die Caching SSD werden!
Ein anderes Beispiel wie übertrieben die Werbung gerade bei Cachinglösungen gerne ist, wäre Marvells Hyper Duo, wie sie z.B. beim Marvell 9230 Controller (habe noch irgendwo eine Karte mit dem rumliegen) enthalten war:
Das war 2012, aber klingt doch toll oder? Das Problem ist nur, dass der Cache extrem einfach realisiert wurde und man wundert ob es wirklich Jahre der Forschung gebraucht hat um auf die Idee zu kommen die HDD und die SSD in einer Art RAID 1 zu betreiben und von der SSD zu lesen, sofern die Zugriffe eben auf den Anfangsbereich des Adressraums gehen der noch innerhalb des Adressbereiches der SSD liegen. Wenn man also eine 2TB HDD mit einer 128GB SSD gecacht hat, wurden sie ersten 128GB immer auch in der SSD gehalten und von dort gelesen, der Rest aber bliebt ungecacht. Selbst eine 32GB SSD hätte gereicht um bei einer Windows Installation alles oder wenigstens den Löwenanteil von Windows Dateien aufzunehmen und die 80% der Performance einer damaligen SSD zu liefern, solange die C: Partition eben am Anfang der Platte lag, lag die C: Partition aber hinter dem Adressbereich der SSD gab es Null Caching und nur die Performance der HDD. Aber was erwartet man auch von einem SATA Host Controller mit 2 PCIe 3.0 Lanes und 4 SATA 6Gb/s Ports, der mit 1 W Leistungsaufnahme auskommt? Wo soll da (vor allem in 2012) noch was übrig bleiben um einen aufwendigen Caching Algorithmus verfolgen zu können? Aber das Teil lief immerhin sogar mit zwei SSDs im RAID 0 mit dem Windows Treiber und erlaubte damit sogar TRIM für die beiden SSDs im RAID 0, aber das Caching war halt auf die einfachste denkbare Weise implementiert und wurde trotzdem als "breakthrough embedded technology" beworben.
für den Dauerbetrieb ausgelegte SSD
Das sind sie alle! Die 830 256GB die vorher das Systemlaufwerk in meinem alten Rechner war und nun noch im neuen Rechner hängt, falls ich noch mal was von damals brauche, hat schon über 66.000 Betriebsstunden runter, meine Rechner laufen eben alle immer durch. Die NANDs haben 2220 P/E Zyklen runter und dies nach 157TB die geschrieben wurden, denn ich nutze meine SSDs und schone sie nicht.