Ja, die 10^-15 machen einen Unterschied. Aber es kommt ja auch auf die Größe an. Bei, für heutige Verältnisse, eher kleinen 2TB Festplatten und einer Fehlerrate von 10^-14 kannst du beim Rebuild eines RAID5 mit einer 40% Wahrscheinlichkeit (*) von verlorenen Daten durch diverse fehlerhafte Bits ausgehen. Durch den Einsatz von 10^-15 Festplatten reduzierst du die Anzahl dieser Fehler ja ca.um den Faktor 10 (also auf 4%), aber wenn sie dafür dann z.B. 8TB groß sind, erhöht sich die zu erwartenden Fehlerzahl ja wieder um Faktor 4 (16%).
Der beste Weg um den Anteil des "verlorenen" Speicherlplatzes gering zu halten ist der, dass man 5 oder 6 Festplatten verwendet und dann doppelte Redundanz einsetzt.
In diesem Fall wirst du nicht nur durch den Verlust von vereinzelten Daten geschützt, sondern auch vor dem Totalausfall einer weiteren Festplatte. Die Wahrscheinlichkeit für letzteren ist zwar wesentlich geringer als für einige gekippte Bits auf den Festplatten, aber dafür natürlich auch entsprechend folgenreicher.
Einige hier im Thread haben ja ihren T20 entsprechend erweitert.
Wenn du dich hingegen nur gezielt vor dem Verlust von Dateien durch fehlerhafte Daten etwas besser schützen willst, ohne weitere Festplatten anzuhängen, dann solltest Du auf jeden Fall wenigstens ein robustes Filesystem wie z.B. ZFS einsetzen (welches man wiederum ja besser nicht auf einem Hardware-RAID laufen lässt, sondern dessen integrierte Redundanz man dann nutzen sollte, was das gesamte Konzept und den Aufbau des Systems verändert, weil man dann keinen RAID-Controller sondern IT-Mode-fähige SATA-Ports braucht und dazu noch eine Menge ECC-RAM.
Als nächste Alternative kommen noch andere, moderne Filesystems in Frage, wie btrfs oder auch Microsofts neues ReFS. Aber beide sind noch nich lange genug im Einsatz um repräsentative Langzeitstudein dazu finden zu können. Aber klar ist natürlich: ext2, FAT oder NTFS solltest du tunlichst vermeiden.
(*)
Has RAID5 stopped working? | ZDNet