Limit64
Enthusiast
- Mitglied seit
- 24.08.2009
- Beiträge
- 136
- Ort
- D
- Prozessor
- AMD Ryzen 7 5800X3D
- Mainboard
- Asus Prime B350plus
- Kühler
- Thermalright True Spirit 140 Power
- Speicher
- 2x16GB Crucial DDR4-2666 ECC
- Grafikprozessor
- MSI RX6700XT Mech 2X
- Display
- Alienware AW3225QF
- Gehäuse
- Fractal Design Refine R6
- Netzteil
- Fractal Design Ion+ 560W
- Keyboard
- G.Skill Ripjaws KM780
- Mouse
- Roccat Kone Air
- Betriebssystem
- OpenSuse Tubleweed, Windows 10 Pro
- Webbrowser
- Firefox, Brave
- Internet
- ▼100MBit ▲40MBit
Das bei Backblaze angeblich auch die Enterprise HDDs nicht länger halten, dürfte auch klar sein, denn das Gegenteil würde deren Geschäftsmodell in Frage stellen und die sammeln ja immer wieder Millionen bei Investoren ein, weil sie eben behaupten mit den billigen Consumer HDDs ihren Online Backup Service genial billig anbieten zu können. Außerdem gibt es nicht einfach nur DIE ENTERPRISE HDD, es gibt da eine noch größere Bandbreite als bei Consumer HDDs, von den einfach Enterprise HDDs die kaum mehr Workload als Consumer HDDs vertragen, wie diese Archive HDD, über die besseren bis zu denen für Mission Cricial Anwendungen, die gibt es nur noch in 2.5" und mit 10.000rpm oder mehr. Das sind dann auch die richtigen HDDs für so eine Dauerlast, die halten das viel besser auch aus, egal von welchem Hersteller, aber die hat Backblaze wohl kaum verwendet, die sind auch richtig teuer.
Backblaze sind sicherlich nicht die einzigen, die günstige Consumer-Platten in Servern betreiben. Google macht das z.B. genau so. Von Google gab es übrigens auch mal ein Paper über Festplatten-Haltbarkeit. Allerdings sind sie nicht auf einzelne Modelle oder Hersteller eingegangen. Ergebnis war aber u.a., dass die Festplatten mit SAS-Anschluss und/oder die mit 10k/15k rpm, also Serverplatten keine höhere Haltbarkeit haben als die billigen Consumer-Platten und das war der Hauptgrund, warum sich Google die Kosten für Server-Platten gespart hat. Ansonsten ging es in dem Paper soweit ich mich erinnere noch darum, inwiefern sich Festplattenausfälle durch SMART-Werte voraussagen lassen.
Wegen dem SMR: Könnte man da nicht ähnlich wie bei SSDs von Seiten des Dateisystems ein wenig optimieren. Dateisysteme mit CoW sollten doch einen "natürlichen" Vorteil haben, solange die Festplatte nicht vollgeschrieben ist? Auch die Benutzung des Trim-Befehls sollte doch helfen die Schreibgeschwindigkeit zu optimieren. Hat jemand Ahnung inwiefern das sinnvoll ist?