SSDs mit Super Capacitor oder Beachtung von Cache Sync

DarkDeveloper

Enthusiast
Thread Starter
Mitglied seit
23.04.2010
Beiträge
128
Hallo,
da ich mich im Moment ein wenig mit Opensolaris und ZFS beschäftige, bin ich natürlich auch auf das Thema SSDs als Zwischenspeicher für die Journals des Filesystems gestossen (ZIL).
So wie ich es aus verschiedenen Forumsbeiträgen bisher ersehen kann, scheinen alle mir alle in Frage kommenden SSDs (die mit genug IOs und tolerierbarem Preis) weder einen Super Capacitor zu besitzen noch korrekt auf ATA Flush Commandos zu reagieren mit dem Ergebnis, das bei einem plötzlichen Fehler/Stromausfall etc. der gesammte Pool ins Nirvana verschwinden kann.

Ich meine bei Anandtech mal gelesen zu haben, dass die (Vorserien?)SSDs von OCZ mit Sandforce Controller wohl mal einen Super Capacitor vorgesehen hatten, dieser jedoch in den ausgelieferten Modellen eingespart wurde.

Daher zur Frage: gibt es eigentlich eine normale "Consumer/Enterprise" SSD, die die Anforderungen an die Datenintegrität von ZFS erfüllen? Und dabei nicht mit ihren IOs komplett einbrechen, weil man den Cache komplett ausschalten muss?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Vielleicht fehlt dafür einfach die Nachfrage.
Den Cache mittels Doppelschicht zu schützen klingt ja vernünftig, bei übergreifenden Volumes zu befürworten aber gibts auch´n Markt dafür.
Der Flash Massenspeicher ist immer noch zu teuer für den Großteil im Enterprise Segment und der kleine Kunde benötigt so hohe Sicherheit nicht.
Alles was im Cache verloren geht muss doch auch irgendwo hergekommen sein.
Daher zur Frage: gibt es eigentlich eine normale "Consumer/Enterprise" SSD, die die Anforderungen an die Datenintegrität von ZFS erfüllen? Und dabei nicht mit ihren IOs komplett einbrechen, weil man den Cache komplett ausschalten muss?
Mtron?

Grüße
Audrey
 
Sandforce SF-1500 gibt es auch noch mit Super Cap.
 
Wie groß muss die SSD sein?

Acard9010 oder Raid-Controller mit BBU?
 
Raid-Controller mit BBU bringt nix, wenns um den interne Cache geht...

Jedenfalls sofern der Controller schon aufm Cach schmeisst ehe die HDD / SSD wirklich geschrieben hat.

Andere Frage: was hast du im Endeffekt?
Ich denke 99.9999999% der Menschheit kommen mit normalen SSDs und HDDs aus, und ohne ZFS Hickhack.

ZFS ist schön und gut, aber fehlende Leistung der HDDs / SSDs dürfte man damit nicht wett machen können...
 
warum sollte der cache sync nicht beachtet werden?

Bei meiner Indilinx führt default writethrough zu extremen wearout im Vergleich zu writeback. Das kann nur heißen, daß die syncs beachtet werden. Soweit ich weiß wird bei intel ssd der ram nicht für userdaten verwendet, ginge also auch.

Wenns so wahnsinnig sicher sein soll müßte es eh noch ein raid1 sein.
 
Ich bin wie gesagt momentan einfach am Ausprobieren und in Opensolaris-Threads über dieses Problem mit Consumer-SSDs gestolpert. Für normalen Storage über NFS/CIFS sind Hybride-Pools wahrscheinlich nicht nötig aber bei iSCSI Tagets für VMs oder schreiblastige DBs könnte sich das ganze von der Performance vielleicht schon lohnen.

Bei den dicken Storage-Servern scheint ja der Trend zu Hybrid-Lösungen zu gehen. Aber sowas bewegt sich in ganz anderen Dimensionen.

---------- Beitrag hinzugefügt um 19:43 ---------- Vorheriger Beitrag war um 19:23 ----------

warum sollte der cache sync nicht beachtet werden?

Bei meiner Indilinx führt default writethrough zu extremen wearout im Vergleich zu writeback. Das kann nur heißen, daß die syncs beachtet werden. Soweit ich weiß wird bei intel ssd der ram nicht für userdaten verwendet, ginge also auch.

Wenns so wahnsinnig sicher sein soll müßte es eh noch ein raid1 sein.

Der Sync wird nicht beachtet damit man schön hohe IOPS in die datasheets der Laufwerke eintragen kann und sich, wie du schreibst, der wearout in Grenzen hält.
Bei den Intel muss man den Cache ausschalten, wenn man bei einem Stromausfall keine Daten verlieren will: OpenSolaris Forums : ZFS cache flush ignored by certain ...

Wenn der wearout sich ohne Cache so stark erhöht, kann man an den Fingern abzählen, wann das Laufwerk kaputt geht.
 
interessant, wenn man den Intel writecache deaktiviert bricht die Schreibleistung auf 1/3 ein. Bei 4k random write wäre die Intel dann auf Indilinx Niveau, aber noch etwas besser.

Bei Indilinx ändert sich der random write 4k nicht wenn man den cache abschaltet. Abschalten geht anscheinend nicht, grad getestet mit iozone, ext4.

Mein XP läuft auf kvm mit ssd partition als platte. Mit writeback virtio (bei kvm eingestellt, xp merkts nicht) krieg ich 38MB/s bei 4k randomwrite (crystal beta), wie intel...
bei default writethrough ca. das gleiche wie in den 324533 crystalbenches im Indilinxthread, bißchen schlechter.

Die Indlinxe machen den sync, im Gegensatz zur Intel, ist doch klar. Die wearout Daten sagen das auch. Auf meiner ssd ist Linux auf btrfs als Host und XP auf kvm. Mit default kvm writethrough 6-15 zyklen Verschleiß pro Tag, mit kvm writeback 2-3 zyklen. Genauso viel wie wenn das XP garnicht läuft. Btrfs läuft mit defaults, kein writeback.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh