[Sammelthread] ZFS Stammtisch

Willst Du von HiDrive Daten auf Dein lokales zfs sichern oder umgekehrt?
Mir wäre rsync in beide Richtungen am sympathischsten solange es Dir nichts ausmacht, evtl. vorhandene ACLs neu zu vergeben.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Vom lokalen ZFS in HiDrive ZFS.
Es gibt wohl kaum eine APP mit der man diese Dateien auch unter iOS nutzen könnte oder ? xD

Quasi als ZFS Cloud in nicht ZFS umgebungen ^^

Wobei es hier der VPN nach Hause auch tut.
 
Zuletzt bearbeitet:
Das war mir gar nicht bekannt, dass HiDrive ZFS anbietet (kenne den Dienst nur vom flüchtigen googeln). Dann hättest Du doch bestimmt auch die Möglichkeit über zfs send/receive? Erneut flüchtiges googeln ergab, dass sich die Verbindung zu HiDrive wohl auch über openvpn o.ä. verschlüsseln ließe.
 
Ne ^^ War jetz mein Eigenname für ZFS mittels der lofi Dateien auf dem Hidrive, da mir da nichts sinniges auf den Punkt bringendes eingefallen ist. - wollte jetzt nicht verwirren.
 
Zuletzt bearbeitet:
Ein ZFS Pool kann nur auf lokalen Blockdevices angelegt werden (Platten, Dateien als Blockdevice, iSCSI/FC), nicht auf einem http/https/cifs/nfs share. Es geht also nur mit Kopieren der Dateien eines lofiadm Pools oder aber wenn man einen Clouddienst nutzt, der iSCSI anbietet. Darauf könnte man eine Dateisystem mit den verschlüsselten Lofi Dateien anlegen (oder mit Solaris direkt für einen verschlüsselten ZFS Pool nutzen)
 
Moin nochmal,
ich hab das komische Problem, dass meine Platten im Pool zwar laut Smartwerten alle ok sind, und auch der Pool unversehrt ist - ich aber nur sehr niedrige Übertragungsraten bekomme. Das Laden von Verzeichnissen dauert ewig, der Datentransfer via SMB startet normal mit GBit-Geschwindigkeit, um dann nach wenigen hundert MB auf Werte im KB-Bereich abzustürzen. DIe Platten im Raid rattern fröhlich vor sich hin. Wie finde ich da heraus, was da faul ist?
Edit: das resilvern aller vier Platten ist mit durchschnittlich 350mb/s durch gelaufen, auch ein scrub läuft in dem Tempo. Der Pool scheint also intern wie erwartet zu laufen. Komisch.
 
Zuletzt bearbeitet:
Hallo Zusammen,

ich bräuchte mal ein paar infos wie sich im Solaris ein ZFS Pool verhält wenn er erweitert wird, bzw. wie die Daten bei Erweiterung verteilt sind / bleiben.

Es geht mir aktuell um meinen VM Pool der aktuell aus einer Crucial MX500 2TB besteht.
Wenn ich eine weitere identische MX500 2TB hinzuhänge, und aus der bestehenden / der neuen einen mirror mache ob die bestehenden Daten auf die neue Platte dupliziert werden? Oder muss dies auf manuellen wege erfolgen.

Wie würde man es am besten realisieren wenn man die Daten die akutell auf einer SSD sind zu einem
SSD Mirror <-stripe-> 2SSD Mirror zusammen bauen möchte? Also so das zum schluss alles auf alle 4 Platten verteilt ist?



Wie verhält es sich wenn man einen Bestehenden Pool hat der folgende konfig hat:

2HDD Mirror <-stripe-> 2HDD Mirror

und man hier zwei weitere Platten gleicher größe hinzufügt. So wie ich es verstanden habe werden die bereits bestehenden Daten doch nicht neu verteilt oder?

2HDD Mirror <-stripe-> 2HDD Mirror <-stripe-> 2HDD Mirror

Gibt es in Solaris (nappit) eine Option intern eine möglichkeit die bestehenden Daten auf alle Platten neuzuverteilen?
Oder geht es nur mit aus dem Share raus zu kopieren und neu rein zu schreiben?

Kann man irgendwie herausfinden auf welcher Platte sich bestimmte Dateien effektiv befinden?

Grüße
Elektromat
 
Zuletzt bearbeitet:
Wenn man aus einer Platte einen Mirror macht, so spiegelt der Rebuild/Resilver Vorgang alle Daten auf die neue Platten. Fügt man diesem Mirror aber ein weiteres vdev hinzu (egal ob Mirror oder anderes vdev) so bleiben die Daten wo sie aktuell sind.

Bei jeder Datenänderung werden bei ZFS aber die Datenblöcke komplett neu geschrieben (CopyOnWrite) und landen dann bevorzugt auf dem vdev das mehr Platz bietet. Mit der Zeit erfolgt also wieder automatisch eine ausgewogene Verteilung. Beschleunigen kann man das indem man manuell Dateisysteme umkopiert.
 
Habe heute mein Storage etwas "umgebaut", nur komischerweise ist Durchsatz / IOps schlechter als gedacht. Vll kann das jemand von euch mal einordnen, oder hat ne idee.
Neu ist eigentlich nur die Evo 850, die HDD's habe ich nur mal testweise rangehängt.

Host: Proxmox
Storage VM: Freenas (12Gb Ram + Sata Durchgreicht), Evo 850 (250Gb) bzw. 2xSeagate Constallation2 (500gb) je mit 2gb Slog (optane 32G)
Test VM: Win 7 (SCSI)

Dachte gerade die SSD sollte mehr read IOps liefern bzw. dass hier nicht mehr als ~ 150mb/s random Read geht wundert mich. Auch das quasi kein abstand zwischen den hdds und der ssd ist. Die async write Werte sind finde ich auch etwas niedrig, aber da ich an sync writes gewöht bin ist das soweit OK.

zfs_constallation.PNGzfs_constallation_async.PNGzfs_evo850.PNGzfs_evo850_async.PNG
 
Zuletzt bearbeitet:
Warum eigentlich eine freenas-storage VM für proxmox? Solche Späße brauchen doch nur die ESX-Dudes. Nutz doch einfach ZoL, mit ZFS volumes als raw Storage. Weniger Overhead, weniger Stromverbrauch, (deutlich) bessere Latenzen und höherer Durchsatz.
 
Ich habe meinen AIO schon lange, knapp 1 1/2 Jahre, nicht mehr angefasst - er läuft und läuft ohne jegliche Probleme.

Jetzt geht aber meinem 3-way-4TB-Mirror der Speicherplatz aus. napp-it weist mich da täglich darauf hin, dass der Kapazität unter 15% gesunken ist. Auf dem pool liegen rund 520GB VMs, 2,2TB kleine Dateien vom DMS, der Rest verteilt sich auf Backups und User-Dateien.

Meine Überlegung ist jetzt die VMs komplett auf einen separaten Pool auszulagern, indem ich einen SSD-Mirror noch hinzufüge. Dann sollte es weitere 5 Jahre locker reichen.
Beim Querlesen hier im Thread lese ich aber immer wieder, dass die Performance der SSDs im Laufe der Zeit zusammenbricht. Es wird dann immer empfohlen Enterprise-SSDs zu nehmen.
Ist das noch so oder kann ich normale Consumer-SSDs nehmen?

Wenn ich bei Samsung schaue, bieten sich die PM883 (960GB/180€) oder SM883 (960GB/300€) an.
Sind die beiden SSDs für einen ESXi-VM-pool uneingeschränkt geeignet? Bleiben die Schreib/Leseraten bei beiden SSDs hoch oder brechen die bei Diesen auch ein?
Reicht die PM oder muss es die um einiges teurere SM sein - und warum?
 
Warum eigentlich eine freenas-storage VM für proxmox? Solche Späße brauchen doch nur die ESX-Dudes. Nutz doch einfach ZoL, mit ZFS volumes als raw Storage. Weniger Overhead, weniger Stromverbrauch, (deutlich) bessere Latenzen und höherer Durchsatz.

Proxmox und ZFS ist wie OmniOS oder Free-BSD auf Konsole only.
Mag ja ok sein um ab und an einfache zfs und zpool Befehle abzusetzen.

ZFS Storage Management über Snaps, Replikationen, Clones, Rollback, Raid und Fehlermanagement, Quotas, Reservations, zvol ist was anderes. Auch nach 10 Jahren intensivste Beschäftigung mit ZFS mag ich mir das ohne Unterstützung einer Management-Oberfläche gar nicht vorstellen. Dazu kommt Share Management für iSCSI, NFS und SMB. Selbst bei Solaris wo das in das OS und ZFS integriert ist und praktisch nach Einschalten einfach tut, ist es dennoch nicht so einfach das alles auf der Konsole zu managen und im Fehlerfall wieder zum Laufen zu bringen. Bei Linux ist das noch mal ein ganz anderes Adventure.

Wenn man nur einen Virtualisierungsserver braucht und ZFS als reines Dateisystem ohne die 100000 Extras nutzt, mag das gehen. Aber Sun hat ZFS als globalen Lösungsansatz für fast alle Storageprobleme entwickelt - ist halt mehr als ein einfaches Dateisystem.

- - - Updated - - -

Reicht die PM oder muss es die um einiges teurere SM sein - und warum?

Prinzipiell halten die Enterprise SSDs ihre Performance.
Die SM ist und bleibt halt viel schneller, vor allem was iops und Latenz angeht. Wenn man VMs draufpackt und dann sync aktiviert, kann das schon einen sehr deutlichen Unterschied ausmachen.
 
Proxmox und ZFS ist wie OmniOS oder Free-BSD auf Konsole only.
Mag ja ok sein um ab und an einfache zfs und zpool Befehle abzusetzen.

ZFS Storage Management über Snaps, Replikationen, Clones, Rollback, Raid und Fehlermanagement, Quotas, Reservations, zvol ist was anderes. Auch nach 10 Jahren intensivste Beschäftigung mit ZFS mag ich mir das ohne Unterstützung einer Management-Oberfläche gar nicht vorstellen. Dazu kommt Share Management für iSCSI, NFS und SMB. Selbst bei Solaris wo das in das OS und ZFS integriert ist und praktisch nach Einschalten einfach tut, ist es dennoch nicht so einfach das alles auf der Konsole zu managen und im Fehlerfall wieder zum Laufen zu bringen. Bei Linux ist das noch mal ein ganz anderes Adventure.

Wenn man nur einen Virtualisierungsserver braucht und ZFS als reines Dateisystem ohne die 100000 Extras nutzt, mag das gehen. Aber Sun hat ZFS als globalen Lösungsansatz für fast alle Storageprobleme entwickelt - ist halt mehr als ein einfaches Dateisystem.

Hat gea eigentlich schön zusammengefasst, hinzu kommt früher war das ZoL dem "FreeBSD ZFS" doch etwas unterlegen. Auch für die Freigaben und hier Rechtemanagemt finde ich eine gute WebUI einfach sehr angenehm. Diese habe ich bei PVE nicht, und die Freenas VM ist auch noch für die Netzwerkfreigaben im Lan zuständig und nicht nur der VM datastore. Ich weis auch das Freenas im Vergleich zu Xigmanas oder NappIT RAM hungrig ist, aber ich mag einfach die Freenas WebUI (va die neue) sehr.

Allerdings beantwortet das meine "Frage" noch garnicht. Wieso die SSD bei mir so "schlechte" Random Reads bringt, oder liegt das eher an der VM als am ZFS.
 
Allerdings beantwortet das meine "Frage" noch garnicht. Wieso die SSD bei mir so "schlechte" Random Reads bringt, oder liegt das eher an der VM als am ZFS.

Ich denke, dies betrifft vier Faktoren

1. Jedes Setup hat eigene Besonderheiten.

2. Random Read sollte ZFS eigentlich beim zweiten Lesen aus dem RAM (Arc) bedienen. Der Arc arbeitet aber nicht filebasiert, sondern ZFS Blockbasiert auf einer read last/ read most Optimierung. Hilft also vor allem bei Metadaten und Random/Multiuser read bei kleinen Datenblöcken (Mailserver wäre ein ideales Szenario). Benchmarks generieren meist Daten die "Random" sind, sich also nicht per Cache beschleunigen lassen.

3. Bei meinen Tests (mit OmniOS und Solaris) habe ich festgestellt, dass Treiber, Client oder Kabelprobleme Ergebnisse extrem verfälschen können. Ein Windows Client mit Standard Treiber oder mit neuestem (Intel) Treiber mit optimierten Settings war bei mir bis zu 6x schneller bei 10G.

4. Nicht zuviel vom den Samsung Desktop MVMe erwarten
150 MB/s bei random read und 4k ist nicht so schlecht (wenn Arc nicht hilft)
 
Okay,.. viel schlauer bin ich nicht, aber etwas.

Ist ja nichtmal ne NVMe, sondern schöde nicht mehr ganz neue SATA SSD. Nur schaffte die halt im Windows PC ~500mb/s random read und 4k.
Irgendwie wird der Arc ja trotzdem, bei dem Benchmark helfen, da die beiden HDD's ja auf ähnliche Werte kommen. Auch wenn das "Server" SATA-HDD's sind sollte die nicht so schnell sein.
Möglicherweise schaue ich nochmal in die Treiber oder mir die Linux Benchmarks nochmal an ob das da auch so ist.
 
Das wage ich zu bezweifeln
500 MB/s sequentiell, ja. Aber 500 MB/s random 4k nein.

Was zeigt denn ein Atto unter Windows bei 4k?


Bei meinen Benchmarks kam selbst eine Optane 900 (anerkannterweise ziemlich das schnellste) gerade mal auf 260MB/s - wobei der Unterschied zwischen verschiedenen SSD bei 4k nicht so groß ist: keine ist da überragend schnell

vgl https://napp-it.org/doc/downloads/optane_slog_pool_performane.pdf
Kapitel 2.13 randomread im Filebench.
 
Zuletzt bearbeitet:
Okay, da habe ich mich vll auch falsch ausgedrückt: 4k, iodepth=32 thread=1 bzw. iodepth=8 thread=8 kommen die auf ca. 500mb/s.
Bei 4k IO=1 t=1 ist irgende 50mb/s drin, vom VM-Host schaffe ich das auch fast.

Habe aber mein Problem auch näher eingekreist: Die Freenas VM ist im CPU Limit. Ich dachte das kommt später bzw. das 2 Kerne (Xeon 1220 v3) reichen. Aber vll kann man da noch was optimieren.
 
Zuletzt bearbeitet:
Wo ihr gerade beim Thema seid... Kann man denn bestehende pools von nas4free/XigmaNAS nach FreeNAS portieren?
Und ihr seid alle von FreeNAS angetan, warum? Ich weiß nur, dass ich mich aus irgendeinem technischen Grund vor 5 Jahren gegen FreeNAS und für nas4free entschieden hab, aber das wahre ist es auch nicht...

Letztendlich betreibe ich nur ein für mich privates NAS und möchte ne möglichst übersichtliche und funktionale Oberfläche haben. Schick darf es natürlich sein.
 
Das Portieren sollte an sich ohne große Probleme möglich sein, da beides im großen und ganzen FreeBSD + WebUI ist.

Zum "angetan" so richtig glücklich macht mich Freenas auch nicht:
Wenn man ehrlich ist, ist der große Vorteil von Freenas die WebUI, die finde ich, vor allem die neue" in weiten teilen wesentlich besser übersichtlicher als die von XigmaNAS, oder andren alternativen. Gerade wenn man nicht 100 Einstellungen machen bzw. sehen will ist es besser, und man kommt manchemal schneller zum erfolg.

Sonst handelt man sich mit Freenas aber auch einige Nachteile ein:
- Deutlich angepassteres OS, was hier auf cli zu configurieren ist wirklich beschwerlich, auch fremd-/ FreeBSD-Pakete zu installieren.
- Zudem bzw. daher ist man auch mehr "gefangen" was die Einstellungen angeht.
- Größerer Resourcen Bedarf als nas4free/XigmaNAS.

Nachdem ich bei zwei oder drei versuchen bei nas4free/XigmaNAS einen Pool einzurichten bei der webui gescheitert bin, und das dann über die cli machen musste habe ich es damit sein gelassen. Fande das HDD / Pool Managemnt bei nas4free einfach grausam.
 
Prinzipiell halten die Enterprise SSDs ihre Performance.
Die SM ist und bleibt halt viel schneller, vor allem was iops und Latenz angeht. Wenn man VMs draufpackt und dann sync aktiviert, kann das schon einen sehr deutlichen Unterschied ausmachen.

@gea danke - ich hab mir jetzt zwei Samsung SM883 960GB SSDs gekauft.
 
Für ein Slog sind die Optane performancemäßig konkurrenzlos und dafür braucht man auch nur wenige Gigabyte.

Zudem ist Powerloss Protection Pflicht, sonst kann man das gleich lassen und Sync deaktivieren.
Im Crashfall sind dann halt bis zu mehreren Gigabyte Daten aus dem RAM Writecache verloren.

Nur bei der Optane DC 480x Serie garantiert Intel PLP (im Gegensatz zu den "Consumer" Modellen 800 und 900).
Für mich ist die DC 4801 daher tatsächlich ab sofort die erste Wahl für Slog.
 
Proxmox und ZFS ist wie OmniOS oder Free-BSD auf Konsole only.
Mag ja ok sein um ab und an einfache zfs und zpool Befehle abzusetzen.

ZFS Storage Management über Snaps, Replikationen, Clones, Rollback, Raid und Fehlermanagement, Quotas, Reservations, zvol ist was anderes. Auch nach 10 Jahren intensivste ...

Ich setz mein Zeug lieber in der Konsole, hab privat natürlich auch keine 100 Pools und wenn man ne GUI will, napp-it gibts ja auch noch ;)

Einmal
wget -O - www. napp-it.org/nappit | perl
fertig
 
Wenn beide Pool voll ausgelastet werden, hat jeder Pool logischerweise nur <50% der Performance. Da das ja sicher nicht permanent der Fall ist, geht das schon.
 
Der eine Pool ist ein Datenpool aus HDDs - Standard Dateien und ggf. offline Kopien der VMs aus dem SSD Pool.Also relativ selten tatsächlich schreiblast
Weshalb sich mir hier die Frage stellt ob ein slog überhaupt was "bringt" aber ich denke mir da, wenn schon eine Optane da ist, wäre es ja Verschwendung hier nicht auch ein slog einzurichten.Aber ein slog dürfte in jedem Fall besser sein als gar kein Slog - wenn man sync anhaben möchte.

Der andere Pool ist ein SSD Pool für die VMs.
 
Für einen einfachen Filer braucht man selten sync write und damit kein Slog als Absicherung für den RAM-Schreibcache. Kostet nur Performance und bringt wenig extra Sicherheit. Bei einem Crash ist zwar der Inhalt des Ram-Schreibcache verloren, aber auch mit Slog wäre die Datei die gerade geschrieben wird vermutlich auch defekt.

ZFS selber bleibt wegen CopyOnWrite in jedem Fall valide. Ein korruptes Dateisystem beim Crash wie es bei ext4 oder ntfs der Fall sein könnte, ist nicht zu erwarten. Mit vielen kleinen Dateien (z.B. Mailserver) sieht das sicher anders aus. Da würde ich sync als sehr sinnvoll sehen. Auch wenn es sich um VM Storage mit eigenen Dateisystemen handelt, würde ich immer mit sync arbeiten. Ein Crash kann sonst ein defektes VM Dateisystem als Folge haben.

Die besseren Optane (ab Modell 800) haben ansonst eine solch brachiale Performance dass man durchaus die Optane partitionieren kann um je ein Slog für 2 Pools zu haben. Auch wenn der SSD Pool keine Powerloss Protection hat, könnte man eine Optane dazuschalten. Bringt auch nochmal sync Performance. Bei Production Use würde ich aber hier immer zur 4800 Datacenter gehen. Auch wenn die kleinen Optane vermutlich ein sehr gutes Powerloss-Verhalten haben, Intel garantiert das da halt nicht. Die Optane Datacenter 4801X kommt da wie gerufen.


btw
Ich habe meine Manuals um einen Onepager für Einsteiger (7 Seiten, 7 Themen von Setup bis Problembehebung) ergänzt. https://napp-it.org/doc/downloads/onepagers.pdf

und andere Manuals upgedatet.
napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana and Solaris : Manual

Sind halt in Englisch (wie 80% der Solarish User). Sollte aber mit grundlegenden Englisch Kenntnissen lesbar sein.
 
Zuletzt bearbeitet:
Ähm, sollte ZFS dann im Crashfall nicht merken, wenn im Slog befindliche Blöcke nicht sauber weggeschrieben sind? Zumindest sollte dann bei weitem nicht alles aus dem Ram-Schreibcache verloren sein.

Btw, ich halte das durchaus für einen einfachen Filer wichtig, dass im Ram-Writecache befindliche Daten auf keinen Fall weg sind. Denn das sind bei ZFS Gigabytes im Zweifelsfall.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh