[Sammelthread] ZFS Stammtisch

Es ist auch hier der "gleiche" Fall, nur eine andere Konstellation in den Beispielen.
Attaching and Detaching Devices in a Storage Pool
In addition to the zpool add command, you can use the zpool attach command to add a new device to an existing mirrored or non-mirrored device.
Diese Art des vdev im Pool zu ändern (hier von basic auf mirror) geht bei ZFS nur in dieser Konstellation...ein RaidZ zum RaidZ2 machen geht zB nicht.

Mit drei Platten würde ich z.B. gerne meinen Pool als RAID-01 Verbund konfigurieren. Wenn ich das richtig verstehe ist doch genau dieser Fall auch im von Dir verlinkten Artikel unter "Example 4–5 Converting a Two-Way Mirrored Storage Pool to a Three-way Mirrored Storage Pool" aufgeführt, oder?

Nein, das Beispiel ist und bleibt ein Mirror, also Raid 1, nur halt mit drei Disks.
ZFS Raid Level sind etwas "anders" in Bezug auf die Standard-Terminologie, hier: ZFS RAID levels » ZFS Build

Du kannst also zum Pool aber wieder eine Disk als Raid 0 hinzufügen (zfs add ....) und dieses vdev dann wieder mit der nächsten Disk zum mirror machen (zfs attach ...)...dann hast Du 2x2 Platten (2xRaid1, striped = 1xRAID10) im Pool
Redundanz im Pool hast Du aber erst dann wieder, also bei 4 Disks....geht Disk 3 flöten (1x RAID1 und 1xRAID0 im Pool) bevor Du die 4te drin hast, ist der ganze Pool futsch.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
im Pool Redundanz im Pool hast Du aber erst dann wieder, also bei 4 Disks....geht Disk 3 flöten (1x RAID1 und 1xRAID0 im Pool) bevor Du die 4te drin hast, ist der ganze Pool futsch.
Das mit der Redundanz verstehe ich. Warum geht aber der ganze Pool flöten wenn Platte drei abraucht? Dann wäre es in dieser Konstellation wohl geschickter zwei Pools zu erstellen, einer für Platte 1 und 2 (1x RAID1) und ein Pool für Platte 3. Wenn Platte drei abraucht sind auch nur die Daten von Platte drei weg und der andere Pool bleibt unangetastet.

Danke für den Link!
Ich muß wohl noch ein bißchen schlau machen...
 
Das mit der Redundanz verstehe ich. Warum geht aber der ganze Pool flöten wenn Platte drei abraucht?
...weil, sobald disk3 drin ist, wird im pool gestriped....nur das erste vdev da drin hat Redundanz...wenn disk3 abraucht, ist der pool kaputt...disk1 oder disk2 können verlorengehen und der pool funzt noch.

Dann wäre es in dieser Konstellation wohl geschickter zwei Pools zu erstellen, einer für Platte 1 und 2 (1x RAID1) und ein Pool für Platte 3. Wenn Platte drei abraucht sind auch nur die Daten von Platte drei weg und der andere Pool bleibt unangetastet.
yep...

Edit: oder Du machst es so wie hier beschrieben: http://www.hardwareluxx.de/community/f101/zfs-stammtisch-570052-118.html#post20132194 ...braucht nur 1 bis 2 Platten für Redundanz und ansonsten "add-as-you-go".
 
Zuletzt bearbeitet:
Hmmmh... SnapRAID ansich soll ja eigentlich stabil sein, oder?
Ich meine mit ein bißchen Code selbst übersetzen hab ich kein Problem. Nur hab ich mich bisher überhaupt nicht um Server-Software/Infrastruktur gekümmert, daher meine sehr einfache Fragen. Und natürlich schätze ich daher eine grafische Administrationsmöglichkeit, die dann - bei napp-it zumindest - nicht mehr gegeben ist (aber daran wird ja momentan gearbeitet). Im Linux-Bereich nutze ich nun seit über 10 Jahren Ubuntu/Debian. Eine andere Frage die mir noch einfällt: Es ist zwar momentan nicht abzusehen, aber falls ich die Lust an OpenIndiana+napp-it verlieren sollte und dann doch zu FreeNAS, NAS4free oder OMV wechseln möchte, kann ich meinen Pool ohne Probleme übernehmen? Oder gibt es Inkompatibilitäten zwischen den verschiedenen ZFS Versionen?
 
...ZFS-Version 5 und Pool-Version 28 waren die letzten offenen Standards von Sun.
Solange Du da drin bleibst, sollte ein export/import funktionieren.
...OMV hat aber kein ZFS, oder?...auch kein ZFSonLinux..zumindest nicht im Standard.
 
Wenn du den Pool in OI / OmniOS von Version 28 auf die "5000" mit Feature Flags upgradest, bekommst du damit momentan noch Probleme in FreeBSD. ZFSonLinux bekam kürzlich ein passendes Update.
 
Aha... ich sehe gerade laut napp-it.org ist SnapRAID nun mit dabei...
Kurz ein Upgrade gemacht und es erscheint tatsächlich ein SnapRAID Eintrag in der napp-it GUI... Allerdings kann man da noch nicht viel mehr machen als die Konfigurationsdatei von SnapRAID editieren, aber immerhin - es bestärkt mich in meiner Entscheidung für napp-it. Gea hat ja erst vor wenigen Tagen gemeint, dass er mit diesem Feature anfängt. Einfach toll! :bigok:
@mauorrizze: Danke für die Info!
 
Hy,

ich habe schon wiedermal eine Frage bezüglich einer Fehlermeldung.

Feb 8 01:42:17 OmniOS sudo[738]: [ID 574227 auth.alert] Solaris_audit getaddrinfo(OmniOS) failed[node name or service name not known]: Error 0
Feb 8 01:42:17 OmniOS sudo[738]: [ID 574227 auth.alert] Solaris_audit mapping OmniOS to 192.168.2.18: Error 0
Feb 8 01:42:17 OmniOS sudo[741]: [ID 574227 auth.alert] Solaris_audit getaddrinfo(OmniOS) failed[node name or service name not known]: Error 0
Feb 8 01:42:17 OmniOS sudo[741]: [ID 574227 auth.alert] Solaris_audit mapping OmniOS to 192.168.2.18: Error 0

Mit dieser Fehlermeldung spammt mir napp-it die konsole voll sobald ich die webui starte.

Hat wer von euch eine Idee warum das so ist?

napp-it 0.96a
 
Sorry, nicht genau. Ist ein Problem mit dem Domain-/Rechner-Namen. Als die Fehlermeldungen bei mir kamen hing auch ab und zu die WebUI komplett, aber seit ich mein Netzwerk neu konfiguriert habe, OmniOS auf DHCP eingestellt und der eingetragene DNS-Server mein OmniOS mit Namen kennt passt es.

Wo kann ich die WebUI von napp-it davon überzeugen, dass ich auch per Domainnamen drauf komm? Bei falscher IP kommt ja eine Fehlermeldung, aber kann ich in die /var/web-gui/_log/napp-it.cfg auch einfach kommagetrennt einen Namen eintragen oder den Schutz deaktivieren?
 
Hy,

ich habe schon wiedermal eine Frage bezüglich einer Fehlermeldung.



Mit dieser Fehlermeldung spammt mir napp-it die konsole voll sobald ich die webui starte.

Hat wer von euch eine Idee warum das so ist?

napp-it 0.96a

Steht doch da: "getaddrinfo(OmniOS) failed[node name or service name not known]"

Dein DNS kennt den Rechner nicht.
 
Sorry, nicht genau. Ist ein Problem mit dem Domain-/Rechner-Namen. Als die Fehlermeldungen bei mir kamen hing auch ab und zu die WebUI komplett, aber seit ich mein Netzwerk neu konfiguriert habe, OmniOS auf DHCP eingestellt und der eingetragene DNS-Server mein OmniOS mit Namen kennt passt es.

Wo kann ich die WebUI von napp-it davon überzeugen, dass ich auch per Domainnamen drauf komm? Bei falscher IP kommt ja eine Fehlermeldung, aber kann ich in die /var/web-gui/_log/napp-it.cfg auch einfach kommagetrennt einen Namen eintragen oder den Schutz deaktivieren?

Wenn der DNS den Rechner kennt, geht es auch mit dem Namen. Eine Einschränkung geht aber nur mit der IP.

Die Hinweise auf der Konsole verschwinden übrigens, wenn man in der Datei /etc/hosts zu jeder ip den Namenvermerkt z.B.:
192.168.1.20 hostname (napp-it Menü System - Netzwerk - hosts)

Wenn man eine Console ohne Systemmeldungen haben möchte:
Per putty anmelden und "Duplicate session" aufrufen (Zuvon SSH aktivieren, Menu Dienste - SSH - allow root)
 
Steht doch da: "getaddrinfo(OmniOS) failed[node name or service name not known]"

Dein DNS kennt den Rechner nicht.

Das kann irgendwie nicht sein, denn wenn ich einen Ping auf OmniOS ausführe funktioniert die Namensauflöung einwandfrei.

---------- Post added at 10:26 ---------- Previous post was at 10:21 ----------

Die Hinweise auf der Konsole verschwinden übrigens, wenn man in der Datei /etc/hosts zu jeder ip den Namenvermerkt z.B.:
192.168.1.20 hostname (napp-it Menü System - Netzwerk - hosts)

Thx das wars
 
So ich bins schon wieder mit 2 Fragen.

1st. ich möchte NFS einschalten. wenn ich aber unter Services/NFS auf online gehe springt er nach dem submit sofort wieder auf disable
2nd. Ich werde schon wieder von Fehlermeldungen zugespammt, diesesmal nicht in der Puttykonsole sondern im ESXI Fenster.

napp-it Error.jpg

So wies aussieht hängen diese zwei Fehlermeldungen irgendwie zusammen.

gleich eine dritte Frage, legt OmniOS diese Fehlermeldungen irgendwo ab, das ich mir die Logs mittels WinSCP ansehen kann?

Wiedermal danke für eure Hilfe.
 
Zuletzt bearbeitet:
1.
wird ein Filesystem per NFS freigegeben, geht der Service automatisch auf online

2.
die lolale Root-Console wird für alle Fehler und Hinweise benutzt.
Die ist also nicht wirklich zum Arbeiten geignet.

dazu entweder:
als user anmelden + su

oder per putty anmelden
- entweder als user + su oder root console duplizieren

3.
Fehler werden in /var/adm/messages protokolliert
(napp-it System -log)
 
Moin

Ich hab ein paar kleine Fragen bezüglich ZFS-Fuse auf Ubuntu Server 12.04.
Anfangs erstmal Daten:
- 1x Performanter Windows PC mit Win7 x64 und Intel Onboard-NIC (82574L) (Details siehe Profilseite Über Mich)
- 1x Ubuntu Server 12.04 mit Webmin, Onboard-NIC Realtek 8111E, Pentium G630T, 8GB DDR3, OS auf USB-Stick, Daten auf WD4001FAEX (WD Black 4TB, Adv. Sectors)
- Netio ergibt bei fast allen Blockgrößen >100MB/s, das Netzwerk an sich ist also nicht das Problem.

Erst lief der Server nur testweise mit einer alten 160er Maxtor Platte und verschlüsseltem Volume per LVM, aber gerade vor ein paar Tagen hab ich mir die genannte WD 4TB Platte im Mindstar geschossen (und für einen Chatkollegen gleich eine mit). Nun meinte jener Chatkollege, dass doch ZFS ach so super wäre, mit Checksums für jeden Block und Datei, easy einzurichten, zu erweitern und weiß-der-Geier.

Also ZFS-Fuse installiert, pool kreiert (kein RaidZ oder so, ist bisher eh nur eine Platte), per SMB/CIFS geshared und getestet, geht. Aber langsam: Ungefähr 48-52MB/s schreiben auf den Share fand ich jetzt etwas sparsam.
Die beiden Rechner stehen nebeneinander, also konnte man schön abwechselnde Aktivität an der HDD-LED erkennen, erst liest der PC von der lokalen Platte, dann schreibt der Server, immer im Wechsel. Als ob der Server erst einen Puffer vollschreibt und während er ihn abarbeitet keine Daten übers Netzwerk annimmt.
Andersherum konnte ich mit rund 100MB/s vom Share lesen, hier leuchten/flackern auch beide LED durchgehend. Packe ich, wie aktuell gerade, per LVM ein EXT4-System auf die Platte, share das, kann ich sowohl schreibend als auch lesend rund 90-100MB/s erreichen.

Nun hab ich natürlich versucht, mich selbst etwas schlau zu machen, aber ich komme nicht wirklich weiter. Den Link zu "zfs mit 4K Platten – Der Microserver wird lebendig! Cosmics TuT-Blog" hab ich bereits besucht, allerdings bin ich mir unsicher, ob mir das wirklich hilft, da er in der Tat ein Solaris-OS einsetzt mit nativem ZFS. Aber hat denn das misalignment so starke Auswirkungen oder liegt es evtl. doch an etwas anderem? Ist das Problem überhaupt noch aktuell? Die ersten 4k-Platten tauchten ja bereits 2011 auf, 2013 sollte meiner Meinung nach bereits alles takko sein, oder nicht?

Dann fand ich noch Infos zu einem Feature namens ZIL: Dies solle man auf eine SSD auslagern um vernünftige Geschwindigkeiten mit ZFS zu erreichen. Allerdings ist die einzige SSD mit SATA-Anschluss in meinem PC und nur dafür möchte ich sie auch nicht hergeben, geschweige denn extra eine kaufen. Ich hätte noch eine externe SSD (welche ich ebenso ungern dafür verschwenden möchte) und einen USB-Stick mit USB 3.0 Anschluss, aber der Server hat kein USB 3.0, fällt also eher flach.

An anderer Stelle heißt es, ZFS benötige massig RAM... 8GB sollten doch wohl dicke ausreichen?! o_O Zumal ich bei den Schreib-/Lesetests keine großartige RAM-Belastung festellen konnte (Siehe Bildergallerie unten).

Also: Was tun? Auf der einen Seite ist ZFS für sehr professionelle Umgebungen gedacht, daher auch die Frage, ob es für einen selfmade Homeserver/NAS überhaupt Sinn macht. Auf der anderen Seite scheint ist es genau dafür prädestiniert zu sein, dank seiner Features. Ich habe vor 2 Jahren nicht umsonst 3 Seagate Platten in den Wind geschossen, weil sie schleichend die Daten zerstört haben, sowas soll mit ZFS unmöglich sein. Daher würde ich es schon ganz gerne einsetzen, weil die eine Platte auch erstmal eine Weile allein bleiben wird. Wichtige Daten werden nicht drauf gespeichert, aber es wäre trotzdem ärgerlich, wenn die Daten nach und nach korrupt würden.

Kleine Info am Rande: Ich bin Linux-Newbie und auch sonst Mausschieber, daher die Bitte: Wenn ich was machen soll, bitte komplette Befehlszeilen angeben.

Zu den Bildern: Oben ist die Linie der Netzwerkauslastung aus dem Windows 7 Taskmanager zu sehen, in der Mitte das Kopierfenster und unten ein Screenshot aus Webmin mit der zu dem Zeitpunkt aktuellen Auslastung.
Galerie: ZFS - abload.de
 
Hallo,
mal 2 Fragen bezüglich ZFS.
Habe ein OI-Server mit 4x3TB WD Greens (raidz) und einen Windows Server 4x3TB WD Reds im Raid5.
Habe unter Windows ein großes NTFS-Laufwerk und unter ZFS ein großen Pool mit einem Dataset (und 20G Reservation). Beide sind mit SMB-Freigegeben
1) Ich wunder mich warum ich bei ZFS nur insgesamt 7,77TB, bei Windows aber 8,18TB zur Verfügung habe. Woran liegt das?
2) Wird der doppelte Platz bei ZFS belegt wenn ich den zfs "Copies-Befehl" von 1 auf 2 erhöhe? Oder lässt ZFS nur solange 2 Kopien jeder Datei auf den Platten bis der Speicher voll ist und löscht dann die "doppelte" Kopie? (Wäre das dann nicht das gleiche wie ein Snapshot oder unter Windows die "Frühere Versionen"? ).

Danke
 
Zuletzt bearbeitet:
copies=2 belegt natürlich den doppelten Platz. Das ist nochmal eine zusätzliche Redundanz oberhalb von raid1, raidz etc.

Das hat auch nichts mit Snapshots zu tun und wird auch nicht automatisch gelöscht. Alle Kopien sind "live", d.h. änderst du die Datei, ändern sich alle Kopien.
 
Zuletzt bearbeitet:
Moin

@bogomil

Was ich auch erst durch googlen erfahren habe ist, dass anscheinend 5% des Speicherplatzes immer für den root reserviert werden, für den Fall dass die Platte mal bis aufs letzte byte voll geschrieben wird. Ich hatte mich auch erst gewundert, warum denn jetzt von meinen 3,64TB denn nur noch rund 3,46TB frei waren, obwohl die Platte leer sein sollte. Bei dir sind es ebenfalls exakt 5% (8,18:100*95=7,771), daher könnte es das gleiche "Problem" sein.
Unter EXT4 lässt sich das durch die Eingabe von 'sudo tune2fs -m 0 /dev/sdb1' * gänzlich deaktivieren, allerdings wird davon schwer abgeraten, daher habe ich 1% reservieren lassen (also -m 1), was ~37GB sind in meinem Fall und locker ausreichen sollte. Wie und ob das bei ZFS funktioniert, werden dir andere erklären müssen.

* /sdb1 entsprechend des betreffenden Volumes ändern.
 
Zuletzt bearbeitet:
@DHAmoKK:
Wie du schon selbst erwähnt hast: "natives" ZFS gibt es auf Solaris. Und mit ZFS on FUSE hast du leider die "falsche" der beiden Möglichkeiten gewählt um ZFS unter Linux zu nutzen ;)
Siehe zfs-fuse.net: "Current Release: 0.7.0 Released Mar 09, 2011" :shot:
Weiß nicht ob dir ntfs-3g was sagt, ist auch ein "FUSE-Treiber", im Grunde sehr praktisch weil man damit unter Linux ntfs-/Windowspartitionen problemlos beschreiben kann, aber doch ziemlich langsam. Ich nehme mal an, dass das der Hauptgrund für die niedrige Geschwindigkeit bei dir ist. Die ganzen Features von ZFS kommen auch nicht umsonst, aber in deinem Fall sollten die 100MByte/s schon möglich sein.

Der durchschnittliche ZFS-User hier im Forum hat gefühlsmäßig schon deutlich mehr als 8GB RAM, aber die nutzen und brauchen auch mehr Features von ZFS (viele Festplatten, raidz, mirrors, deduplication, compression, ...). Bevor du mit ZIL und Log-Cache anfängst solltest du größeren Bedarf haben (mehr Platten!).

Du solltest dir vielleicht mal eher ZFSonLinux anschauen, das wird weiterentwickelt und soll wohl ganz gut laufen.
 
mauorrizze hat Recht, ZFS on Linux ist das richtige und nicht ZFS on Fuse. Der User Grafiktreiber schon sehr häufig erklärt wie man ZFS on Linux konfiguriert und sogar wie man die Verschlüsselung mit LUKS/dmcrypt aktiviert. Einfach mal die SuFu anwerfen.
 
copies=2 belegt natürlich den doppelten Platz. Das ist nochmal eine zusätzliche Redundanz oberhalb von raid1, raidz etc.
Das hat auch nichts mit Snapshots zu tun und wird auch nicht automatisch gelöscht. Alle Kopien sind "live", d.h. änderst du die Datei, ändern sich alle Kopien.
Habe verstanden, Danke für die schnelle Antwort :)


Moin
@bogomil
Was ich auch erst durch googlen erfahren habe ist, dass anscheinend 5% des Speicherplatzes immer für den root reserviert werden, für den Fall dass die Platte mal bis aufs letzte byte voll geschrieben wird. Ich hatte mich auch erst gewundert, warum denn jetzt von meinen 3,64TB denn nur noch rund 3,46TB frei waren, obwohl die Platte leer sein sollte. Bei dir sind es ebenfalls exakt 5% (8,18:100*95=7,771), daher könnte es das gleiche "Problem" sein.
Unter EXT4 lässt sich das durch die Eingabe von 'sudo tune2fs -m 0 /dev/sdb1' * gänzlich deaktivieren, allerdings wird davon schwer abgeraten, daher habe ich 1% reservieren lassen (also -m 1), was ~37GB sind in meinem Fall und locker ausreichen sollte. Wie und ob das bei ZFS funktioniert, werden dir andere erklären müssen.
* /sdb1 entsprechend des betreffenden Volumes ändern.

Mhh, das mit den 5% ist ja echt blöd. Ist ja dann irgendwie "doppelt-gemoppelt" wenn 5% schon vom root abgezwackt werden und ich dann nochmal dem zpool als reservation 20G gegeben habe. Und Danke für den Vorschlag mit "sudo tune2fs -m 0 /dev/sdb1" aber ich bin mir da gerade überhaupt nicht sicher ob das eine gute idee ist bzw ob es da nicht vielleicht einen anderen Weg gibt die vollen "8,18TB" unter ZFS zubekommen. Ich warte mal ab was die profis sagen :)
 
Moin

@Mauorrizze
Danke für die Info. Dann werd ich mich mal um das richtige Paket kümmern.

Klar, wie ich ja auch schon sagte, ZFS ist für große Dinge gedacht, aber bietet eben auch Features, die auch im Kleinen funktionieren, bzw. sinnvoll wären. Bisher ist es nur 1 Platte, die Ursprüngliche Idee von meinem Homeserver (vor der Arbeitslosigkeit) waren aber 4x3tb WD Red im RAID5, was ich dazumal noch mit einem RAID-Controller der >200€ Marke realisieren wollte.
Mittlerweile hätte ich vermutlich auf ein RaidZ2 aufgebaut.

Aber um nochmal auf den Speicherverbrauch zurückzukommen ... Mal angenommen, ich hätte wie oben beschrieben 12TB (9TB effektiv) Speicher ... wie viel RAM bräucht ZFS dazu? Ich meine, 8GB sind ja nun wirklich nicht wenig für einen Fileserver ... braucht ZFS wirklich soooooo viel? Am Hauptrechner habe ich 16GB, aber die kriege ich selbst mit 200 Prozessen nicht voll.

@AG1M
OK, dann suche ich mal nach 'Grafiktreiber'. Eine Anleitung zu ZFS+LUKS habe ich auch schon mal gefunden, gibt es nicht eine Möglichkeit, das ZFS in einem LVM einzufädeln? Sprich ein verschlüsseltes Volume per LVM erstellen, in dem sich ein ZFS-System befindet?
Der Punkt ist: Derzeit fragt der Bootloader 1 Passwort ab für den LVM, der die bisherigen Volumes komplett verschlüsselt hat. Schalte ich nun etwas wie LUKS dazwischen, müsste ich 2x ein Passwort eintippen (einmal beim Booten für OS und 160er HDD (sdc und sda) und nach dem Bootvorgang einmal fürs Datenvolume (sdb)), respektive auch erst noch den mount-befehl dazu. Grundsätzlich ist das kein Problem, aber lästig.
 
Ich warte mal ab was die profis sagen :)
Auf die Profis musst du noch weiter warten, ich weiß nur dass es unter ZFS eine noch schlechtere Idee ist als sonst, den Pool vollaufen zu lassen. Aber stimmt, eine Reservierung sollte reichen, ist nur die Frage wieviel. Werden bei napp-it nicht defaultmäßig 10% reserviert? Meine auch gelesen zu haben, dass es ab 90% Füllstand bergab geht.


@DHAmoKK
ZFS krallt sich allen RAM in erster Linie für den Cache. Da gilt halt je mehr, desto besser, aber nicht unbedingt notwendig. Z.B. deduplication ist eine andere Geschichte, da braucht man wirklich den RAM damit das zügig läuft (groooße Tabellen, die sich um mehrfach abgelegte Dateien kümmern). Aber sonst... imo reichen die 8GB für haushaltsübliche Raid-Setups locker. Hab meiner VM bisher auch "nur" 10GB gegeben ;)
P.S.: für ZFS sind Raid5-taugliche Hardware-Controller unnötig, es "reicht" ein dummer Controller ("HBA") der die Festplatten durchreicht, sowas wie ein IBM BR10i (8x SAS/SATA, aber max. 2TB je Platte - da hab ich einen übrig, will jemand?) für um die 50€ und ein IBM M1015 (ähnlich, aber neuer und 3TB+ kompatibel) für um die 100€. Oder wenn genug Anschlüsse da sind auch onboard!


Frage: Wie sichert ihr das nötigste auf Einzelplatten? Dateiweise mit rsync wäre die herkömmliche Möglichkeit die ich kenne, oder nutzt ihr ZFS-Features dazu? Ich hab gerade ein Snapshot eines Volumes gemacht und sicher den mit send/receive auf einen Einzel-Disk-Pool (wenn fertig export + rausziehen). Laut iostat geht das mit knapp 150MB/s trotz (oder wegen) aktiver Komprimierung. Also würde ich sagen Vorteil dabei: Speed und die Snapshot-Funktion. Nachteil: Nur mit ZFS lesbar ;) Weitere Nachteile oder andere (hausgebrauchgeeignete) Methoden?
 
Frage: Wie sichert ihr das nötigste auf Einzelplatten? Dateiweise mit rsync wäre die herkömmliche Möglichkeit die ich kenne, oder nutzt ihr ZFS-Features dazu? Ich hab gerade ein Snapshot eines Volumes gemacht und sicher den mit send/receive auf einen Einzel-Disk-Pool (wenn fertig export + rausziehen). Laut iostat geht das mit knapp 150MB/s trotz (oder wegen) aktiver Komprimierung. Also würde ich sagen Vorteil dabei: Speed und die Snapshot-Funktion. Nachteil: Nur mit ZFS lesbar ;) Weitere Nachteile oder andere (hausgebrauchgeeignete) Methoden?
Google mal nach rsnapshot, rdiff oder rBackup, damit kannst du auch ohne ZFS und auf jedes Dateisystem Snapshot-Sicherungen mit rsync machen.

@AG1M
OK, dann suche ich mal nach 'Grafiktreiber'. Eine Anleitung zu ZFS+LUKS habe ich auch schon mal gefunden, gibt es nicht eine Möglichkeit, das ZFS in einem LVM einzufädeln? Sprich ein verschlüsseltes Volume per LVM erstellen, in dem sich ein ZFS-System befindet?
Der Punkt ist: Derzeit fragt der Bootloader 1 Passwort ab für den LVM, der die bisherigen Volumes komplett verschlüsselt hat. Schalte ich nun etwas wie LUKS dazwischen, müsste ich 2x ein Passwort eintippen (einmal beim Booten für OS und 160er HDD (sdc und sda) und nach dem Bootvorgang einmal fürs Datenvolume (sdb)), respektive auch erst noch den mount-befehl dazu. Grundsätzlich ist das kein Problem, aber lästig.
Wozu sollte man LVM und ZFS für diesen Anwendungszweck zusammen verwenden? Das bringt einem nur Nachteile und kaum Vorteile. ZFS benötigt direkten Zugriff auf die Festplatte um ideal zu funktionieren.
Dein "Bootloader" (der Bootloader tut sowas nicht, aber das ist ein anderes Thema) fragt auch kein Kennwort für "LVM" ab, sondern für einen Cryptcontainer, ob sich darauf NTFS direkt oder LVM befindet ist völlig egal. Verwende einfach ein Keyfile dass du auf der bereits verschlüsselten Rootpartition ablegst, dazu ist die /etc/crypttab da, dann musst du auch nur einmal ein Kennwort eingeben. Beschrieben hier: ZFS Stammtisch Post #2434.

Hier eine Anleitung für eine vollständige Remoteinstallation von Debian mit verschlüsselter Rootpartition: Medienserver Post #38. Ein paar Beiträge weiter schreibt auch UweObst von seinem eigenen Erfahrungen mit Ubuntu 12.04.
 
Zuletzt bearbeitet:
Moin

@Grafiktreiber
Danke für die Infos. Dann werd ich mich die Tage da mal durchackern. Die Idee war einfach, da ich sowieso den Cryptcontainer habe, das ZFS auch innerhalb dessen anzulegen. Aber wenn das problematisch wird, dann bringt es ja nix.

@mauorrizze
Danke für die Erklärung. Also: Den RAID5-Controller hatte ich anfangs im Sinn, als ich noch nichts von ZFS gehört hatte. Ich hätte auch ein Soft-RAID gemacht, allerdings wär ein Rebuild wohl ziemlich gruselig geworden ohne HW-Unterstützung.
 
Auf die Profis musst du noch weiter warten, ich weiß nur dass es unter ZFS eine noch schlechtere Idee ist als sonst, den Pool vollaufen zu lassen. Aber stimmt, eine Reservierung sollte reichen, ist nur die Frage wieviel. Werden bei napp-it nicht defaultmäßig 10% reserviert? Meine auch gelesen zu haben, dass es ab 90% Füllstand bergab geht.

Ja, nappit lässt standardmäßig 10% als Reservation. Das kann man manuell aber auch hinterher einstellen. Ich weiss das es keine gute Idee ist, den Pool volllaufen zu lassen, dazu dient ja die Reservation. Wenn ich 10% Reservation einstelle, habe ich ja dann im endeffekt 15%, da ich ja die 5% "root-reservation" gar nicht verändern kann.
----
Mal eine andere Frage. Habe jetzt alles soweit eingerichtet (HP N40L mit OI + nappit) und wollte gerade anfangen Daten rüber zukopieren, da fällt mir auf das mit robocopy nur mit ca. 30-45MB/s kopiert. Finde ich etwas komisch da ich über das ganz normale Kopieren mit dem Windows-Explorer (rechte Maustaste kopieren und dann rechte Maustaste einfügen) über 100MB/s habe. Von Windows zu Windows über SMB ist Robocopy eigentlich schneller als über den Explorer, warum ist das zu einer SMB-ZFS-Freigabe so schlecht?
(Als Robocopy-Schalter habe ich ( /B /COPY: DAT /MIR ...). Die Owner und Security-Eigenschaften lasse ich nicht mitkopieren, da ich es von windows zu windows auch nie gebraucht habe.
Was benutzt ihr für Backup-Prgramme zum ZFS-Server? Ich wollte eigentlich bei robocopy bleiben aber die Performance ist echt schlecht.
 
Zuletzt bearbeitet:
Die Grundreservierung von ZFS beträgt meines Wissens ca 1,5% und dient dazu, einen Datenverlust bei einem volllaufenden Pool zu vermeiden. vgl The Big 3 - Performance, Capacity, and Reliability | Nex7.com

Die generelle Regel lautet aber, nach Möglichkeit unter 70 % zu bleiben (wg nachlassender Performance, gilt für alle Dateisysteme).
Die 10% Pool Reservierung in napp-it ist dazu da, zu verhindern, dass ein Dateisystem zu 100% vollläuft und damit allen anderen Dateisystemen jeglichen Platz nimmt, ohne dass man dann noch Reaktionsmöglichkeiten hat. Das kann man also im Notfall ausschalten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh