Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Pool Export + Pool Import
Pool an anderem Rechner einfach anstecken und Pool Import
Pool Destroy und dann direkt wieder Pool Import
Macht genau das gleiche. Das klappt wenn die Platten da sind oder eben nicht wenn Platten fehlen.
Ein ZFS Pool kann aus allem gebildet werden was nach Platte riecht (Blockdevice), also Platten, Dateien, iSCSI, FC etc
Also auch USB Pool oder aber eSata/Sata (mit aktiviertem Hotplug) oder Sata Platten an SAS Controller + hotplug fähiger Backplane. Letzteres wäre die beste Lösung zusammen mit incrementellem zfs send (Replikation) und damit ZFS Snaps/ Versionierung.
Ok. Ich habe mich aus Kostengründen vorerst für die USB-Variante entschieden. HBA, Gehäuse, Backplane das sind ja locker 300€... Falls jemand eine Idee hat wie ich das günstiger umsetzen kann, bin ich für Vorschläge dankbar.
...
Kann es sein, dass die Replikations-Jobs sich gegenseitig die Snaps aufräumen?
...
Wie stelle ich es nun am geschicktesten an, wenn ich auf den USB-Platten (bspw. bei den TV-Aufnahmen ) nur die für die Replikation notwendigen letzten Snaps behalten möchte? Auf dem Backupserver selbst ist mir das egal, aber man definiert die Anzahl der vorzuhaltenden Snaps ja je Pärchen...
PS: Habe schon alle vier Platten in die Einschübe gesteckt (Hotwap fähiges Gehäuse mit SAS Backplane auf SATA-Controller, der ist per PassThrough an die Napp-IT VM durchgereicht), jedoch zeigt Napp-IT auch nach längerem Warten nur zwei der vier Platten an?! Schade, muss ich den Server wohl durchstarten...
1.
Für Zuhause gibt es z.B. das Silverstone CS 380. Kostet ca 130 Euro und hat 8 Hot-Plugfähige Wechseleinschübe - nicht nur für Sata sondern sogar dualpath SAS.
2.
Bei einer inkrementellen Replikation wird zu Beginn das Ziel-Dateisystem auf den letzten gemeinsamen Stand zurückgesetzt. Alle nachfolgenden Snaps gehen dabei verloren. Man kann also keine Replikation a > b > c laufen lassen sondern nur a > b und a > c.
3.
Wenn man keine zusätzlichen Snaps per keep oder hold definiert, werden immer nur die zwei letzten behalten. Eigentlich würde der letzte reichen, bei Übertragungsproblemen ist man aber oft froh den vorletzten Snap auch noch zu haben.
Bei vier Platten würde ich ein RAID10 machen, kein RaidZ2.
"Erweitern" des pools wird grds. nicht so funktionieren wie Du es Dir vorstellst (vor allem kein 3-Platten-RAIDZ auf ein 4-Platten-RAIDZ erweitern!), daher Strategie 1. Notfalls kannst Du ja auch erstmal ein RAID0 aus zwei Platten machen, per ZFS send migrieren und dann dann das RAID0 zu einem RAID10 erweitern (denn mirror hinzufügen geht, RAIDZ erweitern geht nicht).
- - - Updated - - -
Sata kann Hotplug aber
- nicht mit jedem Chipsatz
- teilweise nur wenn es im Bios aktiviert ist
- unter OmniOS nur wenn es aktiviert ist
siehe System > Tuning oder durch Anfügen in /etc/system von
* enable sata hotplug
set sata:sata_auto_online=1
* enable sata hotplug
set sata:sata_auto_online=1
* set disk timeout 15s (default 60s=0x3c)
set sd:sd_io_time=0xF
* limit arc cache (optional ex 80% of RAM)
* set zfs:zfs_arc_max=0x133333333
* enable l2arc cache for sequential data
set zfs:l2arc_noprefetch=0
* increase NFS number of threads
set nfs:nfs3_max_threads=64
set nfs:nfs4_max_threads=64
* increase NFS read ahead count
set nfs:nfs3_nra=32
set nfs:nfs4_nra=32
* increase NFS maximum transfer size
set nfs3:max_transfer_size=1048576
set nfs4:max_transfer_size=1048576
* increase NFS logical block size
set nfs:nfs3_bsize=1048576
set nfs:nfs4_bsize=1048576
Der Unterschied zum Raidz2 lautet "beliebige"!@kandamir
Bei RAID 10 dürfen auch zwei HDDs ausfallen (bei 4 HDDs), es darf nur nicht das raid 1 paar sein was ausfällt.Was du meinst ist ein Raidz1 aka raid5
Geht nicht!Edit: Bzgl. Erweitern hattest Du mich vermiutlich missverstanden. Der ZFS-Pool ist aktuell kein Raid (einzelne Platte, 2TB). Ich würde auf einen Schlag den Pool um drei der vier neuen 4TB Plaztten erweitern als Raid-Z2, womit der Pool bestehen würde aus 1x 2TB und 3x 4TB. Nach Synchronisation würde ich die 2TB Platte entfernen (Raidset wäre degraded) und die vierte 4TB Platte stattdessen einbinden und erneut synchronisieren. Oder würden die Bestandsdaten auf der 2TB Platte gar nicht auf die drei 4TB Platten verteilt werden, wenn ich diese zum Raid-Z2 Verbund ergänze?
Der Unterschied zum Raidz2 lautet "beliebige"!
Kandamir hatte im übrigen explizit Raidz2 gewünscht, eben um eine doppelte Ausfallsicherheit zu haben
Kapzitätstechnisch sind Raidz2 und StripedMirror identisch, perfomancetechnisch gewinnt der StripedMirror, je nach Anforderung (mehr IOPs bei etwas niedrigerem Durchsatz)
Bei vernünftig* ausgewählten HDDs dürfte auch bei 4TB HDDs ein Raidz1 ausreichen - Backup braucht man sowieso!
*Seagte Ironwolf (ehemals Seagate NAS) HDDs ´haben z.B eine URE von 1 in 10^15 statt 1 in 10^14 (z.B. WD-Red)
Du meinst vermutlich eher sowas wie Raid Level Migration - erweitern eines Single Drive VDEVs auf Raidz2
Offizielle Antwort: geht (noch) nicht
Der Unterschied zum Raidz2 lautet "beliebige"!
Kandamir hatte im übrigen explizit Raidz2 gewünscht, eben um eine doppelte Ausfallsicherheit zu haben
Kapzitätstechnisch sind Raidz2 und StripedMirror identisch, perfomancetechnisch gewinnt der StripedMirror, je nach Anforderung (mehr IOPs bei etwas niedrigerem Durchsatz)
Das klappt natürlich mit meinem Ansatz a < c via b nicht...
Dann wohl eher so:
a > b (normales Backup)
a > c via b (USB-Satz 1: Komplett-Backup)
a > d (USB-Satz 2: Notfall-Backup nur das Nötigste)
Okay, dann würde das Stand jetzt also doch eher als Alternative ausfallen. Ich würde mich eher ans KISS Prinzip halten wollen, da weniger Fehleanfällig. Also doch neuen Raid-Z2 Pool anlegen und Daten per zfs send rüber schieben. Ärgerlich nur, dass ich jetzt noch nicht loslegen kann wegen der defekten Platte. Das dauert jetzt sicher nochmal zwei Wochen, bis Ersatz da ist (in der Hoffnung, dass die mir nicht wieder ne Austauschplatte mit verküzter Garantie schicken...).
Kurze Frage zu ZFS: Ist es dort auch möglich Rechte auf Unterordner in Netzlaufwerken zu geben, ohne dass der darunterliegende Ordner vom User gesehen wird?
Mit NTFS scheint dies doch sehr aufwendig zu sein, daher meine Überlegung ob dies mit ZFS nicht wesentlich einfacher umzusetzen ginge?
ABE gibt es seit dem Server 2003. Dort musste es per Commandline aktiviert werden. Später gab es ein kleines manuelles Update von MS, das das auch in die GUI gebracht hat. Seit Server 2008 ist es von Anfang an in der GUI.Dies ist eine Funktion des "Shares", welche dann die ACL des Filesystems wiederspiegelt. Im Grunde ein +25 Jahre altes Konzept von Novel, was man bei Microsoft vor ~10 Jahren neu als ABE erfunden hat
This key is only valid on server with hostname esxi
If you have changed your hostname, request a new key.
Your old key may be moved to Extension > Register > oldkeys
Das ist eine Meldung die bei napp-it Pro kommt.
Ältere napp-it Pro waren an den Hostname gebunden, neuere an die Maschine-ID. Ein Wechsel der Hardware erfordert dann einen neuen Key. Den alten Key kann man online umtauschen unter napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana and Solaris : Extensions
Napp-it Free kommt mit einem 30 Tage Testkey für die erweiterten Pro Funktionen mit Support. Für Free kann man das ignorieren oder den Testkey in Extension > Register > Edit löschen.
Für Solaris 11.4 sollte man aber auf jeden Fall die aktuelle Free 18.01 nutzen.
ZFS (all properties) SMB NFS RSYNC FC,IB,iSCSI NBMAND REC AVAILABLE USED RES RFRES QUO RFQU SYNC COMPR DEDUP CRYPT FOLDER-ACL SHARE-ACL PERM RDONLY
hddraid10/Freigabe Freigabe off off zfs unset on 128K 6T 3.31T none none none none standard off off unlocked every@=mod full_set ACL off
sudo mount -t cifs -o username=User,password=**PWD** //192.168.131.50/Freigabe /mnt/Freigabe
mount: /mnt/Freigabe: can't read superblock on //192.168.131.50/Freigabe
Ich bin jetzt nicht so der Ubuntu Spezialist aber würde folgendes versuchen
- geht der Share (testen z.B. via Windows)?
- gibt es den Ordner /mnt/Freigabe - wenn nicht anlegen
- sudo mount -t cifs -o username=User,password=**PWD** //192.168.131.50/Freigabe /mnt/Freigabe/ (Slash an Ende)
(hab gerade gesehen, /mnt/Freigabe ist angelegt)
Die cifs-utils sind auf dem Ubuntu-Server installiert?
nachgeholt.sudo apt-get install cifs-utils
mount error(5): Input/output error
Refer to the mount.cifs(8) manual page (e.g. man mount.cifs)
sudo mount -t cifs -o username=User,password=**PWD**,sec=ntlm //192.168.131.50/Freigabe /mnt/Freigabe/ ?
leider keine Besserung.mount error(115): Operation now in progress
Refer to the mount.cifs(8) manual page (e.g. man mount.cifs)
sudo mount -t cifs -o username=User,password=**PWD**,sec=ntlm //192.168.xxx.xxx/Freigabe /mnt/Freigabe/