[Sammelthread] ZFS Stammtisch

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dataset Verschlüsselung unter zfs on Linux wird in 0.8 enthalten sein, welches noch immer RC Status hat.
 
Bei OmniOS passiert diesbezüglich leider nichts für mich Erkennbares. Verschlüsselung ist ein Feature, das ich gerne noch sehen würde.
 
Pool Export + Pool Import
Pool an anderem Rechner einfach anstecken und Pool Import
Pool Destroy und dann direkt wieder Pool Import

Macht genau das gleiche. Das klappt wenn die Platten da sind oder eben nicht wenn Platten fehlen.
Ein ZFS Pool kann aus allem gebildet werden was nach Platte riecht (Blockdevice), also Platten, Dateien, iSCSI, FC etc

Also auch USB Pool oder aber eSata/Sata (mit aktiviertem Hotplug) oder Sata Platten an SAS Controller + hotplug fähiger Backplane. Letzteres wäre die beste Lösung zusammen mit incrementellem zfs send (Replikation) und damit ZFS Snaps/ Versionierung.

Ok. Ich habe mich aus Kostengründen vorerst für die USB-Variante entschieden. HBA, Gehäuse, Backplane das sind ja locker 300€... Falls jemand eine Idee hat wie ich das günstiger umsetzen kann, bin ich für Vorschläge dankbar.

Eine ergänzende Frage noch zu Napp-It: Der Backupserver verwaltet alle Replikations-Jobs. Das sind derzeit drei "Richtungen":
1. Haupt-Server -> Backupserver
2. Backupserver -> USB-Backup1 (vollständig)
3. Backupserver -> USB-Backup2 (nur das nötigste)

Dahinter verbergen sich jeweils 3 Dateisysteme - also sind es insgesamt 9 Replikations-Jobs (=9 benötigte Basis-Snapshots auf dem Backupserver).

Kann es sein, dass die Replikations-Jobs sich gegenseitig die Snaps aufräumen?

Ich habe gerade die Replikation 2. (keep hours:0,days:0,months:0,years:0 - kein hold) abgeschlossen.
Dann die Replikation 1. (keep hours:24,days:32,months:12,years:2 - kein hold) gestartet. Nun fehlt der Basis-Snapshot auf dem Backupserver für die Replikation 2.

Offenbar war es eine falsche Annahme dass die Aufräumregel nur durch den eigenen Replikationslauf ausgeführt wird.

Wie stelle ich es nun am geschicktesten an, wenn ich auf den USB-Platten (bspw. bei den TV-Aufnahmen ) nur die für die Replikation notwendigen letzten Snaps behalten möchte? Auf dem Backupserver selbst ist mir das egal, aber man definiert die Anzahl der vorzuhaltenden Snaps ja je Pärchen...

Viele Grüße
Dirk
 
Hallo zusammen!

Kurze Frage:
Szenario: Homeserver auf Napp-It Basis. ZFS-Pool "Data1" bestehend aus einer Festplatte (2TB). Es kommen 4 neue Festplatten zuu je 4TB dazu. Diese sollen die 2TB Platte vollständig ersetzen. Die 2TB Platte werde ich ggf. noch eine Zeitlang als Backup Medium verwenden.

Nun die Frage: Welche Strategie würdet Ihr für die Datenmigration verwenden? Ich sehe zwei Möglichkeiten:
1.) Neuen ZFS-Pool mit den vier neuen Platten anlegen (Raid-Z2, Zielkonfiguration, falls nicht jemand gute Argumente für eine andere Konfiguration hat, bin da offen). Anschließed die Dateisysteme per 'zfs send' von Data1 auf den neuen Pool migieren
2.) Den bestehenden Pool Data1 sukzessive um die neuen Platten erweitern; zunächst den Pool um 3x 4TB Platte erweitern (Raid-Z2 angeben), nach Verteilung der Daten auf die drei neuen Platten die alte 2TB Platte raus nehmen und durch die vierte neue Platte ersetzen. Danach weitere Schritte notwendig?

Sind beide Alternativen so machbar, welche wäre zu bevorzugen? Oder gibt es noch eine dritte Variante?

Danke und Gruß

Kandamir

PS: Habe schon alle vier Platten in die Einschübe gesteckt (Hotwap fähiges Gehäuse mit SAS Backplane auf SATA-Controller, der ist per PassThrough an die Napp-IT VM durchgereicht), jedoch zeigt Napp-IT auch nach längerem Warten nur zwei der vier Platten an?! Schade, muss ich den Server wohl durchstarten...
 
Bei vier Platten würde ich ein RAID10 machen, kein RaidZ2.

"Erweitern" des pools wird grds. nicht so funktionieren wie Du es Dir vorstellst (vor allem kein 3-Platten-RAIDZ auf ein 4-Platten-RAIDZ erweitern!), daher Strategie 1. Notfalls kannst Du ja auch erstmal ein RAID0 aus zwei Platten machen, per ZFS send migrieren und dann dann das RAID0 zu einem RAID10 erweitern (denn mirror hinzufügen geht, RAIDZ erweitern geht nicht).
 
Zuletzt bearbeitet:
Ok. Ich habe mich aus Kostengründen vorerst für die USB-Variante entschieden. HBA, Gehäuse, Backplane das sind ja locker 300€... Falls jemand eine Idee hat wie ich das günstiger umsetzen kann, bin ich für Vorschläge dankbar.

...
Kann es sein, dass die Replikations-Jobs sich gegenseitig die Snaps aufräumen?

...
Wie stelle ich es nun am geschicktesten an, wenn ich auf den USB-Platten (bspw. bei den TV-Aufnahmen ) nur die für die Replikation notwendigen letzten Snaps behalten möchte? Auf dem Backupserver selbst ist mir das egal, aber man definiert die Anzahl der vorzuhaltenden Snaps ja je Pärchen...

1.
Für Zuhause gibt es z.B. das Silverstone CS 380. Kostet ca 130 Euro und hat 8 Hot-Plugfähige Wechseleinschübe - nicht nur für Sata sondern sogar dualpath SAS.

2.
Bei einer inkrementellen Replikation wird zu Beginn das Ziel-Dateisystem auf den letzten gemeinsamen Stand zurückgesetzt. Alle nachfolgenden Snaps gehen dabei verloren. Man kann also keine Replikation a > b > c laufen lassen sondern nur a > b und a > c.

3.
Wenn man keine zusätzlichen Snaps per keep oder hold definiert, werden immer nur die zwei letzten behalten. Eigentlich würde der letzte reichen, bei Übertragungsproblemen ist man aber oft froh den vorletzten Snap auch noch zu haben.

- - - Updated - - -

PS: Habe schon alle vier Platten in die Einschübe gesteckt (Hotwap fähiges Gehäuse mit SAS Backplane auf SATA-Controller, der ist per PassThrough an die Napp-IT VM durchgereicht), jedoch zeigt Napp-IT auch nach längerem Warten nur zwei der vier Platten an?! Schade, muss ich den Server wohl durchstarten...

Sata kann Hotplug aber

- nicht mit jedem Chipsatz
- teilweise nur wenn es im Bios aktiviert ist
- unter OmniOS nur wenn es aktiviert ist

siehe System > Tuning oder durch Anfügen in /etc/system von

* enable sata hotplug
set sata:sata_auto_online=1
 
Hallo,
ich suche einen sas und Nvme expander um SAS HD/SSD und Intel® Optane™ 480 GB, 2,5 Zoll, PCIe* 3.1 x4, 3D XPoint™ in ein Shelf mit einzubauen.
Hat da vieleicht einer eine Expander gesehen mit dem das möglich ist.

Viele Grüße
Jörg
 
1.
Für Zuhause gibt es z.B. das Silverstone CS 380. Kostet ca 130 Euro und hat 8 Hot-Plugfähige Wechseleinschübe - nicht nur für Sata sondern sogar dualpath SAS.

2.
Bei einer inkrementellen Replikation wird zu Beginn das Ziel-Dateisystem auf den letzten gemeinsamen Stand zurückgesetzt. Alle nachfolgenden Snaps gehen dabei verloren. Man kann also keine Replikation a > b > c laufen lassen sondern nur a > b und a > c.

3.
Wenn man keine zusätzlichen Snaps per keep oder hold definiert, werden immer nur die zwei letzten behalten. Eigentlich würde der letzte reichen, bei Übertragungsproblemen ist man aber oft froh den vorletzten Snap auch noch zu haben.

Danke!

zu 1. Verstehe ich gerade selbst nicht, warum ich bisher nur an ein externes Laufwerksgehäuse gedacht habe.
Dann noch einen LSI 2008 IT-Mode basierten Controller? Um wieviel erhöht sich dadurch der Stromverbrauch im Idle? Im Hauptserver wäre evtl. noch genug Platz für ein paar Wechselschächte.
Ich versuche bislang jegliche zusätzliche Hardware im Hauptserver zu vermeiden, weil dadurch der Stromverbrauch deutlich steigt (aktuell 19W idle). Eine testweise installierte USB3.1 Karte hat glatt +15 Watt ohne angeschlossene Geräte ausgemacht. Ich denke mal ein extra HBA liegt da sicherlich nicht drunter.

zu 2. Ah, Mist. Dann habe ich das ja schlau angestellt. Ok, dann muss das 2.+3. Backup halt als Quelle vom Haupt-Server aus laufen. Nun muss ich wieder die 12 + 4TB kopieren :wall: Wenn ich das noch ein paar mal machen muss, bin ich wirklich von USB weg (Punkt 1).

Dann kann ich aber das Backup trotzdem vom Backupserver ausführen lassen, oder? Also so:
a < b
a < c durchgeführt durch b
Dann muss ich als Quelle anstelle 127.0.0.1 den Hauptserver nehmen?!

zu 3. Das bezieht sich dann aber nur auf ein Nicht-Replikationsziel? Es würde mir ja notfalls reichen, wenn ich auf dem Backupserver den vorletzen Snap noch hätte.
Da war zumindest meine Grundannahme dass bei Keep/Hold=0 trotzdem mindestens ein Replikations-Snap stehen bleibt nicht so verkehrt. Nur leider nicht auf beiden Seiten...

edit
Ah, so ganz rund ist das für mich noch nicht. Folgende Hintergadanken hatte ich:
- Hauptserver (a) kaputt: Als erstes das externe Backup (c) auf den Stand des Backupservers (b) bringen. Kurze Laufzeit da nur die letzten Änderungen. Erst dann komplette Rücksicherung nach a.
- Backupserver kaputt: Nicht so schlimm. Der Hauptserver hat neuere Platten. c bleibt im Schrank und b wird nach Reparatur komplett neu von a befüllt.

Das klappt natürlich mit meinem Ansatz a < c via b nicht...
Dann wohl eher so:
a > b (normales Backup)
a > c via b (USB-Satz 1: Komplett-Backup)
a > d (USB-Satz 2: Notfall-Backup nur das Nötigste)
 
Zuletzt bearbeitet:
Bei vier Platten würde ich ein RAID10 machen, kein RaidZ2.

"Erweitern" des pools wird grds. nicht so funktionieren wie Du es Dir vorstellst (vor allem kein 3-Platten-RAIDZ auf ein 4-Platten-RAIDZ erweitern!), daher Strategie 1. Notfalls kannst Du ja auch erstmal ein RAID0 aus zwei Platten machen, per ZFS send migrieren und dann dann das RAID0 zu einem RAID10 erweitern (denn mirror hinzufügen geht, RAIDZ erweitern geht nicht).

Danke für den Tipp. Warum würdest Du eher ein Raid10 wählen, statt eines Raid-Z2? Ich hatte Raid-Z2 jedoch mit dem Hintergedanken gewählt, dass bei Raid-Z2 zwei Platten gleichzeitig ausfallen dürfen. Bei Raid10 darf nur eine Platte gleichzeitig ausfallen. Da bei Ausfall einer Platte auf den verbleibenden Platten eine erhöhte Last liegt (Raidset muss repariert werden), ist die Ausfallwahrscheinlichkeit höher. Wenn dann von übrig gebliebenen Platten noch eine zweite Platte ausfällt, war es das... (dann muss das Backup dran...).

Edit: Bzgl. Erweitern hattest Du mich vermiutlich missverstanden. Der ZFS-Pool ist aktuell kein Raid (einzelne Platte, 2TB). Ich würde auf einen Schlag den Pool um drei der vier neuen 4TB Plaztten erweitern als Raid-Z2, womit der Pool bestehen würde aus 1x 2TB und 3x 4TB. Nach Synchronisation würde ich die 2TB Platte entfernen (Raidset wäre degraded) und die vierte 4TB Platte stattdessen einbinden und erneut synchronisieren. Oder würden die Bestandsdaten auf der 2TB Platte gar nicht auf die drei 4TB Platten verteilt werden, wenn ich diese zum Raid-Z2 Verbund ergänze?

- - - Updated - - -



Sata kann Hotplug aber

- nicht mit jedem Chipsatz
- teilweise nur wenn es im Bios aktiviert ist
- unter OmniOS nur wenn es aktiviert ist

siehe System > Tuning oder durch Anfügen in /etc/system von

* enable sata hotplug
set sata:sata_auto_online=1

Danke, muss ich mir noch mal anschauen. Das Board (Supermicro X11SSH-LN4F) müsste das können, nur wie es im BIOS eingestellt ist, habe ich nicht im Kopf...
Edit: Hotplug war im BIOS für alle SATA-Ports eingeschaltet.

Die Tuning Parameter hatte ich noch gar nicht entdeckt, da ist unter /etc/system noch gar nix eingetragen... Sind die vorgeschlagenen Base Tuning Optionen quasi als Standardempfehlung zu sehen?

* enable sata hotplug
set sata:sata_auto_online=1
* set disk timeout 15s (default 60s=0x3c)
set sd:sd_io_time=0xF
* limit arc cache (optional ex 80% of RAM)
* set zfs:zfs_arc_max=0x133333333
* enable l2arc cache for sequential data
set zfs:l2arc_noprefetch=0
* increase NFS number of threads
set nfs:nfs3_max_threads=64
set nfs:nfs4_max_threads=64
* increase NFS read ahead count
set nfs:nfs3_nra=32
set nfs:nfs4_nra=32
* increase NFS maximum transfer size
set nfs3:max_transfer_size=1048576
set nfs4:max_transfer_size=1048576
* increase NFS logical block size
set nfs:nfs3_bsize=1048576
set nfs:nfs4_bsize=1048576

Deine Meinung bzgl. der Datenmigration wäre mir noch wichtig. ;)
 
Zuletzt bearbeitet:
Ich mach das mit den Backups mit 2 ZFS-(V)Maschinen und übertrage da einfach inkrementell einzeln von Snap zu Snap vom Main auf den Backup.
Ältere Snaps können dann mit der Zeit auf der Main-Maschine weg, auf der Backupmaschine sind diese Snaps dann ja auch noch drauf und die neueren Snaps entsprechend auf beiden.
 
@kandamir

Bei RAID 10 dürfen auch zwei HDDs ausfallen (bei 4 HDDs), es darf nur nicht das raid 1 paar sein was ausfällt.Was du meinst ist ein Raidz1 aka raid5
 
Zuletzt bearbeitet:
Okay, das wäre also eine 2/3-Chance, dass es gut geht. Oder anders herum: eine 1/3-Chance, dass es die eine Platte trifft, die es nicht treffen soll. Unter der Annahme, dass eine zweite Platte kaputt geht. Hmmm... Und was ist der Benefit von Raid10? Etwas mehr Netto-Plattenplatz und?
 
@kandamir

Bei RAID 10 dürfen auch zwei HDDs ausfallen (bei 4 HDDs), es darf nur nicht das raid 1 paar sein was ausfällt.Was du meinst ist ein Raidz1 aka raid5
Der Unterschied zum Raidz2 lautet "beliebige"!
Kandamir hatte im übrigen explizit Raidz2 gewünscht, eben um eine doppelte Ausfallsicherheit zu haben
Kapzitätstechnisch sind Raidz2 und StripedMirror identisch, perfomancetechnisch gewinnt der StripedMirror, je nach Anforderung (mehr IOPs bei etwas niedrigerem Durchsatz)

Bei vernünftig* ausgewählten HDDs dürfte auch bei 4TB HDDs ein Raidz1 ausreichen - Backup braucht man sowieso!

*Seagte Ironwolf (ehemals Seagate NAS) HDDs ´haben z.B eine URE von 1 in 10^15 statt 1 in 10^14 (z.B. WD-Red)
- - - Updated - - -

Edit: Bzgl. Erweitern hattest Du mich vermiutlich missverstanden. Der ZFS-Pool ist aktuell kein Raid (einzelne Platte, 2TB). Ich würde auf einen Schlag den Pool um drei der vier neuen 4TB Plaztten erweitern als Raid-Z2, womit der Pool bestehen würde aus 1x 2TB und 3x 4TB. Nach Synchronisation würde ich die 2TB Platte entfernen (Raidset wäre degraded) und die vierte 4TB Platte stattdessen einbinden und erneut synchronisieren. Oder würden die Bestandsdaten auf der 2TB Platte gar nicht auf die drei 4TB Platten verteilt werden, wenn ich diese zum Raid-Z2 Verbund ergänze?
Geht nicht!
Du kannst zwar jederzeit den Pool um weitere VDEVs erweitern/vergrößern, es darf aber kein VDEV komplett ausfallen, da dann der Pool hinüber ist - und das wäre der Fall, wenn du das Single VDEV rausnimmst. Der Ein Pool aus mehreren VDEVs (Single, Mirror, RaidzX) verhält sich im Prinzip wie ein Raid0.

Du meinst vermutlich eher sowas wie Raid Level Migration - erweitern eines Single Drive VDEVs auf Raidz2
Offizielle Antwort: geht (noch) nicht

Inoffizielle Antwort:
Es geht doch... (sowas wie eine "OP am offenen Herzen")
zfs single disk to raidz - Google-Suche

Aber, bevor ich mir den Aufwand antue, wäre eine einfache Datensicherung - die man ja sowieso haben sollte *scnr* - der stressfreiere Weg
 
Zuletzt bearbeitet:
Der Unterschied zum Raidz2 lautet "beliebige"!
Kandamir hatte im übrigen explizit Raidz2 gewünscht, eben um eine doppelte Ausfallsicherheit zu haben
Kapzitätstechnisch sind Raidz2 und StripedMirror identisch, perfomancetechnisch gewinnt der StripedMirror, je nach Anforderung (mehr IOPs bei etwas niedrigerem Durchsatz)

Bei vernünftig* ausgewählten HDDs dürfte auch bei 4TB HDDs ein Raidz1 ausreichen - Backup braucht man sowieso!

*Seagte Ironwolf (ehemals Seagate NAS) HDDs ´haben z.B eine URE von 1 in 10^15 statt 1 in 10^14 (z.B. WD-Red)

Mit denen kann ich sogar aufwarten. Die neuen Platten sind Seagate Ironwolf Pro HDDs (ST4000NE0025) und Backup ist sowieso klar. Mit den neuen Platten habe ich leider schon eine kleine Odyssey hinter mir - günstig erstanden bei notebooksbilliger.de und dann bei 2 der 4 Platten nur eine deutlich verkürzte Garantiezeit ( 2 bzw. 3 Jahre statt der beworbenen 5 Jahre). Bei den Ersatzplatten dann wieder das gleiche. :confused: Anachließend hab ich mich mit Seagate direkt herum geschlagen, bis die mir die Garantie auf die versprochenen 5 Jahre ausgeweitet haben... Die Odyssey geht weiter, denn bei der Erstinbetriebnahme der Platten musste ich dann feststellen, dass eine der Platten tatsächlich nen Schuss weg hat: ständige Leseversuche und Meldung, im Log, dass die Platte keinen LBA Modus unterstützen würde. Nach ein, zwei Minuten schaltet sich die Platte dann selbst ab. Mist... :confused:

Du meinst vermutlich eher sowas wie Raid Level Migration - erweitern eines Single Drive VDEVs auf Raidz2
Offizielle Antwort: geht (noch) nicht

Okay, dann würde das Stand jetzt also doch eher als Alternative ausfallen. Ich würde mich eher ans KISS Prinzip halten wollen, da weniger Fehleanfällig. Also doch neuen Raid-Z2 Pool anlegen und Daten per zfs send rüber schieben. Ärgerlich nur, dass ich jetzt noch nicht loslegen kann wegen der defekten Platte. Das dauert jetzt sicher nochmal zwei Wochen, bis Ersatz da ist (in der Hoffnung, dass die mir nicht wieder ne Austauschplatte mit verküzter Garantie schicken...).
 
Der Unterschied zum Raidz2 lautet "beliebige"!
Kandamir hatte im übrigen explizit Raidz2 gewünscht, eben um eine doppelte Ausfallsicherheit zu haben
Kapzitätstechnisch sind Raidz2 und StripedMirror identisch, perfomancetechnisch gewinnt der StripedMirror, je nach Anforderung (mehr IOPs bei etwas niedrigerem Durchsatz)


Ich habe Kandamir einfach mal unterstellt ( da er sich damit ja wohl am meisten befasst hat), er weiss das dass bei einem RADIz2 so ist - das zwei beliebiege Ausfallen dürfen.
Sein Text zeigte aber etwas fehlendes Wissen zu RAID 10 - und das habe ich ergänzt.

Aber Danke, ich habe eine Wette gewonnen, weil es klar war, dass du da wieder um die Ecke kommst mit deinem "Beliebig".

Btw. Dein "Beliebig" bringt Menschen, die nicht genau wissen wie ein RAID10 im vgl. zu einem RaidzX aufgebaut ist, nicht viel.
 
Zuletzt bearbeitet:
PS: Der resilver bei einem Mirror gillt auch als deutlich weniger riskant als der resilver bei einem RaidZ. Dh. Raid1 ist sicherer als RaidZ1.
 
Das klappt natürlich mit meinem Ansatz a < c via b nicht...
Dann wohl eher so:
a > b (normales Backup)
a > c via b (USB-Satz 1: Komplett-Backup)
a > d (USB-Satz 2: Notfall-Backup nur das Nötigste)

Ja.
Die erste Backupplatte ist tatsächlich Backup.
Die zweite ist im Schrank falls es brennt oder der Server geklaut wird.

Für alle normalen Restore Vorgänge sorgt man dafür dass der Pool unter normalen Umständen nicht ausfällt (ausreichendes Raid-Level) und durch viele readonly Snaps auf dem Primärpool. Backup bei ZFS ist immer Disaster-Backup.

- - - Updated - - -

Okay, dann würde das Stand jetzt also doch eher als Alternative ausfallen. Ich würde mich eher ans KISS Prinzip halten wollen, da weniger Fehleanfällig. Also doch neuen Raid-Z2 Pool anlegen und Daten per zfs send rüber schieben. Ärgerlich nur, dass ich jetzt noch nicht loslegen kann wegen der defekten Platte. Das dauert jetzt sicher nochmal zwei Wochen, bis Ersatz da ist (in der Hoffnung, dass die mir nicht wieder ne Austauschplatte mit verküzter Garantie schicken...).

Ich würde auch einen neuen Pool anlegen und dann die Daten replizieren.
Bei 8TB Nutzkapazität würde ich

- einen Mirror aus 2 x 8TB Platten anlegen
geringer Stromverbrauch

oder
- 4 x 4 TB Platten im Raid-10
Das ist die schnellste Variante, es dürfen zwei Platten (je eine per Raid-1) ausfallen und man kann einfach durch einen Mirror erweitern

- 4 x 4 TB Platten im Z2
Sequentiell so schnell wie Raid-10 aber viel weniger iops (soviel wie eine Platte), erweiterbar nur durch weitere vdevs.
Hauptvorteil: extrem sicher, zwei beliebige Platten dürfen ausfallen.

Hat also jede Variante ihre Vorteile
 
Kurze Frage zu ZFS: Ist es dort auch möglich Rechte auf Unterordner in Netzlaufwerken zu geben, ohne dass der darunterliegende Ordner vom User gesehen wird?
Mit NTFS scheint dies doch sehr aufwendig zu sein, daher meine Überlegung ob dies mit ZFS nicht wesentlich einfacher umzusetzen ginge?

Dies ist eine Funktion des "Shares", welche dann die ACL des Filesystems wiederspiegelt. Im Grunde ein +25 Jahre altes Konzept von Novel, was man bei Microsoft vor ~10 Jahren neu als ABE erfunden hat ;)

Access-Based Enumeration (ABE) Concepts (part 1 of 2) | Ask the Directory Services Team

Die Umsetzung ist eigentlich bei allen Filesystemen die selbe, es sind ja nur ACL Rechte. Wenn ich dich aber richtig verstehe, wäre "Kunden" ein Ordner unter "Daten\Edv" ?
 
Dies ist eine Funktion des "Shares", welche dann die ACL des Filesystems wiederspiegelt. Im Grunde ein +25 Jahre altes Konzept von Novel, was man bei Microsoft vor ~10 Jahren neu als ABE erfunden hat ;)
ABE gibt es seit dem Server 2003. Dort musste es per Commandline aktiviert werden. Später gab es ein kleines manuelles Update von MS, das das auch in die GUI gebracht hat. Seit Server 2008 ist es von Anfang an in der GUI.
 
Hallo Zusammen,

ich habe grade napp-it free in einem frischen Solaris 11.4 auf einem frischen ESXi free installiert, und erhalte folgende Fehlermeldung:

This key is only valid on server with hostname esxi
If you have changed your hostname, request a new key.
Your old key may be moved to Extension > Register > oldkeys

Muss hier tatsächlich die Solaris VM als Hostname "esxi" haben?
Momentan ist der Hostname der Solaris VM: "esxi.solaris"
"esxi" ist aktuell der Hostname vom ESXI Server selbst.

Grüße
Elektromat
 
Das ist eine Meldung die bei napp-it Pro kommt.
Ältere napp-it Pro waren an den Hostname gebunden, neuere an die Maschine-ID. Ein Wechsel der Hardware erfordert dann einen neuen Key. Den alten Key kann man online umtauschen unter napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana and Solaris : Extensions

Napp-it Free kommt mit einem 30 Tage Testkey für die erweiterten Pro Funktionen mit Support. Für Free kann man das ignorieren oder den Testkey in Extension > Register > Edit löschen.

Für Solaris 11.4 sollte man aber auf jeden Fall die aktuelle Free 18.01 nutzen.
 
Das ist eine Meldung die bei napp-it Pro kommt.
Ältere napp-it Pro waren an den Hostname gebunden, neuere an die Maschine-ID. Ein Wechsel der Hardware erfordert dann einen neuen Key. Den alten Key kann man online umtauschen unter napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana and Solaris : Extensions

Napp-it Free kommt mit einem 30 Tage Testkey für die erweiterten Pro Funktionen mit Support. Für Free kann man das ignorieren oder den Testkey in Extension > Register > Edit löschen.

Für Solaris 11.4 sollte man aber auf jeden Fall die aktuelle Free 18.01 nutzen.

Den Key hab ich entfernt, nun ist auch die Meldung weg. Es ist laut Anzeige die napp-it free esxi.solaris zfs appliance v 18.12r .
Ein Problem bekomm ich aktuell nicht behoben. Und zwar geht es um das Thema SMB Share.

Ich habe mehrere ZFS Filesystems / Shares angelegt.

ZFS (all properties) SMB NFS RSYNC FC,IB,iSCSI NBMAND REC AVAILABLE USED RES RFRES QUO RFQU SYNC COMPR DEDUP CRYPT FOLDER-ACL SHARE-ACL PERM RDONLY
hddraid10/Freigabe Freigabe off off zfs unset on 128K 6T 3.31T none none none none standard off off unlocked every@=mod full_set ACL off

Wenn ich nun versuche dieses SMB share auf einem Ubuntu Server 18.04 LTS zu mounten, mit (der Ordner ist /mnt/Freigabe, wurde zuvor angelegt) :

sudo mount -t cifs -o username=User,password=**PWD** //192.168.131.50/Freigabe /mnt/Freigabe

erhalte ich folgende Meldung:

mount: /mnt/Freigabe: can't read superblock on //192.168.131.50/Freigabe

Zufällig hierzu ne idee?

Grüße
Elektromat
 
Zuletzt bearbeitet:
Ich bin jetzt nicht so der Ubuntu Spezialist aber würde folgendes versuchen

- geht der Share (testen z.B. via Windows)?
- gibt es den Ordner /mnt/Freigabe - wenn nicht anlegen
- sudo mount -t cifs -o username=User,password=**PWD** //192.168.131.50/Freigabe /mnt/Freigabe/ (Slash an Ende)

(hab gerade gesehen, /mnt/Freigabe ist angelegt)
 
Zuletzt bearbeitet:
Ich bin jetzt nicht so der Ubuntu Spezialist aber würde folgendes versuchen

- geht der Share (testen z.B. via Windows)?
- gibt es den Ordner /mnt/Freigabe - wenn nicht anlegen
- sudo mount -t cifs -o username=User,password=**PWD** //192.168.131.50/Freigabe /mnt/Freigabe/ (Slash an Ende)

(hab gerade gesehen, /mnt/Freigabe ist angelegt)

Im Windows ist alles IO. \\192.168.131.50\Freigabe funktioniert ohne probleme. Windows frisst ja auch fast alles.
Einen reboot meines Solaris Filers kann ich zum aktuellen Zeitpunkt leider nicht machen, zum Test ob dies besserung bringt.


Die cifs-utils sind auf dem Ubuntu-Server installiert?

Ohhh das hab ich wohl im eifer vergessen.
Ich hab schnell
sudo apt-get install cifs-utils
nachgeholt.

Nun ist die Meldung Folgende:

mount error(5): Input/output error
Refer to the mount.cifs(8) manual page (e.g. man mount.cifs)

Irgenwas übersehe ich doch hier.
 
sudo mount -t cifs -o username=User,password=**PWD**,sec=ntlm //192.168.131.50/Freigabe /mnt/Freigabe/ ?
 
sudo mount -t cifs -o username=User,password=**PWD**,sec=ntlm //192.168.131.50/Freigabe /mnt/Freigabe/ ?

Nun bringt es mir:

mount error(115): Operation now in progress
Refer to the mount.cifs(8) manual page (e.g. man mount.cifs)
leider keine Besserung.

- - - Updated - - -

Die Meldung oben war mit nem Zahlendreher in der IP

Folgende Meldung kommt aktuell bei:

sudo mount -t cifs -o username=User,password=**PWD**,sec=ntlm //192.168.xxx.xxx/Freigabe /mnt/Freigabe/

mount error(22): Invalid argument
Refer to the mount.cifs(8) manual page (e.g. man mount.cifs)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh