[Sammelthread] ZFS Stammtisch

Ja, ZFS ohne ECC ist quatsch.
Die ganze Sache ist nur, dass ich gerne vorhandene Hardware benutzen wollen würde:
Phenom2 945 4x3Ghz
16GB DDR3 ->Tausch gegen ECC
Asrock 880G Extreme 3
HD4870 ->Raus
Corsair 650W ->habe noch ein Cougar 300W hier
Perc 6/i ->Raidfunktion abschalten oder Tausch gegen einfacheres
8xSamsung F2 1,5TB
60GB SSD -> USB Stick
Quatschkram wie DVDLw/Lüftersteuerung/Wakü ... ->Raus
Alles in einem Rebel 12 wo maximal ~20 Festplatten rein gehen.

Der Verbrauch wird sicherlich ~100W Idle liegen, deshalb bin ich auf WOL aus. Zur Not eine "USB-Relais-Steckdosenleiste" die dann von meinem 24/7 System angesteuert wird ...
Für das System bekommt man kaum noch Geld, daher wollte ich es "verbrauchen".
Ins Grübeln bin ich überhaupt erst gekommen weil eine Festplatte ausgefallen ist und der Controller keine 4K Festplatten mag -> unflexibel. Desweiteren ist die Grafikkarte inzwischen zu lahm für FullHD Spiele. Leider gibt es kein ZFS für WIN7 daher müssten Daten und "Spielereien" voneinander getrennt werden.

Ich werde auf einer VM mal gucken wie ich zurechtkomme.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was nichts kostet ist nichts wert. Das gilt nicht nur für Smartphones, Autos oder Kleidung.
Ich glaube nicht, dass jemand für Software bezahlt, die er nicht wirklich braucht.
Für Zuhause und Hobby braucht man die extensions definitiv nicht.

Zielgruppe ist da eher near realtime SAN-Replikation für ESXi oder AD-directory filer mit vielen Benutzern oder storage mit vielen SAS2 Platten - Nutzer die das haben und Bedienungs-Komfort möchten-

Gea, da hast du IMHO nur bedingt Recht.

Mir ist deine Arbeit schon etwas Wert, aus diesem Grunde bin ich auch bereit hierfür Geld auszugeben. Unter Umständen werde ich momentan nicht alle Extentions brauchen, aber so kann ich wenigstens im Rahmen meiner Möglichkeiten deine tolle Arbeit honorieren. - Und um darum gehts mir.

vorab, ich bin froh über die Arbeit die Du für uns alle leistet. Ich wäre wahrscheinlich ohne Dein Projekt nie oder erst später zu ZFS gewechselt.
@millenniumpilot, da kann ich dir nur zustimmen. On gea's napp-it wäre ich auch noch nicht so weit und der Einstieg in ZFS wurde so um einiges vereinfacht.

Es hat keiner verlangt, die extensions für umsonst abzugeben. Aber ein Preis von 600€ schreckt wohl alle ab. So bekommst Du also wahrscheinlich gar keine Mark von den "normalen" Homeusern. Bei 100...200€ für ein "AllInOnePaket" würden sicherlich so einige User schwach werden. Das Firmenuser für den Komfort mit den Addons blechen müssen ist nur gerecht, die verdienen schießlich ihr Geld damit.
Schlussendlich sind wir es aber auch, die dieses Projekt in unsere Jobs einbringen und bewerben. Spielen die Arbeitgeber mit, gibt es früher oder später Geld im Zuge einer Bestellung bei Dir. Und von uns als "Testuser" kam wahrscheinlich auch schon das Eine oder Andere zurück zu Dir. Aber das ist natürlich Deine Entscheidung.
Wenn ich meine ganze Foto und Videosammlung einem terrabytegroßen Pool anvertraue, hätte ich schon gerne solch eine Monitor-extension, auch für "Zuhause und Hobby ". Wenn die ganzen Krabbelbilder und -Filme unserer Kinder weg sind, wäre dies ein unwiderbringlicher Verlust für mich. mkv's kann man erneut saugen, noch ein Kind bekomme ich nicht ;-)

Das ist das was ich mit Multiplikatoren ausdrückt habe.
Stimmt ich möchte mir gar nicht vorstellen, wie laut das Geschrei meiner Frau und meiner Kinder wäre, wenn der pool futsch wäre. mkv saugt man doch heute nicht mehr - da gibt es bessere und sicherere Möglichkeiten. :wink:


nunja, Du weist ja jetzt, woran das lag ;-)
Dein neues Angebot ist ein guter Weg.
Ich habe dazu aber noch drei Fragen:
- ich kann alle extensions auf jeden der zwei Rechner installieren? Oder müssen diese auf 2 Rechner aufgeteilt werden?
- sind zukünftige extensions in der Lizenz enthalten oder nur das, was es aktuell gerade gibt? Wenn dem so ist, ist bis Ende Mai noch etwas geplant?
- bei der Verdongelung über den Rechnernamen bleibt es?
Mein zweiter Rechner wäre nämlich bis Ende Mail nicht fertig (war bisher auch nicht geplant), daher könnte ich keinerlei Angaben dazu machen. Da bleibt dann nur ein fiktiver Name wie "Server2" o.ä. für die Lizensierung.

1. ja, 2 complete keys für 2 Rechner
2. Es ist alles enthalten was jetzt unter complete fällt. Es ist nichts geplant, was nicht darunter fällt.
Updates sind enthalten.
2. Ja, named keys die den Rechnernamen enthalten

Also ich bin dabei.

Trotzdem habe ich noch Nachfragen:
- kann ich dir den Betrag überweisen und du schickst mir die Keys erst dann zu, wenn ich die 2. Maschine installiert habe.
- kann ich mit den Keys trotzdem eine Neuinstallation machen, vorausgesetzt die Neuinstallation erhält den gleichen Rechnername. Ich möchte nämlich all-in-one komplett neu aufsetzen, wenn die OI finale Version hoffentlich jetzt dann rauskommt.

aktuelles Angebot bis 31.5.2012: 2 complete named keys für noncomercial home use, unlimited: 300 Euro einmalig
Kaufen Sie dazu 1 year complete und schicken uns eine Mail mit den Rechnernamen und der Angabe "noncomercial home-use"
Den 2. Satz versteh ich nicht, was du damit meinst.
 
Trotzdem habe ich noch Nachfragen:
- kann ich dir den Betrag überweisen und du schickst mir die Keys erst dann zu, wenn ich die 2. Maschine installiert habe.
- kann ich mit den Keys trotzdem eine Neuinstallation machen, vorausgesetzt die Neuinstallation erhält den gleichen Rechnername. Ich möchte nämlich all-in-one komplett neu aufsetzen, wenn die OI finale Version hoffentlich jetzt dann rauskommt.


Den 2. Satz versteh ich nicht, was du damit meinst.

- Überweisen ist kein Problem, da spare ich mir Paypal Gebühren (email pder pm wegen der Anschrift)
- zweiter Key jetzt oder später; kein Problem
- Mit dem Key kann man beliebig oft installieren sofern der Rechnername bleibt


- der 2. Satz bezieht sich auf den Kauf mit PayPal
in den Optionen gibt es nur complete 1 Jahr. Bei Kauf über PayPal diese Option nutzen
und dann eine Mail schreiben wegen der Homenutzung.

---------- Post added at 20:15 ---------- Previous post was at 20:11 ----------

Unter OpenIndiana kann man meines Wissens nur lofiadm zum Verschlüsseln verwenden, allerdings eignet sich das nicht so wirklich für größere Pools mit mehreren Festplatten. Bitte korrigiert mich hier wenn ich falsch liege. ;)

Das hat mich jetzt auch interessiert und ich habe auf meinem Testrechner einen kurzen Test gemacht:


########
Hardware
########

Solaris 11 Express (all-In-One, 3 GB RAM, Xeon Low Power L3426 1,8GhZ)

Pool

backup ONLINE 0 0 0
raidz2-0 ONLINE 0 0 0
c5t2d0 ONLINE 0 0 0 1000.20 GB WDC WD10EACS-65D
c5t3d0 ONLINE 0 0 0 1000.20 GB WDC WD10EACS-65D
c5t4d0 ONLINE 0 0 0 1000.20 GB WDC WD10EACS-00D
c5t5d0 ONLINE 0 0 0 1000.20 GB WDC WD10EACS-00D
c5t6d0 ONLINE 0 0 0 1000.20 GB ST31000340NS


###############
1. unencrypted
###############

NAS performance tester 1.4 NAS performance tester (C# and VB.Net)
Running warmup...
Running a 400MB file write on drive S: 3 times...
Iteration 1: 71,60 MB/sec
Iteration 2: 70,20 MB/sec
Iteration 3: 68,65 MB/sec
------------------------------
Average (W): 70,15 MB/sec
------------------------------
Running a 400MB file read on drive S: 3 times...
Iteration 1: 113,92 MB/sec
Iteration 2: 82,35 MB/sec
Iteration 3: 91,34 MB/sec
------------------------------
Average (R): 95,87 MB/sec
------------------------------


############################
2. ZFS encrypted aes 256 ccm
############################

NAS performance tester 1.4 NAS performance tester (C# and VB.Net)
Running warmup...
Running a 400MB file write on drive T: 3 times...
Iteration 1: 56,42 MB/sec
Iteration 2: 64,17 MB/sec
Iteration 3: 63,50 MB/sec
------------------------------
Average (W): 61,36 MB/sec
------------------------------
Running a 400MB file read on drive T: 3 times...
Iteration 1: 91,74 MB/sec
Iteration 2: 91,30 MB/sec
Iteration 3: 90,29 MB/sec
------------------------------
Average (R): 91,11 MB/sec
------------------------------


#######################################################################
3. Lofi-encrypted Pool V.28 aes 256 cbc (single 10 GB device auf 1. angelegt)
#######################################################################

NAS performance tester 1.4 NAS performance tester (C# and VB.Net)
Running warmup...
Running a 400MB file write on drive Z: 3 times...
Iteration 1: 52,20 MB/sec
Iteration 2: 58,00 MB/sec
Iteration 3: 35,74 MB/sec
------------------------------
Average (W): 48,64 MB/sec
------------------------------
Running a 400MB file read on drive Z: 3 times...
Iteration 1: 64,29 MB/sec
Iteration 2: 87,66 MB/sec
Iteration 3: 88,06 MB/sec
------------------------------
Average (R): 80,00 MB/sec
------------------------------



Lofi Pools sind damit in meinem Test ca 20 % langsamer als die in Solaris 11 und ZFS eingebaute Verschlüsselung
(wenig RAM, keine Hardwareuntesrtützung für Verschlüsselung)
 
Danke für den Test. Interessant wäre da nicht nur die reine Performance sondern auch die CPU-Last. Und dann noch wie es sich bei einer CPU mit AES-NI verhält, ist die Encryption der lofi pools multi-threaded und nutzt AES-NI?
Ich denke ich werde es wohl mal selbst testen sobald mein Supermicro X9SRL-F und Intel Xeon E5-1620 eintreffen.
 
Zuletzt bearbeitet:
Habe ein anderes Problem, und zwar mounte ich verschiedene NFS-Laufwerke von meinem Fileserver unter Ubuntu (derzeit 11.04). Jedes Mal, wenn ich eine Textdatei auf einem der NFS-Laufwerke bearbeiten will bekomme ich die Fehlermeldung

Screenshot-rsync (setup_encr) - gedit.png

Ich muss die Datei erst auf meinen Laptop kopieren, da editieren und dann zurückkopieren damit es funktioniert. Das nervt mich mittlerweile ziemlich. Das Problem existiert seit mehreren Jahren (angefangen mit frühen Versionen snv120+ von OpenSolaris, dann OpenIndiana, Solaris Express und jetzt Solaris 151a)

Hat irgendwer von Euch das Phänomen auch mal bemerkt?
 
Zuletzt bearbeitet:
Das sieht mir nicht nach einem Solaris oder ZFS Problem aus. Da steht Fehler beim Umbenennen einer temporären Datei. Mal mit nano auf der Shell probiert oder irgendwas anderem als gedit? Rechte komisch gesetzt? Eine Datei ist eine Datei unter *NIX, ob da Text drin ist oder nicht, das Problem müsste dann mit jedem "Dateityp" (den es ja so gar nicht gibt) auftreten, nicht nur mit "Textdateien".

Der Verbrauch wird sicherlich ~100W Idle liegen, deshalb bin ich auf WOL aus. Zur Not eine "USB-Relais-Steckdosenleiste" die dann von meinem 24/7 System angesteuert wird ....

Solche Steckdosen haben genau so wie Master/Slave-Steckerleisten der Regel einen Eigenverbrauch von 5-15 Watt, damit spart man also nicht unbedingt Strom. Bei vielen Leuten ist der kombinierte Standby-Verbrauch aller Geräte niedriger als der Eigenverbrauch der Steckdosen, mein Vater war erstaunt und verärgert als ich das mal nachgemessen habe wo er doch vorher so seiner happy mit seiner tollen Stromspar/Komfort-Anschaffung mit der Master/Slave-Steckdose gewesen ist. ;)
Nun ist die Master/Slave-Steckerleiste wieder verkauft und die alte, stinknormale Überspannungsschutz-Steckerleiste von APC wieder da. :fresse:
 
Zuletzt bearbeitet:
Das sieht mir nicht nach einem Solaris oder ZFS Problem aus. Da steht Fehler beim Umbenennen einer temporären Datei. Mal mit nano auf der Shell probiert oder irgendwas anderem als gedit? Rechte komisch gesetzt?

Ist nur bei Gedit der Fall. Nano geht ohne Probleme. Habe selber grade nochmal gesucht - ist wohl ein bekannter Bug. Was ebenfalls dafür spricht, ist die Tatsache, dass die Datei gelöscht wird sobald ich versuche zu speichern. D.h. "Close without saving" hilft nichts mehr weil die Datei schon weg ist.

https://wiki.hpcc.msu.edu/display/Issues/Unable+to+save+file+in+Gedit

Werde mir wohl einen neuen Editor suchen.
 
Hallo,

Ich bin ein ZFS Neuling(!) und habe nun Solaris und napp-it installiert(Auf dem ESXi Server aus der Signatur mit durchgereichtem onboard Controller).
Dann habe ich Testweise mit einer Platte einen Pool erstellt und auf diesem einen ZFS Folder Daten angelegt, welcher verschlüsselt und per smb freigegeben wurde. Dann habe ich noch zwei ZFS Folder angelegt /Daten/TM und /Daten/NFS. Das erste wurde eine Timemaschine Freigabe und das zweite sollte NFS Share für den ESXi werden. Alles eingerichtet und funktioniert.

Dann habe ich neugestartet und nichts geht mehr. Ich habe per Webinterface den Ordner /Daten/ entsperrt. Jetzt möchte er aber noch die Unterordner entsperrt haben, was aber ja unsinnig ist, da doch nur der Überordner verschlüsselt ist oder? Und wenn ich diese dann doch entsperre, stehen alle Rechte auf Root Only und wenn ich etwas modifizieren will, heißt es File not found. Was mache ich falsch?

Danke für eure Hilfe
 
Hallo,

Ich bin ein ZFS Neuling(!) und habe nun Solaris und napp-it installiert(Auf dem ESXi Server aus der Signatur mit durchgereichtem onboard Controller).
Dann habe ich Testweise mit einer Platte einen Pool erstellt und auf diesem einen ZFS Folder Daten angelegt, welcher verschlüsselt und per smb freigegeben wurde. Dann habe ich noch zwei ZFS Folder angelegt /Daten/TM und /Daten/NFS. Das erste wurde eine Timemaschine Freigabe und das zweite sollte NFS Share für den ESXi werden. Alles eingerichtet und funktioniert.

Dann habe ich neugestartet und nichts geht mehr. Ich habe per Webinterface den Ordner /Daten/ entsperrt. Jetzt möchte er aber noch die Unterordner entsperrt haben, was aber ja unsinnig ist, da doch nur der Überordner verschlüsselt ist oder? Und wenn ich diese dann doch entsperre, stehen alle Rechte auf Root Only und wenn ich etwas modifizieren will, heißt es File not found. Was mache ich falsch?

Danke für eure Hilfe

Das Hauptproblem is dass /daten kein Überordner ist, sondern dass es sich um drei unabhängige Dateisysteme handelt
/daten
/daten/TM
/daten/NFS

Die ZFS Eigenschaften sind für alle drei getrennt einstellbar. Es lediglich möglich Eiogenschaften zu vererben.
In diesem Fall ist die Lösung am Besten die, TM und NFS nicht unterhalb /daten anzulegen sondern auf /, also
/daten
/TM
/NFS

wobei ein verschlüsseltes NFS Laufwerk mit sync writes für ESXi sehr langsam sein wird.


Ich kann mich als root nicht anmelden, guest access geht

Die häufigsten Ursachen:

-Es wurde kein SMB Passwort für root angelegt:
Eine console starten und passwd root eingeben, PW neu eingeben

- Root ist gesperrt
anderen user auf OI anlegen und damit probieren (ACL muss user oder everyone@ erlauben)

- SMB Dienst nicht sauber gestartet
neu starten (Menü service SMB - restart)

- Im workgroup mode wurden user-idmappings angelegt (sind nur für Domänenbetrieb)
(console: idmap list)

- Windows net Problem
Windows neu starten
 
Ok dann habe ich das mit den Foldern falsch verstanden. Gibt es denn eine Möglichkeit unterverzeichnisse frei zugeben?

Danke für die Hilfe
 
Ok dann habe ich das mit den Foldern falsch verstanden. Gibt es denn eine Möglichkeit unterverzeichnisse frei zugeben?

Danke für die Hilfe

Bei Solaris und dem kernelbasierten CIFS Server (sowie NFS) ist SMB-sharing eine Eigenschaft eines Dateisystems.
Einfache Unterverzeichnisse lassen sich damit nicht sharen (eine der wenigen Einschränkungen)

Das geht nur, wenn man stattdessen z.B. Samba benutzt.
Das ist aber viel unkomfortabler, meist langsamaer und es fehlen wichtige Features.
 
Das Hauptproblem is dass /daten kein Überordner ist, sondern dass es sich um drei unabhängige Dateisysteme handelt
/daten
/daten/TM
/daten/NFS

Die ZFS Eigenschaften sind für alle drei getrennt einstellbar. Es lediglich möglich Eiogenschaften zu vererben.
In diesem Fall ist die Lösung am Besten die, TM und NFS nicht unterhalb /daten anzulegen sondern auf /, also
/daten
/TM
/NFS

wobei ein verschlüsseltes NFS Laufwerk mit sync writes für ESXi sehr langsam sein wird.




Die häufigsten Ursachen:

-Es wurde kein SMB Passwort für root angelegt:
Eine console starten und passwd root eingeben, PW neu eingeben

- Root ist gesperrt
anderen user auf OI anlegen und damit probieren (ACL muss user oder everyone@ erlauben)

- SMB Dienst nicht sauber gestartet
neu starten (Menü service SMB - restart)

- Im workgroup mode wurden user-idmappings angelegt (sind nur für Domänenbetrieb)
(console: idmap list)

- Windows net Problem
Windows neu starten


Bin genau so vorgegangen, leider ohne Erfolg. Auch als root kann ich mich nicht anmelden.

- Im workgroup mode wurden user-idmappings angelegt (sind nur für Domänenbetrieb)
(console: idmap list)

...was bedeutet das?

hier meine Ausgabe dazu:

Code:
root@NAS:~# idmap list
add -d  "wingroup:Power Users@BUILTIN"  unixgroup:staff

Bin mit meinem Latein am Ende.
@all - Kann jemand sich das Ganze über Teamviewer bei mir anschauen? Falls jemand Lust und Zeit hat, bitte mich per PN anschreiben. DAnke

p.s.: die Rechner hängen auch unte Arbeitsgruppe "workgroup" drin.
 

Anhänge

  • Unbenannt.PNG
    Unbenannt.PNG
    3,7 KB · Aufrufe: 93
Zuletzt bearbeitet:
Mit root gibt es gerne Probleme (Es ist unter Unix nicht vorgesehen, root als user zu benutzen)
Daher probehalber einen normalen user anlegen.

Das mapping dient dazu, einen Windows AD user oder eine Windows Gruppe rechtemäßig einem
Unix User oder Gruppe zuzuordnen. Damit könnte es auch Probleme geben.

In der (napp-it) Console das mapping löschen
idmap remove -a

mit idmap list sollte dann kein mapping mehr erscheinen.
jetzt zur Sicherheit den SMB Dienst neu starten (service - smb)
und eine Anmeldung versuchen.
 
root@NAS:~# idmap list
add -d "wingroup:Power Users@BUILTIN" unixgroup:staff
root@NAS:~# idmap remove -a
root@NAS:~# idmap list
root@NAS:~#

neuen benutzer angelegt und für diesen unter "ACL of folder /volume/test" Rechte freigegeben:

0 user:benutzer rwxpdDaARWcCos full_set rd(acl,att,xatt) wr(acl,att,xatt,own) add(fi,sdir) del(yes,child) x, s

Samba restart durchgeführt

Anmeldung mit "benutzer/pass" nicht möglich!!! Also langsam verzweifele ich. Gibt es den hier jemanden der mit Benutzerrechten KEINE Probleme hat???? Kann doch sowas nicht sein!
 
Zuletzt bearbeitet:
Hallo gea,

kannst du mir sagen, wo in deinem /cgi-bin/napp-it/admin.pl Script sich die Routine verbirgt, die prüft, ob Dateisysteme locked/unlocked sind? Kann man das mit 'zfs get' prüfen?

Ich brauche für mein rsync Script eine Abfrage, ob das zu sichernde Laufwerk unlocked (und gemountet) ist, ansonsten löscht er mir in der cloud alle Dateien.

Bisher habe ich nur 'zfs get mounted' (was theoretisch ausreichen sollte) aber will es lieber sauber haben :)
 
Samba restart durchgeführt

Samba? Meinst du nicht eher den SunSMB-Server SUNW-SMB? Samba ist ein eigenes Projekt welches auch unter anderem unter Linux und FreeBSD verwendet wird und hat NICHTS mit dem in den Kernel integrierten SMB-Server von Sun zu tun! Samba nutzt auch keine Benutzerdetails von Linux, Solaris oder FreeBSD sondern hat seine eigene Datenbank, siehe http://linux.die.net/man/8/smbpasswd . Man kann sich über Samba nicht mit dem Passwort einloggen was man via passwd gesetzt hat, man muss dafür smbpasswd nutzen!

Ich brauche für mein rsync Script eine Abfrage, ob das zu sichernde Laufwerk unlocked (und gemountet) ist, ansonsten löscht er mir in der cloud alle Dateien.

Schau dir einfach mal die Parameter von http://linux.die.net/man/1/rsync an, das kann man auch so konfigurieren dass da nichts gelöscht wird. ;)
Alternativ schau dir mal http://rsnapshot.org/ an, damit kann man Snapshots mit rsync machen. :)
 
Zuletzt bearbeitet:
Ich hab seit etwa 6 Monaten napp-it auf openindiana mit 4 2G WD20EARX (2TB) im Einsatz.

Mit der Zeit ist der Zugriff auf die Smb Freigaben extrem langsam geworden... hauptsächlich das Anzeigen der Ordnerinhalte. Die Übertragungsraten sind noch ok.
Machen viele Snapshots (über 100) den smb Zugriff langsamer? Wenn ja wie kann ich möglichst viele alte Snapshots auf einmal entfernen?
 
Schau dir einfach mal die Parameter von rsync(1) - Linux man page an, das kann man auch so konfigurieren dass da nichts gelöscht wird. ;)

Und wie soll ich unterscheiden zw. Dateien, die wirklich gelöscht wurden (und demnach auch remote gelöscht bzw. im Backup archiviert werden sollen) und Dateien, die nicht da sind, weil das Laufwerk nicht gemountet ist? :)
 
Zuletzt bearbeitet:
Das geht natürlich nicht. ;)

Du könntest um ganz sicher zu gehen zusätzlich zu noch so was verwenden:
Code:
if ([ mount | grep "on ${poolname} type" > /dev/null ] && [ zfs get mounted Abfrage ])
then
#bla
else
#bli
fi

Ungetestet. ;)
 
Hallo gea,

kannst du mir sagen, wo in deinem /cgi-bin/napp-it/admin.pl Script sich die Routine verbirgt, die prüft, ob Dateisysteme locked/unlocked sind? Kann man das mit 'zfs get' prüfen?

Ich brauche für mein rsync Script eine Abfrage, ob das zu sichernde Laufwerk unlocked (und gemountet) ist, ansonsten löscht er mir in der cloud alle Dateien.

Bisher habe ich nur 'zfs get mounted' (was theoretisch ausreichen sollte) aber will es lieber sauber haben :)

Bei Solaris 11 ist es die ZFS property keystatus
Kann man mit zfs get abfragen

Bei Pools, die mit lofiadm verschlüsselt sind, ist es die Abfrage, ob die Datei /pool/unlock.ok existiert.


ps
admin.pl ist das Basisscript für das Web-UI
Die Abfragen sind im jeweiligen Menüscript bzw in der zfslib.pl Bibliothek

---------- Post added at 22:46 ---------- Previous post was at 22:31 ----------

Löschen alter snaps:

Es wird vor allem langsam, wenn der Pool > 80% voll ist oder dedup aktiv ist.
Zum Löschen napp-it Menü snaps - data snaps - delete: z.B. alle älter x Tage

---------- Post added at 22:48 ---------- Previous post was at 22:46 ----------

Anmeldung mit "benutzer/pass" nicht möglich!!! Also langsam verzweifele ich. Gibt es den hier jemanden der mit Benutzerrechten KEINE Probleme hat???? Kann doch sowas nicht sein!

Ist wirklich seltsam:

Welches OS release?
Upgedatet oder neu installiert?
napp-it?

Windows?
 
Zuletzt bearbeitet:
Bei Solaris 11 ist es die ZFS property keystatus
Kann man mit zfs get abfragen

Perfekt.

Bevor ich jetzt 2 h verschwende kann mir vllt. einer einen kleinen Tipp geben wie ich für spool/daten den "available" bzw. "none" Value programmiertechnisch gezielt rausziehe?

Code:
...
$(zfs get keystatus ${#POOL[@]}/${#ZFS_filesystem[(@)]})
...
liefert mir

Code:
NAME PROPERTY VALUE SOURCE spool/daten keystatus available -
 
Zuletzt bearbeitet:
Meine hddserial.sh, als Anwendungsbeispiel von awk und grep:
Code:
for disk in `smartctl --scan | awk '{print $1}'`;
do echo -en $disk '\t';
smartctl -i $disk | grep Device\ Model | awk '{print $3,$4,$5}' | tr "\n" " ";
echo -en '\t';
smartctl -i $disk | grep Serial | awk '{print $3}';
done

$3,$4 usw. sind die Spalten, mehr unter http://linux.die.net/man/1/awk, damit solltest du none/available rausfiltern können. Alternativ kannst du auch http://linux.die.net/man/1/cut verwenden oder ganz simpel danach greppen.
 
Zuletzt bearbeitet:
Ich stelle mein fertiges rsync Script mal zur Verfügung - vielleicht hilft es jemand anders weiter.

Das Script nimmt jeweils in zwei Arrays Poolnamen (z.Zt. ist nur ein Pool vorgesehen) und die Namen aller zu sichernden Dateisysteme (die Eingabe von Subfoldern mit einer Hierarchieebene ist auch möglich) als Eingabe und prüft dann ob die Dateisysteme verfügbar (d.h. unlocked) sowie gemounted sind. Dateisysteme die verschlüsselt sind, werden übersprungen, Dateisysteme die nicht gemounted sind werden automatisch eingebunden bevor der Sicherungsvorgang startet.

Die angegebenen Dateisysteme werden dann der Reihe nach per SSH übertragen (im Beispiel zum Strato HiDrive). Dabei werden nicht mehr vorhandene sowie geänderte Dateien mit Suffix Datum+Uhrzeit bei jedem Durchlauf in ein Backup-Folder auf dem Server geschoben, welches das jeweilige Tagesdatum als Suffix enthält.

Das Script ist mit dem -n-Parameter voreingestellt - d.h. rsync macht standardmäßig nur einen dry run.
 

Anhänge

  • .rsync_zfs_v0.4.zip
    741 Bytes · Aufrufe: 104
Zuletzt bearbeitet:
Perfekt.

Bevor ich jetzt 2 h verschwende kann mir vllt. einer einen kleinen Tipp geben wie ich für spool/daten den "available" bzw. "none" Value programmiertechnisch gezielt rausziehe?

Code:
...
$(zfs get keystatus ${#POOL[@]}/${#ZFS_filesystem[(@)]})
...
liefert mir

Code:
NAME PROPERTY VALUE SOURCE spool/daten keystatus available -

nur value ohne header:
zfs get -H -o value keystatus filesystem
 
Bei Solaris und dem kernelbasierten CIFS Server (sowie NFS) ist SMB-sharing eine Eigenschaft eines Dateisystems.
Einfache Unterverzeichnisse lassen sich damit nicht sharen (eine der wenigen Einschränkungen)

Das geht nur, wenn man stattdessen z.B. Samba benutzt.
Das ist aber viel unkomfortabler, meist langsamaer und es fehlen wichtige Features.

Ich hab es nicht getestet, aber laut Doku müsste das auch mit dem Solaris CIFS-Server gehen.
Managing SMB Shares (Task Map) - Oracle Solaris SMB and Windows Interoperability Administration Guide
 
Im napp-it Webinterface werden meine SAS Platten (LSI 2008 Controller) bei Smartinfos nicht erkannt "NOINFORMATIONFOUND" - meine Intel (SATA) SSDs hingegen werden erkannt.

mit smartctl kann ich von der Konsole jedoch wenn ich den Parameter "-d SCSI" übergebe, die Infos der SAS Platten einwandfrei auslesen.

Ist mir nur gerade so aufgefallen - nutzt napp-it per default "-d sat" also SATA-Platten?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh