[Sammelthread] ZFS Stammtisch

kFreeBSD is not production ready yet. However, the fact that it exists means that you can now do FreeBSD chroots on Debian (not recommended because of the aforementioned) and Debian jails on FreeBSD.
ZFS is, in one word, awesome. Gone are the days of partitioning - you just create a zpool out of all your disks (similar to LVM volume groups), and then create mountpoints out of that zpool. This is where ZFS differs from LVM+partitioning: LVM is filesystem agnostic, so you can't share storage between partitions, whereas on ZFS you can. Want to make sure a mountpoint uses only a certain amount of storage? Give it a quota.
Then of course there are the other advantages listed by u/perspichaos
The one thing that FreeBSD outside of Solaris lacks is native encryption - open source ZFS is at version 28, whereas encryption is only supported as of version 30. Oracle has not released the code for that. So if you want encryption with ZFS you will have to first encrypt the physical volume (e.g. with GELI on BSD or LUKS on Linux), then create your zpool from the EVs. You'll have some noticeable performance degradation, especially on machines that don't have hardware-accelerated AES instructions.

Quelle:
Has anyone used Debian/kFreeBSD with success? (Especially with ZFS) : linux


Also ist es eher experimentell und man hat eben "nur" die Version 28 von ZFS und somit noch keine Verschlüsselung am Board.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Kann ich die ACL-Vererbungen wiederherstellen? Ich habe alles per chmod geändert und jetzt funktioniert verschieben/umbenennen per SMB/NFS "beschränkt". Ich bin bereit auf NFS zu verzichten und nur SMB zu nutzen :) Nur weiß ich leider nicht, wie ich es am besten machen soll.

Zuerst ACL wiederherstellen:
napp-it menu ZFS Dateisysteme > Folder-ACL klicken
dann auf reset ACL (Menupunkt unterhalb der ACL Übersicht)
modify wählen (folder, files, recursive) anwählen.

Bei großen Dateimengen, ein aktuelles napp-it nehmen

Meinst du sowas?
zfs set aclinherit=passthrough xxx/xxx

Nein, dass ist eine ZFS Eigenschaft. Damit kann man die Vererbung global ausschalten oder
mit pass-through einschalten (unabhängig davon wass bei den Datei-ACL gesetzt ist)

Ich kann leider per napp-it die ACL-Berechtigungen nicht auf "file_inherit, folder_inherit" setzen.

file und folder inherit (Vererbung) kann man nur bei Ordnern setzen.


Ansonsten:
OmniOS unterstützt jetzt als aclmode "restricted". Damit kann man verhindern, dass per chmod z.B. per NFS
die ACL gelöscht werden. Ich nehme das künftig als default-Wert in OmniOS. Das könnte viele Probleme lösen.

https://www.illumos.org/issues/3254

---------- Post added at 13:09 ---------- Previous post was at 13:07 ----------

Hallo gea und alle anderen,

ist zwar kein ZFS-Problem, eher ein AIO-Problem, aber gibt es für das Board Supermicro X9SRL ähnliche Empfehlungen für BIOS-Settings wie beim X8-SIL?
Also
- disable Watchdog functionality
- disable: „Active State Power Management“. (!!! needed, or net-transfer-errors)

Sind das prinzipielle Settings für alle Supermicroboards?

Gruß Millenniumpilot


Ich habe von keinen Problemen wie beim X8SIL gehört.
 
Quelle:
Has anyone used Debian/kFreeBSD with success? (Especially with ZFS) : linux


Also ist es eher experimentell und man hat eben "nur" die Version 28 von ZFS und somit noch keine Verschlüsselung am Board.

Mehr als v28 und die Verschlüsselung von Solaris' ZFS wird man aber nirgendwo kriegen. Nach v28 gibt es nur noch die Weiterentwicklungen der abgesprungenen ZFS-Leute.

Vorteil bei FreeBSD ist immerhin noch, dass man eine multi-threaded full-disk encryption hat, die noch dazu AES-NI unterstützt. Das reicht mir persönlich vollkommen.
 
Unter Solaris hat man eine aktuellere Version 33.

@gea: napp-it schlägt nur die poolversion bis 28 vor obwohl auf den System die 33-er möglich ist. Wenn ich ein zpool upgrade <poolname> mache, ist er up-to-date. Somit wäre z.B. Verschlüsselung möglich. Ist das so gewollt, um in die Extension zu investieren oder ist die 33-er einfach inkompatibel? Alles was ich außerhalb von napp-it konfiguriere wird sicherlich zu Fehlern führen, oder?
 
Unter Solaris hat man eine aktuellere Version 33.

@gea: napp-it schlägt nur die poolversion bis 28 vor obwohl auf den System die 33-er möglich ist. Wenn ich ein zpool upgrade <poolname> mache, ist er up-to-date. Somit wäre z.B. Verschlüsselung möglich. Ist das so gewollt, um in die Extension zu investieren oder ist die 33-er einfach inkompatibel? Alles was ich außerhalb von napp-it konfiguriere wird sicherlich zu Fehlern führen, oder?

napp-it bietet bei Pool - Anlegen verschiedene Versionen bis 28 und default an.
Version 28 ist die höchste Version, die überall importiert werden kann (Pool 28, ZFS v5)
Default ergibt die höchste Version, die unterstützt wird, also v33 mit Verschlüssellung bei Solaris und V5000 bei OmniOS mit Features wie LZ4. Wenn man in der Pool-Übersicht auf die Poolversion klickt, kann man auch in napp-it updaten.

Insgesamt ist es meist kein Problem, Änderungen außerhalb von napp-it zu machen. Manches wird dann halt nicht angezeigt. Beispielsweise unterstützte napp-it 0.8 noch keine Partitionen. Wenn man da Partitionen per Hand anlegt, wurden die in napp-it nicht angezeigt und man musste die eben auch von Hand einem Pool zufügen.

Ansonsten.
Die Verschlüssellung unter Solaris auf encrypted devices mit lofiadm geht bei allen Solaris Abkömmlingen und ist eine freie Option zur ZFS Verschlüssellung unter Solaris 11. Die ist in der Handhabung per CLI oder Script nicht allzu komplex. @Home ist das auch per napp-it Web-UI frei. Kommerziell genutzt ist das aber einer der Komfort-Punkte die napp-it finanzieren (sollen).
 
Zuerst ACL wiederherstellen:
napp-it menu ZFS Dateisysteme > Folder-ACL klicken
dann auf reset ACL (Menupunkt unterhalb der ACL Übersicht)
modify wählen (folder, files, recursive) anwählen.

Bei großen Dateimengen, ein aktuelles napp-it nehmen

Vielen Dank! Hat super funktioniert. Leider wird es bei größeren Mengen von Dateien irgendwann abgebrochen (wenn ich z.B. ganzes Pool auf ein mal resetten will), aber es ist nicht weiter schlimm.
Aktive Version : 0.9a9 nightly Mar.04.2013 und nur die kann ich aktivieren.

Eine andere Frage - ich sehe es so, dass ich gleich am Anfang viel verkehrt gemacht habe, z.B. ESXi auf eine SSD installiert, weil ich dachte, dass das System wesentlich schneller arbeiten wird. Chmod und NFS habe ich auch verwendet obwohl es nicht notwendig war.
Ich habe zurzeit einen Raid-Z2-Pool mit 8 Festplatten (je 3TB). Dieser Pool ist jetzt fast voll, deswegen wird das System bald erweitert. Jetzt kommen die Fragen :)
1. Nehmen wir an, ich kann alles neu installieren (sogar die ESXi auf einen USB-Stick statt SSD lagern). Wie soll ich es am besten organisieren? Ich habe hier gelesen, dass es USB-Mirroring gibt. Ist es eine gute Idee?
2. Ich möchte 2 Raid-Z2-Pools betreiben. Soll ich sie von einander trennen? D.h. auf zwei verschiedenen Virtuellen Maschinen ablegen oder lieber gemeinsam halten?
3. Wo soll ich die anderen Maschinen (Webserver, NAS etc.) lagern?
4. Ich habe zurzeit "nur" 16GB-Ram. Soll ich noch 16GB dazu kaufen oder reichen meine 16GB noch aus?

Gruß,
Roman :)
 
2. Ich möchte 2 Raid-Z2-Pools betreiben. Soll ich sie von einander trennen? D.h. auf zwei verschiedenen Virtuellen Maschinen ablegen oder lieber gemeinsam halten?
3. Wo soll ich die anderen Maschinen (Webserver, NAS etc.) lagern?
4. Ich habe zurzeit "nur" 16GB-Ram. Soll ich noch 16GB dazu kaufen oder reichen meine 16GB noch aus?

Wenn ich Systeme erweitere, dann erweitere ich meist die Pools und lege keine neuen an. Das hat den Vorteil, dass sich die IO-Leistung des Pools erhöht (zB. verdoppelt), dabei werden mit zunehmender Betriebszeit durch jede Schreiboperation die Daten gleichmäßiger über alle HDDs verteilt. Verschiedene Pools (mirror + raidzx) setze ich nur für extrem unterschiedliche Zugriffsprofile ein, alles andere kann man auf Filesystem-Ebene regeln. RAM kann man nie genug haben, probiere es aus, wenn es zu wenig ist, kann man den ja schnell aufstocken.
 
Vielen Dank! Hat super funktioniert. Leider wird es bei größeren Mengen von Dateien irgendwann abgebrochen (wenn ich z.B. ganzes Pool auf ein mal resetten will), aber es ist nicht weiter schlimm.
Aktive Version : 0.9a9 nightly Mar.04.2013 und nur die kann ich aktivieren.

Eine andere Frage - ich sehe es so, dass ich gleich am Anfang viel verkehrt gemacht habe, z.B. ESXi auf eine SSD installiert, weil ich dachte, dass das System wesentlich schneller arbeiten wird. Chmod und NFS habe ich auch verwendet obwohl es nicht notwendig war.
Ich habe zurzeit einen Raid-Z2-Pool mit 8 Festplatten (je 3TB). Dieser Pool ist jetzt fast voll, deswegen wird das System bald erweitert. Jetzt kommen die Fragen :)
1. Nehmen wir an, ich kann alles neu installieren (sogar die ESXi auf einen USB-Stick statt SSD lagern). Wie soll ich es am besten organisieren? Ich habe hier gelesen, dass es USB-Mirroring gibt. Ist es eine gute Idee?
2. Ich möchte 2 Raid-Z2-Pools betreiben. Soll ich sie von einander trennen? D.h. auf zwei verschiedenen Virtuellen Maschinen ablegen oder lieber gemeinsam halten?
3. Wo soll ich die anderen Maschinen (Webserver, NAS etc.) lagern?
4. Ich habe zurzeit "nur" 16GB-Ram. Soll ich noch 16GB dazu kaufen oder reichen meine 16GB noch aus?

Gruß,
Roman :)

ein Tipp:
einen evalkey von napp-it.org holen, damit geht Update auf newest pro
Falls als OS OmniOS benutzt wird, kann man aclmode=restricted setzen. Dann sollte NFS keinen Ärger mit ACL machen

1.
ESXi will auf USB sticks keinen datastore anlegen.
USB mirrorring geht also nur bei Installation auf Hardware

Ansonsten bringt ESXi auf USB Stick nur den Vorteil, dass man es einfacher updaten kann.

2.
zwei Pools machen nur Sinn wenn man einen großen langsamen und einen kleinen schnellen braucht
ansonsten ist Pool mit einem zweiten vdev erweitern sinnvoller.

3.
Wenn man schon ZFS Storage hat, dann alle Daten da drauf (Bis auf die Storage-VM, z.B. alles auf ein ZFS-NFS datastore).
Das ESXi Dateisystem sieht dagegen recht alt aus.

4.
Je mehr RAM je besser=schneller, sowohl was Storage angeht wie auch für ESXi
 
@gea: Soll keine bösartige Kritik sein aber wenn man sich noch nicht so gut auskennt mit den Features von ZFS, wäre eine kleine Verweisung auf die Dokumentation klasse.
z.B. weiß ich nicht, warum ich diese "overflow protection", welche 10% des Gesamtvolumens abzwackt, aktivieren sollte.
Vllt. könntest du hinter jedem Punkt ein Fragezeiche einbauen, welches jede Einstellung ein wenig erklärt mit Vor- und Nachteilen. Das könnte auch die Supportanfragen minimieren. Vllt. könntest du auch den Autostart als Funktion in der WebGUI hinzufügen. Ich muss bei jedem Neustart per CLI napp-it starten oder soll das per Skript realisiert werden?

weitere Fragen:
- wenn ich Encryption bei "ZFS Anlegen" aktiviere, wird der Punkt "Solaris 11: compatible ZFS v.5" automatisch herausgenommen. Soll das so sein?
- Ich habe verschlüsseltes ZFS-Dateisystem angelegt und werde beim Neustart nicht nach der Passphrase gefragt???
- Rolling Back eines Snapshots nur per CLI möglich? Ich kann die Snapshots nur anlegen und löschen.
- Wo konfiguriere ich dedup, compression, L2ARC etc. pp?
- Sind die Meldungen normal: "May 15 14:55:38 solaris11 sudo[15990]: [ID 574227 user.alert] Solaris_audit invalid audit flag lo\:no: Invalid argument" davon kriege ich haufenweise


Genug der Fragestunde :)

Danke!




PS: System ist openSolaris11
 
@gea: Soll keine bösartige Kritik sein aber wenn man sich noch nicht so gut auskennt mit den Features von ZFS, wäre eine kleine Verweisung auf die Dokumentation klasse.
z.B. weiß ich nicht, warum ich diese "overflow protection", welche 10% des Gesamtvolumens abzwackt, aktivieren sollte.
Vllt. könntest du hinter jedem Punkt ein Fragezeiche einbauen, welches jede Einstellung ein wenig erklärt mit Vor- und Nachteilen. Das könnte auch die Supportanfragen minimieren. Vllt. könntest du auch den Autostart als Funktion in der WebGUI hinzufügen. Ich muss bei jedem Neustart per CLI napp-it starten oder soll das per Skript realisiert werden?

weitere Fragen:
- wenn ich Encryption bei "ZFS Anlegen" aktiviere, wird der Punkt "Solaris 11: compatible ZFS v.5" automatisch herausgenommen. Soll das so sein?
- Ich habe verschlüsseltes ZFS-Dateisystem angelegt und werde beim Neustart nicht nach der Passphrase gefragt???
- Rolling Back eines Snapshots nur per CLI möglich? Ich kann die Snapshots nur anlegen und löschen.
- Wo konfiguriere ich dedup, compression, L2ARC etc. pp?
- Sind die Meldungen normal: "May 15 14:55:38 solaris11 sudo[15990]: [ID 574227 user.alert] Solaris_audit invalid audit flag lo\:no: Invalid argument" davon kriege ich haufenweise


Genug der Fragestunde :)

Danke!

PS: System ist openSolaris11

napp-it soll und kann keine Dokumentation zu Solaris sein sondern Solaris bedienbarer machen.
Denn selbst Oracle Solaris 11 Information Library (Deutsch) 11/11 Release ist nur ansatzweise komplett.

Ansonsten sind die Fragen überwiegend nicht Solaris speziell

- napp-it startet normalerweise automatisch per initscript in /etc/init.d
- kein Dateisystem sollte volllaufen. Bei Poolbasierten Systemen kann jedes Dateisystem den Pool komplett auffressen.
Die 10% Reserve sind da eher knapp (Das ist eine Reservierung, kann man unter ZFS Dateisysteme jederzeit löschen/ändern)
- Solaris 11 nutzt Pool V. 33 + ZFS V.6. Nur damit gehen die neueren Solaris 11 Features: Also kompatibel sein oder Features haben
- das ist ist so angelegt. Könnte man manuell mit einem Startscript ändern
- Rollback eines Dateisysterms braucht man nur im Notfall. Das ist was gefährliches. Normalerweise macht man das Dateibasiert (z.B. Windows vorherige Version)
- ZFS Features einstellen, siehe Menü ZFS dateisysteme oder einlesen
- Die sudo-Meldungen sind normal. Jedes Programm, das per sudo gestartet wird, meldet das auf die Root Console. Kann man in /etc/sudoer einstellen
(aktuelles napp-it deaktiviert das automatisch nach Update + reboot)

Wobei ich persönlich Solaris 11 nur nutze um ab und zu napp-it anzupassen (ist nicht meine Arbeits-Plattform).


Ansonsten:
Es gibt keine Supportanfragen da es keinen Support gibt, lediglich etwas Hilfe.
Support gibt es nur bei OmniOS, Oracle und Nexenta gegen Bares.
 
Wunderbar ich danke dir vielmals. Ich habe immer nur die Untermenüs angeklickt und nicht den Haupt-Tab (z.B. ZFS Dateisysteme), so habe ich vieles übersehen, wie die Feature-Einstellungen und die Entschlüsselung per Passphrase.
Ich bin momentan nur in der Testphase. Wenn dann würde ich mir dann auch OmiOS anschauen.

Frage: Wenn ich ein Feature auf den Pool aktiviere, wird es nicht auf die vdevs vererbt. Wozu stellt man überhaupt Features auf den gesamten Pool ein?



EDIT: Unter OmniOS gibt es rdiff-backup nicht nativ? Krieg schon wieder die Grätze wenn ich solche Meldungen kriege:
Code:
python setup.py install
running install
running build
running build_py
running build_ext
building 'rdiff_backup._librsync' extension
gcc -m64 -fno-strict-aliasing -std=c99 -m64 -DNDEBUG -g -O3 -Wall -Wstrict-prototypes -fPIC -I/usr/include/python2.6 -c _librsyncmodule.c -o build/temp.solaris-2.11-i86pc-2.6/_librsyncmodule.o
_librsyncmodule.c:25:22: fatal error: librsync.h: No such file or directory
compilation terminated.
error: command 'gcc' failed with exit status 1
:wall:
 
Zuletzt bearbeitet:
ein Tipp:
einen evalkey von napp-it.org holen, damit geht Update auf newest pro
Danke, hat wunderbar geklappt :)

Wenn ich Systeme erweitere, dann erweitere ich meist die Pools und lege keine neuen an. Das hat den Vorteil, dass sich die IO-Leistung des Pools erhöht (zB. verdoppelt), dabei werden mit zunehmender Betriebszeit durch jede Schreiboperation die Daten gleichmäßiger über alle HDDs verteilt. Verschiedene Pools (mirror + raidzx) setze ich nur für extrem unterschiedliche Zugriffsprofile ein, alles andere kann man auf Filesystem-Ebene regeln. RAM kann man nie genug haben, probiere es aus, wenn es zu wenig ist, kann man den ja schnell aufstocken.

2.zwei Pools machen nur Sinn wenn man einen großen langsamen und einen kleinen schnellen braucht
ansonsten ist Pool mit einem zweiten vdev erweitern sinnvoller.
Ich sehe es etwas anders -
1. Es sind fast nur die Lesezugriffe auf die Daten, die auf dem Pool liegen. Die aktuelle Geschwindigkeit reicht vollkommen aus.
2. Wenn ich 2 Pools verbinde, dann werden gleichzeitig alle HDDs aktiv, also statt 8 gleich alle 16 = der Stromverbrauch steigt. Und gerade das will ich nicht :)
Oder sehe ich es falsch?

Gruß,
Roman
 
Wunderbar ich danke dir vielmals. Ich habe immer nur die Untermenüs angeklickt und nicht den Haupt-Tab (z.B. ZFS Dateisysteme), so habe ich vieles übersehen, wie die Feature-Einstellungen und die Entschlüsselung per Passphrase.
Ich bin momentan nur in der Testphase. Wenn dann würde ich mir dann auch OmiOS anschauen.

Frage: Wenn ich ein Feature auf den Pool aktiviere, wird es nicht auf die vdevs vererbt. Wozu stellt man überhaupt Features auf den gesamten Pool ein?

EDIT: Unter OmniOS gibt es rdiff-backup nicht nativ? Krieg schon wieder die Grätze wenn ich solche Meldungen kriege:

Die "Features" heißen ZFS Dateisystem-Eigenschaften oder Properties.
Features werden ZFS-Erweiterungen unter Illumos und Poolversion 5000 genannt (verwirrt sonst)

Properties sind ansonst immer Eigenschaften eines Dateisystems.
Eine Zuweisung auf den Pool ist aber eine Vorgabe für darunterliegende neu erstellte Dateisysteme.

Der Pool ist ja ein (Parent) ZFS Dateisystem das seine Eigenschaften vererbt.


RDIFF?? - wir sind bei ZFS....
Versionierung macht man da nicht mit rdiff sondern mit Replication und Snaps und das ist ein eingebautes 'Feature'.

---------- Post added at 00:04 ---------- Previous post was at 00:03 ----------

Danke, hat wunderbar geklappt :)
Ich sehe es etwas anders -
1. Es sind fast nur die Lesezugriffe auf die Daten, die auf dem Pool liegen. Die aktuelle Geschwindigkeit reicht vollkommen aus.
2. Wenn ich 2 Pools verbinde, dann werden gleichzeitig alle HDDs aktiv, also statt 8 gleich alle 16 = der Stromverbrauch steigt. Und gerade das will ich nicht :)
Oder sehe ich es falsch?

Ich betrachtete das unter Pool-Effizienz nicht Energie-Effizienz
 
Zuletzt bearbeitet:
RDIFF?? - wir sind bei ZFS....
Versionierung macht man da nicht mit rdiff sondern mit Replication und Snaps und das ist ein eingebautes 'Feature'.

Hast recht, wozu noch meine Backups mit rdiff-backup kopieren. Es reicht rsync + snapshot. Bei wichtigen Daten Replication.
Ich habe mit snaps und replication noch keine Erfahrung sammeln können.
Nehmen wir an, man hat 100GB Daten im Pool und legt ein Snapshot an und kopiert erneut 100GB. Ist das Dateisystem nun mit 200GB gefüllt? Komme ich nach einem Rollback dann zurück auf die ersten 100GB und verliere somit die letzten 100GB?
Frage zum Replication. Sender und Receiver müssen die selbe ZFS-Version haben? Macht also in einer heterogenen Umgebung wenig Sinn, es sei denn das Duplikat wird auf den Server kopiert.

An sich gefällt mir OmniOS gut, nur leider ist die Verschlüsselung nicht dabei dafür aber LZ4. Irgendwas fehlt immer :fresse:
 
Zuletzt bearbeitet:
Hast recht, wozu noch meine Backups mit rdiff-backup kopieren. Es reicht rsync + snapshot. Bei wichtigen Daten Replication.
Ich habe mit snaps und replication noch keine Erfahrung sammeln können.
Nehmen wir an, man hat 100GB Daten im Pool und legt ein Snapshot an und kopiert erneut 100GB. Ist das Dateisystem nun mit 200GB gefüllt? Komme ich nach einem Rollback dann zurück auf die ersten 100GB und verliere somit die letzten 100GB?
Frage zum Replication. Sender und Receiver müssen die selbe ZFS-Version haben? Macht also in einer heterogenen Umgebung wenig Sinn, es sei denn das Duplikat wird auf den Server kopiert.

An sich gefällt mir OmniOS gut, nur leider ist die Verschlüsselung nicht dabei dafür aber LZ4. Irgendwas fehlt immer :fresse:


ZFS ist ein Copy on Write Dateisystem bei dem Daten bei Änderung nicht überschrieben sondern immer neu erstellt werden. Das hat nicht nur den Vorteil, dass das Dateisystem immer konsistent ist (Der Schreibvorgang ist komplett und konsistent oder nicht wirksam, daher kein traditionelles Filecheck) sondern der alte Dateistand ist ja immer noch da. Ein Snapshot ist da nur die Anweisung, alte Daten nicht zum Überschreiben freizugeben. das braucht zunächst keinen Platz und geht praktisch ohne Zeitverzug.

Wenn ich also 100 GB Daten habe und einen Snapshot mache, sind immer auch nur 100 GB belegt. Werden dann aber die 100 GB komplett erneut kopiert, so sind 200 GB belegt. (100 GB aus Snapshot + 100 GB neue Daten). Der alten Datenstand bleibt also komplett erhalten. Der Zugriff darauf geht am Einfachsten per Windows - Vorherige Version.

Der Normalfall ist aber nicht, dass alle Daten neu darüberkopiert werden, sondern dass einzelne Daten geändert werden oder per rsync geänderte Daten kopiert werden. Die Größe des Snapshots entspricht dann nur den geänderten Daten. Wird nichts geändert, belegt ein Snapshot keinen Platz. (1000 Snapshots anlegen ohne Änderung: kein Platzverbrauch). Ein Snapshot ist zudem immer Read-Only und kann nicht geändert, nur gelöscht werden. Ideal für (revisionssichere) Archivierung. Auf Wunsch erstellt napp-it sogar eine md-5 Liste aller Dateien im snap damit deren Unveränderlichkeit dokumentiert werden kann. (z.B. ausdrucken, unterschreiben, abheften).

In heterogenen Umgebungen ist also ein sync eines Datenbestandes per rsync/robocopy auf ein ZFS Backupsystem der Normalfall. Die Vorversionen werden auf diesem Backupsystem per Snapshots (z.B. stündlich, behalte 24; täglich, behalte 7, wöchentlich, behalte 52;..) verwaltet.

ZFS send ist ein Replikationsverfahren, dass auch inkrementell arbeitet, aber eine exakte Kopie des Dateisystems mit allen Properties wie shares oder ACL erstellt. Es geht aber nur zwischen kompatiblen ZFS Versionen.


ZFS Verschlüssellung auf ZFS Ebene kann momentan nur Oracle Solaris 11.
Verschlüssellung auf Device Ebene können aber alle (BSD, Solaris* und Unix) mit der einen oder anderen Einschränkung oder aber Vorteil.
 
Zuletzt bearbeitet:
*grins* Ah jetzt verstehe ich auch warum Netapp was gegen ZFS hat :)
 
@Gea: nur mal so aus interesse: Wann wird eigentlich ca. die napp-it v1.0 rauskommen und was gibt es ggf. für "Erneuerungen" :) ?
Und hast du das Ganze allein auf die Beine gestellt bzw. arbeitest du alleine an napp-it?
 
Zuletzt bearbeitet:
Nun ja, Software ist nie fertig aber 1.0 ist ein Meilenstein.

0.9 bedeutet, es ist fast soweit. Es fehlt noch etwas Feinschliff, Dokumentation, die komplette Auslagerung der Meldungen in Sprachdateien (=napp-it komplett auch in deutsch,chinesisch..) sowie als Feature die Echtzeitüberwachung mehrerer Appliances.

Mein Plan ist aber schon, 1.0 noch in 2013

Ansonsten ist es schon komplett meine Entwicklung
(bis auf Codereviews oder Beiträge wie z.B. das Mediatomb add-on)
 
Darf man auch Fragen ob es nun ein Full-Time-Job ist und du davon Leben kannst oder noch neben der Arbeit? Ansonsten ist es wirklich viel Arbeit, die du reingesteckt hast. Persönlich hätte ich nicht in so vielen Sprachen übersetzt, lediglich die Muttersprache und Englisch oder nur Englisch. Es wird aber sicher seine Gründe haben (Kundenwünsche etc.).

Auf jedenfall ein großes Lob!

Kurze Frage: Kommt in naher Zukunft eine neue ZFS Version in FreeBSD, OmniOS etc. oder ist das nicht mehr vorgesehen, weil Oracle es nicht freigibt? Ich würde dann doch Solaris 11 nehmen, man darf es ja für den Heimgebrauch nutzen und napp-it funktioniert ja auch^^
 
Zuletzt bearbeitet:
Darf man auch Fragen ob es nun ein Full-Time-Job ist und du davon Leben kannst oder noch neben der Arbeit? Ansonsten ist es wirklich viel Arbeit, die du reingesteckt hast. Persönlich hätte ich nicht in so vielen Sprachen übersetzt, lediglich die Muttersprache und Englisch oder nur Englisch. Es wird aber sicher seine Gründe haben (Kundenwünsche etc.).

Auf jedenfall ein großes Lob!

Kurze Frage: Kommt in naher Zukunft eine neue ZFS Version in FreeBSD, OmniOS etc. oder ist das nicht mehr vorgesehen, weil Oracle es nicht freigibt? Ich würde dann doch Solaris 11 nehmen, man darf es ja für den Heimgebrauch nutzen und napp-it funktioniert ja auch^^


Danke für das Lob.
Napp-it ist nicht mein Hauptjob und auf dem Weg von Hobby zu einem kommerziellen Produkt.
Ich übersetze das auch nur englisch/deutsch. Andere Sprachen ist was für Distributoren.
Es ist aber alles für eine schnelle Übersetzung per napp-it Menü about-translation vorbereitet.

zu ZFS
Es ist wohl endgültig so, dass es zwei Entwicklungspfade gibt
- Oracle (closed source mit aktuell ZFS v33)
- Illumos (opensource) mit ZFS v5000 und feature flags

Austauschbar zwischen beiden ist ZFS Pool v28 (aber nur mit ZFS v5, Oracle hat hier v.6).
FreeBSD und Unix hängen an der Illumos Enwicklung mit dran und setzen das dort entwickelte freie ZFS dann auch um. Neuere Features wie LZ4 sind dort auch irgendwann erhältlich.
 
Ist Solaris 11.1 unter Oracle Solaris 11 Downloads eine Testversion und ist nach X-Tagen nicht mehr nutzbar sofern man kein Geld dafür bezahlt? Oder ist es unbegrenzt nutzbar ohne Support und Updates?
 
Ist Solaris 11.1 unter Oracle Solaris 11 Downloads eine Testversion und ist nach X-Tagen nicht mehr nutzbar sofern man kein Geld dafür bezahlt? Oder ist es unbegrenzt nutzbar ohne Support und Updates?

unbegrenzt nutzbar, jedoch nur zu Tests, nicht produktiv und ohne Support/bugfixes

Oracle Technology Network Developer License Terms for Oracle Solaris, Oracle Solaris Cluster and Oracle Solaris Express
You may not:
- use the Programs for your own internal business purposes (other than developing, testing, prototyping and demonstrating your applications) or for any commercial or production purposes;
- remove or modify any program markings or any notice of our proprietary rights;
- make the Programs available in any manner to any third party;
- use the Programs to provide third-party training;
- assign this agreement or give or transfer the Programs or an interest in them to another individual or entity;
- cause or permit reverse engineering (unless required by law for interoperability), disassembly or decompilation of the Programs;
- disclose results of any benchmark test results related to the Programs without our prior consent.
 
Also Solaris 11.1 nutzt sogar schon ZFS v34, da gabs auch ein paar neue Flags und Befehle haben sich etwas geändert etc.
 
Hallo,

ich bin aktuell über ein Problem im Zusammenhang mit den Platten IDs und WWNs gestolpert.
Ich verwende den IBM M1015 als HBA und meine SATA-Platten behalten ihre PlattenID, egal an welchem Port und welchen der HBAs ich diese stecke.
Testweise habe ich eine HP SAS-Disk 146GB 15k bekommen können, hier wechselt die PlattenID je nach Steckplatz. Die WWN der Platte selbst bleibt gleich, aber der Prefix ändert sich, die ersten 3 Buchstaben&Zahlen vor der 5000xxxxxxx
Alle meine SATA-Disks haben unabhängig von HBA und Port eine ID der Art c6t5000CCA36....
Stecke ich die SAS-Disk um, so wechselt die Platte z.B. von c24t5000C50031A... zu c10t5000C50031A.....
Dies ist ja eigendlich nicht im Sinne des Erfinders und dies kenne ich nur von Platten an normalen SATA-Kontrollern, wo die Platten ID nach der Art c20t3d0 aufgebaut ist.

Dabei bin ich weiterhin auf das Problem gestoßen, das ich einen Pool nicht löschen kann (weder export noch destroy), bei dem alle (in diesem Fall nur eine) Platten nicht available sind. Erst ein Neustart von OI mit fehlender Platte behebt das Problem, anschließend kann ich den Pool löschen.
Nur ein UserError?
 
Hallo,

ich bin aktuell über ein Problem im Zusammenhang mit den Platten IDs und WWNs gestolpert.

Ich würde das eher so sehen.
Es ist extrem erfreulich wie wenig Probleme Solaris und Co bei empfohlener Hardware zeigt. Immerhin ist das High-End Storage mit High-End Features. Vor allem verglichen mit Dell/EMC/HP/netapp etc wo nur "Originalhardware" mit "Originaldisks" und "Originalfirmware" verwendet werden dürfen.

In diesem Fall mit Uralt-HP-SAS Platten (Hab die auch noch als Original Seagate herumliegen), aus einer Zeit wo auch bei SAS noch WWN eher ein Fremdwort war oder bei Sata, wo es immer noch verbreitet ist, keine gültige WWN in die Firmware zu programmieren ist es doch prima, dass es überhaupt relativ reibungslos funktioniert.

Ansonsten ist eine Platten-ID natürlich schon Controller ID + Target ID. Also auch bei WWN vorne unterschiedlich (WWN beginnt bei 500..). Das C6 am Anfang sollte also der Controller 6 sein aber da spielt der Treiber mit.


Bei Pool export/destroy würde ich mal versuchen, die fehlende Platte abzumelden oder offline zu setzen. Vielleicht hilft das. Ob ein aktuelleres OS z.B. OmniOS das auch so macht, müsste man ausprobieren.
 
Zuletzt bearbeitet:
Hallo Gea,

war auch keine Kritik, vielleicht habe ich mich nicht eindeutig genug ausgedrückt. Ich habe 2 Controller im Rechner, alle SATA-Platten werden mit der selben Controller- und Port ID gemeldet, es bleibt also egal welchen der 16 Ports (2x M1015) ich verwende, die Platten werden alle mit c6tWWN gemeldet und ich kann sie stecken wo ich will.
Bei der SAS-Platte wiederum wechselt plötzlich die PlattenID, jenachdem welcher der beiden Controller oder welcher Port benutzt wird. Damit wurde plötzlich die Platte als missing und der Pool degradet/unavailable gemeldet, nur weil die Disk in einem anderen Slot steckt. Das kannte ich bisher so nicht und dies war auch einer der schönen Dinge die immer unkompilziert waren. Ist ein Port defekt, wird die Platte einfach woanders gesteckt. Das hat auch immer schön hingehauen.
Wenn dies nun normal so ist, dann ist es OK, wollte es nur mitteilen. Das Warum plötzlich anders würde mich aber schon interessieren. Die SAS-Platte jedenfalls hat schon eine eigene richtige WWN, im Nappit wird die selbe WWN angezeigt wie auf der Platte aufgedruckt ist.

WIe schon geschrieben, Pool export/destroy hat nichts gebracht, auch ein offline setzen der Disk usw. brachte keinen Erfolg
 
Ich sehe das auch nicht als Kritik (ich kann eh nichts dafür) sondern als Hinweis, das es eben bei der Hardware so ist wie es ist. Damit muss man dann eben so umgehen wie bei Disk-IDs die Controller-Port abhängig sind also z.B. c2t3d0 auch der Fal ist.

Da führt dies zum gleichen Problem das nur mit export/import, disk-replace oder Neustart behoben werden kann (dass die Platte im neuen Slot als Pool-member erkannt wird). Warum das genau so ist wird aber allenfalls ein Entwickler des mpt-sas Treibers erklären können.

Interessant wäre aber die Frage, ob eine neuere SAS Platte ohne spezielle Firmware sich anders verhält.
(Ich habe auch nur Uralt-SAS herumliegen)
 
Zuletzt bearbeitet:
Moin, ich überlege ZFS für einen Loggingserver zu nutzen - aufgrund der möglichen Kompression. Kann mir hierzu jemand Erfahrungswerte nennen? Vor allem würde mich auch interessieren ob ich generell zusätzlichen RAM für dieses Feature einplanen sollte oder ob es sich dabei anders als bei Deduplication verhält. In der FAQ von zfsonlinux ZFS on Linux wird für beide Features "genug" Arbeitsspeicher empfohlen. Deduplication soll nicht verwendet werden. Hier kursieren ja richtwerte für Deduplication, für Compression habe ich aber nichts finden können.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh