[Sammelthread] ZFS Stammtisch

Möchte meinen Pool neuaufsetzen. Momentan benutze ich OmniOS. Macht es irgendwie Sinn zu Solaris zu wechseln, oder sollte man bei OmniOS bleiben?
Ist damit zu rechnen dass Pool verschlüsselung irgendwann auch Einzug in OpenZFS erhält?
Also was würdet ihr nutzen zuhause für Privat. OmniOS oder Solaris?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
net viel. FTP Server vielleicht noch, VirtualBox. Hauptsächlich aber Netzwerkfreigaben bereitstellen über SMB
 
Wenn man es nicht kaufen muss (demo und development..),
dann hat Solaris derzeit Alleinstellungsmerkmale wie
- ZFS Verschlüssellung
- SMB 2.1
- schnelleres sequentielles Resilvering

Lediglich SMB 2.1 wird im nächsten OmniOS auch drin sein.
Demgegenüber gibt es bei Solaris Updates und Bugfixes nur gegen Geld -
oder durch Abwarten bis zum nächsten Update in zwei Jahren.
 
Zuletzt bearbeitet:
Mh ich glaube dann wähle ich wohl wieder OmniOS.

Andere Frage: Wenn ich mit ZFS send ein Dateset auf einen anderen Pool kopiere, so "verliere" ich irgendwie immer alle meine Snapshots. Gibt es eine Möglichkeit die auch mitzunehmen?
 
Bezugnehmend auf mein Posting #6153 liefere ich die iostats-Werte nach. Die VM darf gerade den Lauf von "sdelete" ertragen und ist auch die einzigste, die momentan auf dieser per Appliance an den ESXi durchgereichten NFS-Freigabe rumrödelt:

iostat-zfs.jpg


Entweder sind die WD5003ABYX-Platten wirklich am Ende oder die LSI-FW 20 grätscht mit rein. In der VM sehe ich jedenfalls per "Sysinternals Process Explorer" magere Raten zwischen 2 bis 6 MB/s und so fühlt sich die VM auch an, wie Kaugummi.
LZ4 ist sowohl für den "tank (pool)" als auch die Freigaben "NFS" und "ZFS" aktiviert und als Sync kommt überall "standard" zum Einsatz.
 
Nicht Angst machen.

HPAs sind keine Frickelei sondern ist gängige Tuningpraxis um die Performance von SSDs bei hoher Schreiblast oder Füllgrad hoch zu halten. Ein Teil der Performance von Enterprise SSDs kommt ja gerade daher. Der Vorteil ist das es sich um ein set and forget handelt. Das OS sieht das einfach nicht.

Um HPAs anzulegen gibt es zwei Tools, Hdat für Dos oder hdparm für Linux.
https://www.thomas-krenn.com/de/wiki/SSD_Over-Provisioning_mit_hdparm

Und HPAs sorgen ja gerade dafür einen Bereich zu haben, der vom schreibenden OS nicht genutzt wird
und damit ausschliesslich dem Controller für Hintergrund Optimierungen zur Verfügung steht.

Man kann auch nichts kaputt machen da man alles rücksetzen kann.

Hi gea,

ich hab das eben versucht zu machen bei meinen beiden neuen Crucial-MX200, aber irgendwas stimmt da nicht:

Code:
hdparm -N /dev/sdb

/dev/sdb:
 READ_NATIVE_MAX_ADDRESS_EXT failed: Input/output error

Wenn ich den Befehl allerdings am gleichen Rechner bei meinen Samsung-840-Pro anwende, kommt ganz normal die Ausgabe wie sie sein soll.

Hast Du eine Idee an was das liegt?


Update:
Ich habe inzwischen das ganze mit HDAT2 probiert. Dummerweise hatte ich den Hinweis "!SET_MAX: NOT_SUPPORTET" überlesen und das ganze unwissentlich mit der HDAT2 BETA Funktion "Accessible Max Address" gemacht. Aber es hat funktioniert - genau ein mal - jetz habe ich eine "HPA" über die ganze Platte und kann es nicht mehr rückgängig machen, so viel zum Thema "Nicht Angst machen." :)
Gibt es eigentlich noch andere Tools, die derartige Funktionen bieten, und die mit dem neuen Standard vielleicht schon besser umgehen können wie HDAT2 ??
Hier steht übrigens auch geschrieben, dass speziell bei den neueren Crucial/Micron SSD's HPA durch AMAC (Accessible Max Address Configuration) ersetzt wurde: https://community.spiceworks.com/topic/773070-parted-magic-secure-erase
War ja wieder mal irgendwie klar, dass ich von den 4-5 zur Auswahl stehenden Platten genau zu der greife, die wieder alles anders macht :wall:
 
Zuletzt bearbeitet:
Das Partitionieren einer Festplatte oder das Verstecken einer Partition oder die Angabe einer kleineren Größe sollte "eigentlich" nie Probleme machen und immer auch durch andere Werte überschreibbar sein. Dass das nicht immer klappt, ist natürlich nie auszuschliessen, ich würde es dann aber als Firmware Bug sehen.

Es ist auf jeden Fall viel unkritischer (hatte noch nie Probleme damit) als z.B. ein Bios oder Firmware Update. Auch das ist tägliche Praxis, führt aber manchmal zu "bricked devices". Hatte ich erst kürzlich bei einem Gigabyte Mainboard trotz "Dual Bios".

Professionelle SSD Hersteller wie Intel haben sicher eigene Tools für Overprovisioning.
An herstellerunabhängigen Tools kenne ich aber nur hdparm und hdat2.

"Amac" liest sich aber wie HPA indem es dem OS einen kleineren maximalen Adressbereich angibt.
 
Zuletzt bearbeitet:
Wie gesagt, die Funktion für diese neuere Geschichte ist bei HDAT2 noch im Beta Stadium, hab auch schon mit denen gemailt heute Mittag, mal sehen obs ne Lösung gibt, ansonsten ist die SSD Schrott :(

Die MX200 verwendet ja von Haus aus schon OP, sie hat ja nur "250GB" anstatt 256GB. Das ist doch aber ein bisschen schmal, oder?
Ich frag mich nur gerade was ich mache, wenns zu keiner Lösung kommt? Andere Platten nehmen oder mich mit dem "kleinen" OP zufrieden geben?
 
Update: Die Verwaltungssoftware von Crucial "Storage Executive" besitzt auch eine CLI, nur wird das niergends beschrieben. Herausgefunden hab ich das durch Zufall, weil der Crucial Support meinte, man könne ja mal noch die Software von Micron benutzen, dort gibt es ebenfalls "Storage Executive". Auf der Seite dort fiel mir dann das "CLI-Manual" ins Auge - und siehe da, es gibt dort einen Punkt zum Thema Over-Provisioning. Ich konnte nun den gewünschten Wert Problemlos einstellen :)

Das einzige was mir jetzt noch ein bisschen Kopfzerbrechen bereitet ist, dass diese neue SSD schon 1x "Retired Block Count" und 1x "Erase Failure Block Count" hat.
Kann/Darf das sein bei einer nagelneuen SSD?

Anhang anzeigen 343804
 
Ich kämpfe gerade mit einigen Problemen rund um Rechte und ACLs.

Hintergrund: Ich hatte ganz popelig auf einem Pool/Filesystem SMB-Freigaben mit Gastkonto erstellt. Dann habe ich fröhlich mit Windows clients (eigentlich nur mit einem) Daten auf die Freigabe verschoben, geändert usw. und alles war schön.

Nachdem ich aber die Platten in ein anderes System verpflanzt, doet den Pool importiert und auch den Client geändert habe, fing der Ärger an: Zugriff ging zunächst nicht mehr.

Nachdem ich manuell in den ACLS für everyone@ quasi überall Haken gesetzt habe wo ging, habe ich den Grundzugriff halbwegs wiederhergestellt. Aber: bei bestimmten Nutzungen meckert Windows immer noch, es habe nicht die nötigen Rechte auf Ordnern, Dateien oder was weiss ich.

Jetzt stehe ich etwas auf dem Schlauch. Vermute mal, dass die ACLS irgendwie eingeschränkt werden, Frage ist nur, wie und wo? Welche Rolle spielt noch die Situation im Dateisystem mit user:group?

Alternativ: Wie komme ich aus dem Istzustand bei einem Filesystem zu einem zukunftsfesten brauchbaren Weg? Wahrscheinlich komme ich wohl um das Anlegen von spezifischen Nutzern und Gruppen nicht drumrum - nur lege ich die dann auf dem Server (solaris) originär an oder nur für den SMB Bereich? Gibt's einen einfacheren Weg des "vollen Zugriffs für alle"?

Sorry für die breite Fragestellung, um ACLs und Nutzerverwaltung habe ich bisher einen großen Bogen gemacht, da für den Heimgebrauch bei mir Overkill. Bin also auch für links für Doofe spezifisch zu Solaris (ohne Domäne) dankbar.
 
Solaris mit SAMBA verhält sich wie BSD oder LINUX mit SAMBA
indem Unix Permissions oder Posix ACL benutzt werden.

Solaris mit dem eigenen CIFS Server benutzt nfs4 ACL. Die sind Windows ähnlicher und bieten erweiterte Möglichkeiten und Vererbung. Entscheidend ist, dass man damit keine chmod zum Setzen der Rechte machen sollte, da damit alle ACL Vererbungen gelöscht werden, da es sowas bei traditionellen Unix Permissions wie 750 nicht gibt.

Ich würde jetzt erst mal alle Rechte recursiv auf jeder darf ändern zurücksetzen, entweder per
- Windows nach Anmeldung als root oder per
- napp-it, im Menu ZFS Dateisysteme auf Folder-ACL eines Dateisystems klicken und dann unter den ACL auf "reset ACL".
Die gewünschte Option ist modify (everyone@=modify, root=full) und recursive

Anschliessend kann man beim Freigeben eines Dateisystems "guest allowed" angeben.
Damit kann dann jeder ohne Anmeldung lesen/schreiben

alternativ User anlegen und Rechte auf die User einschränken.
 
Vielen Dank gea! Damit geht's, aber irgendwie zickt windows trotzdem. Habe jetzt eine iSCSI-Freigabe statt SMB genommen und damit geht dann alles wie gewünscht.
 
Naja
von aussen betrachtet verhält sich das aktuelle Solaris CIFS wie eine Windows 2003 Freigabe.
iSCSI dagegen nutzt ein Target wie eine lokale Festplatte. Wenn man die aber im Netz freigibt,
sind wieder die gleichen Share/ACL Überlegungen fällig.

Unabhängig davon verliert man aber die "Vorherige Version" auf ZFS snaps, da man bei iSCSI nur
das komplette Dateisystem zurücksetzen kann. Windows vss ist ein lausiger Ersatz zu ZFS snaps.

Was zickt denn.
 
Ich wollte vhd(x) Dateien in einer ZFS/CIFS-SMB-Freigabe speichern, um diese direkt unter Hyper-V zu booten. Bin mir aber jetzt gar nicht mehr sicher, ob das über SMB überhaupt geht...

Mit iSCSI geht's. Der einzige Nutzer dieser "Freigabe" ist der Hyper-V Server, so dass die ACL-Geschichte aktuell kein Problem sein sollte.
 
Zuletzt bearbeitet:
In dem Fall braucht die VM eine "lokale Platte" und dafür ist FC oder iSCSI ja entwickelt worden -
lokale Blockdevices vom zentralen Storage.

Es ist auch keine Freigabe wie SMB oder NFS da ohne Clustersoftware kann nur ein Rechner ein iSCSI Target nutzen.
 
Was gibt es noch für Alternativen bei folgendem Szenario:

Ich möchte insgesamt folgende Festplatten unterbringen:
6x 4TB (RaidZ2) und 2x3TB (Mirror) + eventuell noch nen Mirror mit 2 SSDs später.

Habe an einen HP ProLiant ML10 v2 gedacht für die 6x 4TB
Und dann an einen HP Microserver für den 2x3TB Mirror.

Der 6x4TB Pool müsste nicht ständig laufen, ist nur Backup, Videos etc.
Auf dem 2x3TB Pool hat jeder Benutzer im Haus seine eigene Freigabe und es gibt ein Tauschverzeichnis.

Man könnte zwar alternativ eine HBA 1015 in den ML10 v2 reinsetzen, doch die kostet ja auch knapp 100euro (mit Kabeln eher mehr) und da HP seine Einstiegsserver wirklich günstig verkauft ist das so die Frage ob das überhaupt so klever wäre.
Finanziell wären 2 Geräte auch nicht so verkehrt, weil der ML10 v2 ausschließlich für mich wäre, so könnte man auch mal basteln ohne dass das Produktivsystem dann Down ist.
 
Zuletzt bearbeitet:
Frage zur Pool-Kompatibilität FreeBSD/ZoL:

Ich habe vor ~3 Jahren einen Raid1 Pool mit 2x 3TB HDD unter Nas4Free angelegt, das war damals noch V28.
Unter Nas4Free-9x hatte ich dann vor über 1 Jahr irgendwann mal ein Update auf Version "5000" (Feature Flags) gemacht.
Nun möchte ich den Pool gerne unter ZoL 0.6.5 weiter betreiben. Importieren konnte ich ihn schon mal und es "scheint" auch alles soweit ok zu sein.

Frage: kann ich den Pool nun problemlos hier weiter betreiben unter ZoL?

"zpool status" bringt außerdem den Hinweis auf ein Upgrade:

Code:
 zpool status
  pool: raid1-hd
 state: ONLINE
status: Some supported features are not enabled on the pool. The pool can
        still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
        the pool may no longer be accessible by software that does not support
        the features. See zpool-features(5) for details.
  scan: scrub repaired 0 in 11h34m with 0 errors on Sun Oct 25 11:34:11 2015
config:

        NAME        STATE     READ WRITE CKSUM
        raid1-hd    ONLINE       0     0     0
          mirror-0  ONLINE       0     0     0
            sdc     ONLINE       0     0     0
            sdd     ONLINE       0     0     0

errors: No known data errors

Könnte ich den auch hier unter ZoL gefahrlos/problemlos upgraden?
Oder wäre die bessere Wahl, den Pool unter ZoL komplett neu aufzusetzten?
Ich bin mir da irgendwie unsicher und möchte nix vergeigen.
 
Neu aufsetzten halte ich für überflüssig.
Finde erstmal heraus, welche Features du brauchen kannst (siehe Feature Flags - OpenZFS) und ob du evtl. wieder auf NAS4Free zurückkommen willst.
zpool upgrade -v zeigt dir an, was es noch für deinen Pool gäbe.

cu
 
Ah ok, d.h. wenn ich das hier Feature Flags - OpenZFS richtig deute, dann könnte ich aber jetzt unter ZoL upgraden und bei Bedarf wieder zurück auf FreeBSD >=10.2, richtig?
Das aktuelle Nas4Free baut ja eh auf FreeBSD 10.2 auf.

Ich bin mir eben nur unsicher, on man einen Pool einfach mal hier und mal dort upgraden kann, ohne das es nachher zu Problemen kommen kann.
 
Hallo,

ich habe auf meinem HP Microserver Gen8 ESXI 6 U1 installiert und das neueste napp-it omnios all in one image runter gezogen. Unter erweiterte Einstellungen in ESXI habe ich "Intel Corporation Cougar Point 6 port SATA AHCI Controller" per DirectPath I/O durchgereicht.
Da mir bei omnios die Platten nicht angezeigt wurden, habe ich unter der virtuellen Machine noch ein PCI-Gerät 0 mit diesem Controller hinzugefügt.
Normalerweise stehen dem Server 16gb zur Verfügung. Wenn ich allerdings mehr als 4 gb zu napp-it hinzufüge, startet er die Maschine nicht mehr und schreibt:

Das Starten der virtuellen Maschine ist fehlgeschlagen
Einschalten des Moduls MemSched fehlgeschlagen.
...
Unültige Arbeitsspeichereinstellung (sched.mem.min) sollte gleich memsize(5120) sein.

Das kommt aber erst seit ich das pci gerät mit dem controller hinzugefügt habe. Vorher konnte ich mehr Arbeitsspeicher hinzufügen.

Jemand eine Idee?

Gruß

Ironcurtain
 
Das PCI-e device hat ja auch Anforderungen an RAM.
Deshalb in den VM Einstellungen (ich glaube unter Resourcen - ich hab grad kein vsphere zur Hand)
den RAM Bedarf der gesamten VM anpassen.
 
Zuletzt bearbeitet:
Hallo gea,

ich habe das jetzt zumindest bis 11 gb hinbekommen. Das sollte erstmal ausreichen.
Ich habe jetzt einen pool und ein Dataset erzeugt. Nun möchte ich dem dataset über acl einen neuem Benutzer zugriff geben.
Wenn ich auf ++add local user gehe kommt die Meldung:

You can set this via CLI or in single cases u can request a two day evalkey.
Ist napp-it so beschnitten, dass ich ohne lizenz noch nichtmal Freigaben über die webgui machen kann?
 
Hallo gea,

ich habe das jetzt zumindest bis 11 gb hinbekommen. Das sollte erstmal ausreichen.
Ich habe jetzt einen pool und ein Dataset erzeugt. Nun möchte ich dem dataset über acl einen neuem Benutzer zugriff geben.
Wenn ich auf ++add local user gehe kommt die Meldung:

You can set this via CLI or in single cases u can request a two day evalkey.
Ist napp-it so beschnitten, dass ich ohne lizenz noch nichtmal Freigaben über die webgui machen kann?

Im aktuellen napp-it 0.9f6 free kann man alles machen was wichtig ist
- Freigaben anlegen (Menü ZFS Dateisysteme)
- ACL rekursiv zurücksetzen (Menü ZFS Dateisysteme)
- User anlegen (Menü User), das war in einer früheren Version mal versehentlich kurz gesperrt

Pro bietet zusätzlich:
- Support und Bugfixes, Zugriff auf dev releases
- Rechte bearbeiten in napp-it (Bei free kann man das bis auf deny rules über Windows machen)
- Echtzeit Monitoring und eine schnellere GUI Reaktion durch background agents
- Highspeed remote replication

Wenn man nur ab und an ein Pro Feature braucht, kann man online einen eval key beziehen.
 
ich bin momentan am portieren meiner Netzwerklaufwerke von Debian auf ein Solaris-System und zeitgleich wird auf ZFS umgestellt.

Ich frage mich momentan ob ich eher zu Solaris Express greifen soll, was den Nachteil von keinen Updates hat. Wie nachteilig ist das bei einem Homeserver, bei dem kein Zugriff von außen erfolgt - sondern nur Netzintern?
Alternativ wäre Openindiana eine Option.

Was meint Ihr?
 
Solaris Express war der Name der Pre Solaris 11 Version nachdem Sun von Oracle übernommen worden war. Bis auf die Verschlüsselung war das auch praktisch die Basis des OpenSource Solaris Forks Illumos. Das aktuelle Solaris ist Solaris 11.3

Oracle Solaris 11.3 ist eine kommerzielle Software. Kostenlos darf sie für "Demo und Development" nicht aber produktiv eingesetzt werden. Support und Bugfixes gibt es aber nur nach Kauf der Subscription, ansonsten erst wieder in ein bis zwei Jahren mit der nächsten Version.

Wenn aber keine essentiellen Bugs in ZFS oder den enthaltenen Serverdiensten entdeckt werden, ist das aber speziell at home eher nicht so relevant. Solaris als reiner Storageserver ist meist eh set and forget. Bei Solaris 11.2 gab es aber einen Bug in Comstar der in manchen Umgebungen iSCSI verhinderte.

Solaris 11.3 hat derzeit gegenüber den freien Forks folgenden Mehrwert
- Verschlüsselung in ZFS
- deutlich schnelleres sequentielles Resilvering z.B. nach einem Plattenausfall
- SMB 2.1 (das ist aber in Illumos jetzt auch enthalten, in OmniOS Anfang 2016)


Alternativen auf Basis des freien Solaris Fork Illumos:
- OmniOS mit Long Term Stable, normale Stable alle 6 Monate und Dev/ Bloody Version
Das ist derzeit die interessanteste freie Option (Ist aber eine reine Serverversion ohne grafische Oberfläche)

- OpenIndiana/ Hipster
Das ist eine reine Entwicklerversion ohne stable und ohne regelmäßige Bugfixes.
Es gibt aber eine Desktop Version mit grafischer Oberfläche.

Solaris und obige Illumos Distributionen unterstütze ich mit meiner napp-it Web-UI


weitere Distributionen mit Illumos als Basis:
- SmartOS
Die ist spezialisiert auf Cloud Anwendungen unter KVM

- NexentaStor
ein kommerzieller Storageserver mit Community Edition (nur für nichtkommerzielle Nutzung bis 18TB)
 
Zuletzt bearbeitet:
@theycallme°crazy°
Darf ich fragen was dich bewogen hat (außer der unter ZFSonLinux und FreeBESD fehlenden nativen ZFS Verschlüsselung) von Linux auf Solaris zu wechseln?
Ich denke, als Fileserver (CIFS?) dürften *BSD, GNU/Linux und Solarisvarianten sich dank dem verwendeten SAMA nicht allzu viel schenken - da kommt es vllt. dann auf Spezialitäten an..
 
Solaris und Forks nutzen per default nicht SAMBA sondern den hauseigenen CIFS Server.
Eine Solaris eigene Entwicklung, genau wie das enthaltene NFS, Comstar (FC/ iSCSI) oder Crossbow (Netzwerkvirtualisierung)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh