[Sammelthread] ZFS Stammtisch

Ah ok, d.h. wenn ich das hier Feature Flags - OpenZFS richtig deute, dann könnte ich aber jetzt unter ZoL upgraden und bei Bedarf wieder zurück auf FreeBSD >=10.2, richtig?
Das aktuelle Nas4Free baut ja eh auf FreeBSD 10.2 auf.

Ich bin mir eben nur unsicher, on man einen Pool einfach mal hier und mal dort upgraden kann, ohne das es nachher zu Problemen kommen kann.

Wäre super wenn mir das noch jemand beantworten könnte.


Dann noch was anderes. Wenn ich unter ZoL ein Dataset per NFS exportieren möchte, dann mach ich das ja in der "/etc/exports" entsprechend.
Hier https://pthree.org/2012/12/31/zfs-administration-part-xv-iscsi-nfs-and-samba/ wird aber noch ein:

Code:
# zfs set sharenfs="rw=@10.80.86.0/24" pool/srv
# zfs share pool/srv

gemacht. Für was benötige ich das denn genau?
Bzw. was ist der Nachteil, wenn ich nur einen Eintrag in der /etc/exports habe ohne diesen beiden Dinge?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gibt es eigentlich eine Möglichkeit einen Benchmark oder Ähnliches durchzuführen? Habe mein FreeNAS aufgesetzt und würde gern testen, was es leisten kann. .)
 
Solaris und Forks nutzen per default nicht SAMBA sondern den hauseigenen CIFS Server.

Danke für den Hinweis, ich hatte afair bisher auch bei meinen bescheidenen Ausflügen in die Solaris-Welt der Einfachheit halber mit Samba gespielt.
Ich hab mich gerade nochmal auch auf Deinen Seiten eingelesen - es scheint, dass bisher nur Oracles Solaris überhaupt native Verschlüsselung bietet.
ZFS auf LUKS/GELI fände ich auch subobtimal.

@Sc0rc3d: Der CrystalDiskMark mit entsprechenden Settings liefert zumindest eine ungefähre Schätzung bei Belastung des NAS mit einem Client. Vieleicht kennt jemand noch ein Tool zum Testen mit mehreren Clients.
 
Welche Möglichkeiten gibt es um bei einem neuen ZFS Folder/Dataset den Owner zu ändern. Owner ist ja immer root. Könnte zwar als "root" mich von Windows drauf connecten, aber irgendwie ist das auch Umständlich, weil ich an dem PC eigentlich "user1" schon bin. Andere Möglichkeit wäre kurzzeitig Everyone=FullAccess setzen, und dann den Owner wechseln, dafür braucht man aber ne ACL Lizenz. Gibt es noch einen weiteren Weg? Mal von CLI abgesehen?

Warum gibt es bei der Erstellung von ZFS-Datasets nicht die Möglichkeit direkt einen Owner festzulegen, hat das einen Grund?
 
Zuletzt bearbeitet:
Warum gibt es bei der Erstellung von ZFS-Datasets nicht die Möglichkeit direkt einen Owner festzulegen, hat das einen Grund?

Es gibt wohl zwei Gründe
- Microsoft macht das auch nicht so
- Es ist kein übliches Verfahren (auf Dateisystem-Ebene)

Da wo ich "owner" als Referenz brauche, da setze ich auf den freigegebenen Ordner:
- Ordner-Rechte (nur dieser Ordner): lesen, ausführen, Dateien bzw Ordner anlegen

Damit ist für neue Dateien/ Ordner automatisch der User der Owner mit Vollzugriff
und andere kommen da nicht rein ohne dass Owner oder root das ändert.
 
Okay bei der Konfiguration kann sich jeder Benutzer in dieser Freigabe einen Ordner anlegen, wo nur er dann Zugriff drauf hat (und root)

Oracle Solaris 11.3 ist eine kommerzielle Software. Kostenlos darf sie für "Demo und Development" nicht aber produktiv eingesetzt werden. Support und Bugfixes gibt es aber nur nach Kauf der Subscription, ansonsten erst wieder in ein bis zwei Jahren mit der nächsten Version.

Werden Bugfixes denn nicht in Solaris 11.3 eingepflegt? Sprich wenn ich mir das Installationsmedium erneut runterlade, sind dann nicht die Bugfixes schon mit dabei? MS updatet doch auch die Installationsmedien, wie zB dass Service Packs direkt integriert werden?
 
Zuletzt bearbeitet:
ACL Frage

Ich habe einen Pool unter ZoL den ich per NFS exportiere.
Der NFS-Client ist ebenfalls ein Linux System, das den eingebundenen Share dann per SMB im Netzwerk frei gibt.
Ich schaffe es aber irgendwie nicht, auf die SMB Freigabe zu schreiben.
Wenn ich von einem Windows-PC per SMB verbunden bin, kann zwar dort ein Verzeichnis anlegen und auch wieder löschen, aber ich kann nichts schreiben/rein kopieren. Die ACL's kann ich ebenfalls nicht ändern (rechte Maustaste/Eigenschaften/Sicherheit/...).
Was mache ich falsch?
 
Werden Bugfixes denn nicht in Solaris 11.3 eingepflegt? Sprich wenn ich mir das Installationsmedium erneut runterlade, sind dann nicht die Bugfixes schon mit dabei? MS updatet doch auch die Installationsmedien, wie zB dass Service Packs direkt integriert werden?


Ich glaube nicht, es sei denn die ISOs werden periodisch aktualisiert. Die wollen halt Geld für Patches sehen im Form eines Supportvertrages.
 
Ich habe einen Pool unter ZoL den ich per NFS exportiere.
Der NFS-Client ist ebenfalls ein Linux System, das den eingebundenen Share dann per SMB im Netzwerk frei gibt.
Ich schaffe es aber irgendwie nicht, auf die SMB Freigabe zu schreiben.
Wenn ich von einem Windows-PC per SMB verbunden bin, kann zwar dort ein Verzeichnis anlegen und auch wieder löschen, aber ich kann nichts schreiben/rein kopieren. Die ACL's kann ich ebenfalls nicht ändern (rechte Maustaste/Eigenschaften/Sicherheit/...).
Was mache ich falsch?

Windows arbeitet mit SID als Security ID und mit NTFS ACL Rechten.
SAMBA als SMB Server arbeitet mit einfachen Unix Permissions oder Posix ACL.
Da geht bereits die Flexibilität und Vererbung von NTFS verloren.
Auch kennt Unix/Linux keine Windows kompatible Gruppenverwaltung
(bis auf Solaris und dem speziellen in ZFS eingebauten kernelbasierten SMB Server
der auch Windows kompatible nfs4 ACL kann und Windows SID nutzt)

NFS zumindest die Version 3 kennt jetzt gar keine Authentifizierung.
Da wird der Zugriff lediglich aufgrund der Client ip und manchmal der Client uid eingeschränkt.

Wie sollte das funktionieren?
 
Hallo gea,

wie wird das ganze denn dann eigentlich bei Nas4Free oder OMV geregelt? Bei N4F z.B. gibt es beim Anlegen eines SMB-Shares den Punkt "NTFS acls in erweiterten Attributen speichern
Dies stellt NTFS acls bereit ohne ZFS ACL Unterstützung, wie bei UFS.", wie läuft das denn dann hier genau ab?

Hintergrund der ganzen Sache ist folgendes: Der Pool läuft direkt unter meinem Proxmox-Host. Ich möchte aber für die Verwaltung von SMB/AFP/DLNA/etc. eine Weboberfläche haben. Auf dem Host selbst möchte ich dafür nichts weiteres installieren. Deshalb war der Gedanke, den kompletten Pool per NFS an eine bestimmte VM frei zu geben, die dann von dort aus alle weiteren Freigaben im Netz übernimmt. Detaillierte Windows ACL's bräuchte ich hier eigentlich nicht mal unbedingt.
 
Hallo gea,

wie wird das ganze denn dann eigentlich bei Nas4Free oder OMV geregelt? Bei N4F z.B. gibt es beim Anlegen eines SMB-Shares den Punkt "NTFS acls in erweiterten Attributen speichern
Dies stellt NTFS acls bereit ohne ZFS ACL Unterstützung, wie bei UFS.", wie läuft das denn dann hier genau ab?

Hintergrund der ganzen Sache ist folgendes: Der Pool läuft direkt unter meinem Proxmox-Host. Ich möchte aber für die Verwaltung von SMB/AFP/DLNA/etc. eine Weboberfläche haben. Auf dem Host selbst möchte ich dafür nichts weiteres installieren. Deshalb war der Gedanke, den kompletten Pool per NFS an eine bestimmte VM frei zu geben, die dann von dort aus alle weiteren Freigaben im Netz übernimmt. Detaillierte Windows ACL's bräuchte ich hier eigentlich nicht mal unbedingt.

Wenn Du Dein Samba samt UI in einem Linux-Container installierst, kannst Du die Shares auch einfach im Container mounten. Ich hab z.B. die Turnkey-Linux Appliance als Container laufen, da ist eine Web-UI dabei um Shares usw. zu verwalten (Webmin). In einer VM kann man (meines Wissens) nicht einfach so ein Verzeichnis "von außen" mounten, es sei denn über NFS o.ä, davon abgesehen sind Container wesentlich Resourcen-sparender als eine ganze VM.

Bei Benutzung von ACLs zwischen Samba und Linux sind halt ein paar Dinge zu beachten, einfach mal nach "linux zfs acl" googeln...
 
Zuletzt bearbeitet:
Hallo Gemeinde,

ich habe heute auf einem ESXI 6.0U1 die von gea zur Verfügung gestellte Napp-IT Vorlage installiert (6GB RAM) und dieser eine 4TB HDD per RDM durchgereicht. Dann dort einen Pool mit ZFS drauf erzeugt und per NFS dem ESXI angeboten. Also wie es oft empfohlen wird.
Klappt von der Theorie her auch, nur die Performance des ZFS Storage ist meilenweiter hinter meinen Erwartungen.
Wenn ich per SMB vom Mac etwas rüber kopiere geht die Geschwindigkeit kurzzeitig Richtung 50MB/sek und danach rapide wieder runter Richtung 5MB. Das führt dann sogar mal dazu, das der ESXI den NFS Storage als nicht erreichbar markiert. Das der Dateibrowser beim ESXI nicht so dolle sein soll habe ich gelesen, aber so mies ... ?

Es wird wohl ein Error40 sein, aber ich weiss nicht mehr weiter.
Wäre für Lösungshinweise gerade echt dankbar.
 
Ist wie beim Hausarzt. Ich habe Schmerzen, ein Symptom, tausend Ursachen.

Möglich wäre
- OSX taugt nicht mit SMB1, danke an Apple und SMB 2+ nehmen (Nexentastor, SAMBA oder Solaris 11.3)
OmniOS wird das ab Frühjahr haben
- Jumbo Frames einstellen (ist aber erst ein Tip ab 200 MB/s)
- ESXi und sicheres sync write ist langsan: sync deaktivieren oder ein schnelles slog nehmen
- eine e1000 vnic ist langsam, vmxnet3 nehmen
- hardware taugt nix, z.B. eine Realtek Nic
- RAM für die Storage VM ist zu knapp bemessen, mehr RAM zuweisen
- möglich ist auch, dass eine halbdefekte Platte extrem bremst, iostat testen

ps
Der ESXi Dateibrowser ist (wegen verschlüsseltem) ssh besonders langsam.
Viel schneller ist NFS oder SMB Zugriff auf die VMs.
 
Zuletzt bearbeitet:
Hallo gea, danke für Deine Zeit. Ich habe mittlerweile gemerkt, das mit der I/O der HDD irgendetwas nicht rund läuft, %w ist auch eine ganze Weile aus 100 und die Lampe in Deinem Napp-it oben rechts wechselt von grün -> gelb -> rot und nach einer ganzen Weile wieder zurück (wenn dann das schreiben eben beendet ist).

Ist wie beim Hausarzt. Ich habe Schmerzen, ein Symptom, tausend Ursachen.

Möglich wäre
- OSX taugt nicht mit SMB1, danke an Apple und SMB 2+ nehmen (Nexentastor, SAMBA oder Solaris 11.3)
OmniOS wird das ab Frühjahr haben
- Jumbo Frames einstellen (ist aber erst ein Tip ab 200 MB/s)
Habe ich eh keine Hardware für

- ESXi und sicheres sync write ist langsan: sync deaktivieren oder ein schnelles slog nehmen
Was ich so gelesen habe, klingt das irgendwie danach. Jetzt habe ich im ZFS den sync auf disabled gestellt, nun ist der Pool in ESXI deaktiviert und lässt sich auch nicht mehr reaktivieren ...
- eine e1000 vnic ist langsam, vmxnet3 nehmen
Sind durch die Vorlage beide drin. Ich schiebe es aber wirklich auf die HDD I/O

- hardware taugt nix, z.B. eine Realtek Nic
2x Gb LAN (NC332i Broadcom BCM5720) Gehen die normal?

- RAM für die Storage VM ist zu knapp bemessen, mehr RAM zuweisen
Hatte 6GB werde nachher mal mit 10GB testen

- möglich ist auch, dass eine halbdefekte Platte extrem bremst, iostat testen
eher nicht, die war gerade noch im N40L drin und getestet

ps
Der ESXi Dateibrowser ist (wegen verschlüsseltem) ssh besonders langsam.
Viel schneller ist NFS oder SMB Zugriff auf die VMs.
 
Zuletzt bearbeitet:
Ja genau, der NFS Storage ist nicht mehr verfügbar (steht im ESXI auf deaktiviert).
Passiert wenn man die VM einmal runterfährt/neu bootet. Danach scheint der NFS Storage nicht mehr registriert zu werden. Ein kompletter Neustart des Servers hats dann behoben.

Irre ich mich, oder hat OS X nicht seit 10.9 oder 10.10 auch SMB2 drin? Wurde doch meine ich von Apple umgestellt.
Ist nicht auch das sync write egal, wenn ich direkt auf die Storage VM verbinde?
 
Der SMB Client ist eine Eigenentwicklung von Apple und nur auf SMB2+ optimiert. Mit SMB1 im Vergleich zu Windows nur halb so schnell.
Sync ist eine Eigenschaft des Dateisystems und ermöglicht transaktionssicheres Schreiben bei einem Stromausfall, vom Nutzen her sowas wie der Cache mit Batterie bei einem Hardwareraid. ESXi z.B. nutzt das per default mit NFS
 
@gea: alles klar, danke. Übrigens war das I/O-Problem doch ein Error40 -> Disk Write Cache war im BIOS noch ausgeschaltet. Nun habe ich zumindest 40MB/Sek konstant über SMB. Nicht die Offenbarung, aber ne Ecke besser als der Einbruch bis runter auf 4MB/Sek. Nun kommt bei Zeiten das wohl übliche Optimieren.

Werde mich sicher mit neuen Fragen melden :-) Danke!
 
Morgen zusammen,

meine zwei Server liefen lange ohne Probleme. Nun mal den Microserver auf OmniOS geupdated. Das ging gut und auch den alten Pool (war noch unter OpenIndiana erstellt) importiert.

Eine Sache ist noch offen die mich stört. Wollte noch den Emailalert bei napp-it einstellen. Per GMX. Peinlich, peinlich aber irgendwie geht das nicht. Man trägt smtp.gmx.net als Server ein? Bin nicht ganz sicher warum keine Mail rausgeht. Habe zwar das für Gmail gefunden https://loadingsysadmin.wordpress.c...g-napp-it-to-send-email-alerts-through-gmail/ aber nix für GMX.

Vielleicht noch eine schöne Sache die ich nun bei OmniOS und Microserver festgestellt habe - wenn man auf "An" drückt startet der Server und OS. Das ist zu hoffen. Wenn man den Ausknopf drückt fährt er aber auch geordnet runter. Das war bei Openindiana nicht so. Sehr schön.

Noch eine andere Sache: Habe eine HP Remotekarte im Microserver. Lange nicht benutzt weil alles gut läuft. Nun merke ich, dass man mit den neuen Javaeinstellungen nicht mehr Remotebildschirm und Keyboard bekommt. Ausnahme hinzufügen hat nicht geklappt. Freund sagt eine VM aufsetzen, Windows Server drauf, altes Java installieren... Das kann es wohl doch nicht sein?ß

Danke und Gruss
Otto

- - - Updated - - -

Und noch eine "The pool is formatted using a legacy on-disk format. The pool can
still be used, but some features are unavailable."
-> Soll man ein upgrade machen oder besser Finger weg?
Danke
Otto
 
Zuletzt bearbeitet:
GMX akzeptiert Mails nur noch verschlüsselt
https://hilfe.gmx.net/sicherheit/ssl.html

Vermutlich war OI auf email mit SSL/TLS umgestellt. OmniOS unterstützt wie auch OI SSL/TLS nicht out of the box. Dazu muss man diverse Module installieren. Siehe https://www.napp-it.org/downloads/tls.html

Wenn TLS installiert ist, kann man napp-it im Menü Jobs auf SSL/TLS umstellen
Alternative: Push alerts aufs Handy

Zu Java
Habe auch diverse ältere HP Switche mit Java.
Mach eigentlich keine Probleme mit aktuellem Java. Man muss aber in den Java Sicherheitseinstellungen den Host mit Protokoll erlauben z.B. als http://ip oder https://ip falls der mit SSL arbeitet.

Pool Update
Sollte man machen wegen der neuen Features - sofern man nicht die Kompatibilität zu Oracle Solaris braucht (v28/5)
 
Ganz herzlichen Dank Gea. Da ist dann was zu tun wenn die Kinder pennen ;-)
Java habe ich wohl das Protokoll vergessen.
Push aufs Handy ist vielleicht sogar fast eleganter.
Danke und Gruss
Otto
 
Habe Push aufs Hand gemacht (kannte Pushover nicht. Nette Sache). Test push geht. Habe einen Job eingestellt.
push push alerts token .. .. - every every every every 1450024407 active 13.dec 17 40 - run now delete
Wenn ich auf run now drücke - sollte da was kommen? Oder nur wenn ein Fehler vorläge?
Autojob habe ich auf 5 Minuten gestellt.
LG
Otto
 
Push alerts wie email alerts werden nur bei einem Problem gesendet.
 
Moin,


haben mir folgendes Setup gekauft.

C2550D4I
16GB RAM
3x4TB RAIDZ
FreeNas auf SSD

NFS und Samba ~50 MByte/s write | read Wirespeed 1Gbit so muss das :banana:

Mein Problem : Keine 1Gbit im Write . Schaffe gerade mal 50MByte/s . Das hat sogar mein olles Synology von vor 4 Jahre geschafft. Ja ich weiß natürlich nicht mit ZFS.

Habe sehr viel im FreeNAS Forum gelesen, weil sich dort auch immer wieder Leute über ESXi und NFS Datashare auf FreeNAS über die schlechte performance beschweren.

Wenn ich das richtig verstanden habe, kann man das Problem mit einem SLOG umgehen bzw. verbessern. Das ist nicht viel mehr als eine SSD die als Write Cache verwendet wird.

Ehrlich gesagt find ich das schon ziemlich cool, aber irgendwie, muss ich für mein NAS nicht noch mehr Geld ausgeben.


Mich würde interessieren, wie kann ich feststellen, ob ich wirklich am Limit bin oder ob man noch die ein oder andere Schraube drehen kann.

Gruß Sebastian
 
Sicherheit gibts nicht zum Null-Tarif.

Zusätzliche Prüfsummen und Versionierung und Snaps mit CopyOnWrite kosten etwas.
Mit wenig RAM und einer Platte ist ZFS sicher langsamer als ext4 einer Synology oder ntfs bei Windows

Mit mehr RAM oder mehr Platten gleicht ZFS das durch den überragenden Lesecache und den Schreibcache mehr als aus oder dadurch dass es mit mehr Platten oder vdevs exzellent skaliert.

Unabhängig davon bietet ZFS mit NFS als High-End-Feature transaktionssicheres Schreiben an. Das ist sogar als default aktiviert. Das kann die Schreibraten aber stark reduzieren. Um das zu testen, einfach die ZFS Eigenschaft sync-write auf dem NFS Share dektivieren. Schneller machen ohne Sicherheit zu verlieren, kann man das durch ein Slog (separates Log Device). Das muss dann aber richtig schnell sein und sicher (Powerloss protection).

Ansonsten.
Bei den Vergleichen die mir vorliegen, ist Solaris NFS (da kommt NFS und ZFS her) meist schneller als BSD NFS. Auch ist Samba das ja auf jedem Dateisystem und auf jedem Prozessor der 1 und 1 binär zusammenzählen kann laufen soll, meist nicht so schnell wie der Solaris CIFS Server, der nur auf Solaris läuft, da in den Kernel und ZFS integriert ist und multithreaded läuft.

Wenn sync=disabled nichts bringt, wäre ein Vergleich mit Solaris eine Option. Der freie Fork OmniOS ist meine Hauptoption. Oracle Solaris 11.3 ist teilweise nochmal 10-20% schneller und derzeit der "State of the Art" ZFS Server. Er ist aber kommerziell und nur "für demo und development" frei nutzbar. At home sollte das kein Problem sein.
 
Zuletzt bearbeitet:
Hi Gea,

danke für die Tipps.

Laut div. Artikeln über NFS writes on ZFS , kann ich mit meinen 50MByte/s wohl ganz zufrieden sein. Einige Leute habe da viel schlimmere Werte.

Was mich allerdings trotzdem wurmt, es schein drastische Unterschiede auf den Plattformen zugeben.

ZFS performance on HP Proliant Microserver Gen8 G1610T

Auf seinem System macht er das Gigabit voll und das mit weniger RAM , langsamerer CPU und dann auch noch mit einem Linux. :wall:

Eine weitere Lösung welche ich gefunden habe ist

Technical Musings: Speeding up FreeBSD's NFS on ZFS for ESX clients

Habe bisher noch nie nen Kernel selbst kompiliert.
 
At home sollte das kein Problem sein.
Naja aber dann ist nix mehr mit dem Pool mitnehmen nach FreeNAS, OmniOS usw (außer man gibt sich mit v28 zufrieden).
Ist irgendwie doch der Hauptgrund wieso man Privat OmniOS nimmt, weil man mit Solaris 11.3 an das OS gebunden wird.

Laste Gbit Ethernet auch nicht aus mit einem N36L mit 9GB Ram. Aber da kann es vielleicht die CPU sein, ist nur nen DualCore 1,3Ghz.
Werde mal schauen die Tage wieviel ein ML10 v2 schafft mit OmniOS
 
Zuletzt bearbeitet:
Mir genügt ein Blick auf die „erforderlichen Informationen“ bei der Oracle-Account-Erstellung, um bei OmniOS zu bleiben. ;)
 
Ich habe irgendwie irgendwo auf meinem Pool ca. 3,5TB Daten verlegt/verloren. Soll heißen: sie sind nicht weg, ich vermisse auch nichts, aber ich weiß nicht was zum Henker diesen Platz beansprucht bzw. wo die Daten hingekommen sind.

Mal am Beispiel eines Datasets namens "Storage"

Napp-it und "zfs list -o space" behaupten übereinstimmend:
Code:
$ zfs list -o space
NAME                                          AVAIL   USED  USEDSNAP  USEDDS  USEDREFRESERV  USEDCHILD
ZFSdata/Storage                                250G  [B]3.00T[/B]         0   3.00T              0          0
und Napp-it:
Code:
ZFSdata/Storage 	 Storage  	 off 	 off 	 off 	 off 	 n.a. 	 zfs unset 	 on 	 250G 	 [B]3.00T[/B]

Die aktuellen Daten belaufen sich aber nur auf knapp 700GB, was sowohl ein manuelles Nachschlagen unter den Eigenschaften im Windowsexplorer als auch ein "du -s -h /ZFSdata/Storage" bestätigen:
Code:
$ du -s -h /ZFSdata/Storage
[B]696G[/B]   /ZFSdata/Storage

Jetzt habe ich mir gedacht, das sind bestimmt irgendwelche alten Snapshots. Aber: laut Napp-it und Konsole gibt's gar keine:
Code:
$ zfs list -r -t snapshot -o name,creation ZFSdata/Storage
no datasets available

Das ist grundsätzlich auch richtig, weil ich zwar mal testweise Snaps angelegt hatte, diese dann aber wieder gelöscht habe. Auch in den diversen .zfs/snapshot Verzeichnissen herrscht Leere. Habe zwischendurch natürlich mal fröhlich hin-und-her repliziert (mit zfs send/receive). Zwischendurch habe ich dann auch noch die Platten von Maschine 1 zu Maschine 2 umgezogen (mal mit, mal ohne vorher den Pool zu exportieren), so dass ich inzwischen leider nicht mehr sagen kann, wann die Daten "zu viel" wurden.

Jetzt frag' ich mich doch schon, wo sind'se denn nu, die Daten? Und wie komm ich wieder an den Speicherplatz ran (ohne das ganze Dataset löschen zu müssen? Hat jemand eine Idee?

Über den ganzen Pool habe ich eine Diskrepanz zwischen "du" (6.4T) und "zfs list -o space" (10.1T) von ca. 3,5TB, die ich schon gerne zurück hätte... ;)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh