[Sammelthread] ZFS Stammtisch

Hi, am Controller kann es eigentlich nicht liegen der unterstützt Festplatten größer als 2TB. Ob der H240 eine alternative ist kann ich dir nicht sagen -> aber kann es bei bedarf mal testen habe hier so eine Kombi zuhause stehen. Ich nutze den H240 bei mir als Raid-Controller.

Esxi -> kann auch nicht die Ursache sein ansonsten habe ich mein Napp-IT so gelöst RAID darunter liegen und eine vmdk für die Daten der Storage VMs.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Kann ich bei NFS-Shares in Napp-it mehr einstellen als ja/nein, oder muss ich das über die Konsole machen?
Ich habe da bisher nix gefunden. Konkret geht es um root=.
 
Ob der H240 eine alternative ist kann ich dir nicht sagen -> aber kann es bei bedarf mal testen habe hier so eine Kombi zuhause stehen. Ich nutze den H240 bei mir als Raid-Controller.
Das wäre klasse, einen H240 könnte ich für kleines Geld auftreiben, aber ich hab noch keine Ahnung wegen den Kabeln, ich hab (leider) den Non-Hotplug Server

Esxi -> kann auch nicht die Ursache sein ansonsten habe ich mein Napp-IT so gelöst RAID darunter liegen und eine vmdk für die Daten der Storage VMs.
Das wollte ich vermeiden, wäre dann aber die Notlösung
 
Kann ich bei NFS-Shares in Napp-it mehr einstellen als ja/nein, oder muss ich das über die Konsole machen?
Ich habe da bisher nix gefunden. Konkret geht es um root=.

Hab ich bislang auch nicht gefunden, mache es selbst über share -F nfs -o root=....
 
Kann ich bei NFS-Shares in Napp-it mehr einstellen als ja/nein, oder muss ich das über die Konsole machen?
Ich habe da bisher nix gefunden. Konkret geht es um root=.

Statt ein einfaches "on" im Sharemenü z.B. folgendes eingeben
rw=@192.168.1.0/24,root=@192.168.1.0/24
 
So, ich hab das ganze jetzt neu aufgesetzt, Bootmedium und erster Datastore sind jetzt eine USB-SSD am internen Port, darauf Installations-ISOs für später und die napp-it OVA. Durchgereicht der B140i im AHCI Modus (meldet sich dann als Sunrise AHCI SATA Controller), da die 3 Festplatten dran. Jetzt ging alles out-of-the-box mit Pool, ZFS Share, NFS an den ESXi zurückgeben.
Trotzdem kurios das es als RDM nicht ging....
 
RDM über Sata wird vom VMware nicht offiziell unterstützt (nur via SAS HBA).
Das wird schon einen Grund haben - kann gehen muss aber nicht.
 
Hi

Wie kann ich ein Verzeichnis auf einer napp-it Platte sicher löschen? Also das die Daten Nullgesetzt, bzw überschrieben werden.
 
Zuletzt bearbeitet:
Sofern es sich um keine SSD handelt, hilft wie bei jedem Dateisystem Vollschreiben der leeren Platte (neuer Pool/alles gelöscht) mit neuen Daten, z.B. cp /dev/urandom /zfs-dateisystem z.B. cp /dev/urandom /tank

Prinzipiell gibt es bei ZFS lediglich folgende Besonderheiten.
- alle Snaps und zvols müssen vorher gelöscht werden
- Das Überschreiben einer Datei mit Daten bringt nichts (wegen CopyOnWrite bleibt der vorherige ZFS Datenblock Zustand zunächst erhalten).


Man kann natürlich auch ausserhalb von ZFS eine Platte sicher löschen, entweder unter Windows oder mit einem bootbaren USB Stick auf dem sich ein entsprechendes Tool wie DBAN befindet. Das ZFS Dateisystem muss ja nicht erhalten bleiben. Das ist dann die sicherste Variante weil da auch keine strukturellen Daten mehr übrigbleiben.

Sicher löschen - Daten restlos von Speichermedien entfernen
Tutorial: Festplatte löschen, aber sicher - NETZWELT


Lediglich ein Verzeichnis oder eine einzelne Datei sicher löschen geht bei ZFS nicht. Das Wiederherstellen einer vorherigen Version ohne Snapshot ist aber nicht trivial, auch gibt es dafür keine Standardtools. Lediglich mit Verschlüssellung läßt sich das Problem auf Ebene des Dateisystems sauber lösen. Wenn man da den Schlüssel "vergißt", kommt keiner mehr an die Daten.

Momentan gibt es aber ZFS Verschlüssellung auf Dateisystemebene nur für Oracle Solaris 11. Für Open-ZFS ist es aber am Kommen.
 
Hi

Ja, danke. Also verstehe ich Dich richtig, dass das nur mit der kompletten Festplatte geht? Weil z.B. bei Windows mit NTFS kann man ja den ganzen ungenutzten Plattenplatz mit ccleaner wipen, die normalen Daten werden so beibehalten.
 
Eine Platte sicher löschen oder einen leeren ZFS Pool mit zufälligen Daten vollschreiben ist kein Problem.

Es gibt aber einen strukturellen Unterschied zwischen ntfs Partitionen und ZFS "Partitionen"=Dateisystem. Ein ntfs Dateisystem umfasst eine ganze Platte oder eine feste Partition auf einer Platte.Wird dieses ntfs Dateisystem sicher gelöscht oder mit Daten überschrieben ist alles weg.

Ein ZFS Dateisystem ist dagegen dynamisch. Es kann bis zur Poolgröße wachsen. Man kann das mit Quotas und Reservierungen beeinflussen. Wo die Daten eines ZFS Dateisystems (einer ZFS Partition) liegen ist nicht festgelegt. Ein sicheres Überschreiben einer Partition (eines ZFS Dateisystems) ist daher nicht möglich oder zumindest nur dann wenn man diese Optionen mit beachtet.

Was naürlich geht, ist das Überschreiben des nichtbelegten Poolbereichs (nach Löschen der Snaps, Reservierungen und Quotas) mit zufälligen Daten. Da gibts dann nichts zum wiederherstellen (zumindest bei Plattenpools, SSD verhalten sich teils anders weil die sich intern autark organisieren). Auch die vorherigen Datenstände (wg CopyOnWrite) werden dann überschrieben.
 
Zuletzt bearbeitet:
Warum habe ich den auf meine ZFS Shares in napp it nur Read Zugriff mit meinem lokal User? Siehe angehängte Bilder.

Ich habe die ACL über das napp it Menü resettet, leider habe ich weiterhin nur read Zugriff. Ich habe nichts verändert... Liegt es evtl. an Replications Snapshots?

Screenshot 2019-03-18 at 20.34.37.jpg
Screenshot 2019-03-18 at 20.34.55.jpg
 
Nur lesenden Zugriff kann folgende Ursachen haben

- Dateisystem ist readonly (Menü ZFS Dateisysteme, replizierte Dateisysteme sind nach der Replikation readonly)
- Dateirechte erlauben nur Lesezugriffe (ZFS Dateisysteme > ACL on Files, oder per Windows SMB als root anmelden)
- Share-Rechte erlauben nur Lesezugriffe (ZFS Dateisysteme > ACL on Shares, oder per Windows Computer Management nachdem man per SMB als ein User aus der Windows Admin Gruppe verbunden ist)
 
Hallo Gea,

hast du eine information wieviel das RSF-1 for ZFS kostet.

danke.

Viele Grüße
Jörg
 
Ich habe keine aktuellen Preise und möchte mich da auch zurückhalten (nutze es selber auch nicht).
Einfach bei high-availability oder Systemhäusern wie zstor die das supporten nachfragen.
 
Nur lesenden Zugriff kann folgende Ursachen haben

- Dateisystem ist readonly (Menü ZFS Dateisysteme, replizierte Dateisysteme sind nach der Replikation readonly)
- Dateirechte erlauben nur Lesezugriffe (ZFS Dateisysteme > ACL on Files, oder per Windows SMB als root anmelden)
- Share-Rechte erlauben nur Lesezugriffe (ZFS Dateisysteme > ACL on Shares, oder per Windows Computer Management nachdem man per SMB als ein User aus der Windows Admin Gruppe verbunden ist)

Ok vielen Dank gea. Das Problem ist, dass ich noch nicht mal mit dem root Schreibzugriff habe (habe aktuell nur MacOS). Logge mich bspw. mit root (smb://root:*@192.168.178.79/userdata) auf dem userdata Share ein und habe weiterhin nur Read Zugriff...

An was liegt das?

Anbei 2 Screenshots meiner napp-it ACLs für den userdata Share
Screenshot 2019-03-20 at 13.54.06.jpg
Screenshot 2019-03-20 at 13.54.31.jpg
 
Die ACL erlauben jedenfalls den Zugriff (file und sharebasiert).
Das Dateisystem selber ist rw?

Ist das Verhalten mit einem anderen Client als OSX identisch?
 
Ok vielen Dank gea. Das Problem ist, dass ich noch nicht mal mit dem root Schreibzugriff habe (habe aktuell nur MacOS). Logge mich bspw. mit root (smb://root:*@192.168.178.79/userdata) auf dem userdata Share ein und habe weiterhin nur Read Zugriff...

An was liegt das?

Anbei 2 Screenshots meiner napp-it ACLs für den userdata Share
Anhang anzeigen 462249
Anhang anzeigen 462250

Hast Du es schon mal mit

cifs://root:*@192.168.178.79/userdata

anstatt mit

smb://root:*@192.168.178.79/userdata

versucht? Falls Du nämlich ein Illumos-Derivat nutzt, könnte es möglicherweise an der smb-Version liegen.
 
In der aktuellen iX werden verschiedene NAS Distributionen mit ZFS verglichen (Freie NAS-Distributionen | iX | Heise Magazine). Der Artikel vergleicht openmediavault 4.1.3, FreeNAS 11.2, XigmaNAS 11.2, Rockstor 3.9.1 und NexentaStor 5.2.0 und beschreibt die Besonderheiten der einzelnen Distributionen. Im Fazit werden FreeNAS, openmediavault und NexentaStor als Favorit dargestellt, letzteres allerdings mit dem Hinweis das man Solaris kennen sollte.
 
@gea: hast Du zufällig mal ausprobiert, wie sich das (immer noch relativ) neue Solaris 11.4 als SMB-Server - konkret im Hinblick auf RDMA / SMB Direct - verhält? Läuft damit SMB Direct mit einem Windows 10 Client "einfach so"?

Theoretisch sollte ja SMB 3.1.1 alles mitbringen, was dafür nötig ist - zumindest nach Microsoft Lesart. Ich hab die Überlegungen dazu hier mal zusammengestellt: [Sammelthread] Der 100Gbit Netzwerk Thread (und ein bisschen 40gbit) - Seite 8

Schön wär's ja schon irgendwie. ;)
 
Hallo,

ich hätte da mal eine Frage. Ich habe ESXi mit Napp-It. ESXi auf NVME-SSD und den SATA-Controller durchgereicht.
Heute habe ich mal ein Image von der System-SSD mit Parted Magic auf eine USB-Platte gemacht. Und nun sind alle meine Daten-Pools "FAULTED" :confused: bzw. steht da "One or more devices could not be used because the label is missing or invalid."
Was will mir das sagen?

action: Destroy and re-create the pool from a backup source.
Scheint mir irgendwie nicht die beste Lösung. Ich habe zwar ein aktuelles Backup, aber das ist über 14 TB groß.

Die Platten werden mir alle noch angezeigt - auch nach erneutem Einlesen mit "delete disk buffer". Aber bei den Pools steht "corrupted data". Ich habe die Partitionen nicht mit Parted Magic gemounted. Nur mal bei einer Platte die Partitionen anzeigen lassen. Ich bin mir also einigermaßen sicher, dass ich am Platteninhalt nichts verändert habe - es sei denn Parted Magic hat das im Hintergrund getan. Ich vermute, dass es eher daran liegt dass der USB-Stick und die USB-Platte angeschlossen waren und nun irgendwie die Platten durcheinander geraten sind. Aber die id's und Seriennummern passen alle noch.

Hat da irgend jemand eine Idee?

Platten:
Code:
 id                         	 part  	 identify  	 stat  	 diskcap  	 partcap  	 error  	 vendor  	 product  	 sn 
 c1t0d0  	 -  	 -  	 removed  	    	 -  	  S:0 H:5 T:0  	 NECVMWar  	 VMware IDE CDR10  	   
 c2t0d0  	 single  	 via dd   	 ok  	    	 42.9 GB  	  S:0 H:0 T:0  	 VMware  	 Virtual disk  	 6000C29491D2649 
 c3t0d0  	 single  	 via dd   	 ok  	    	 10 TB  	  S:0 H:0 T:0  	 ATA  	 ST10000VN0004-1Z  	 ZA223TLT 
 c3t1d0  	 single  	 via dd   	 ok  	    	 10 TB  	  S:0 H:0 T:0  	 ATA  	 ST10000VN0004-1Z  	 ZA23WAAJ 
 c3t2d0  	 single  	 via dd   	 ok  	    	 10 TB  	  S:0 H:0 T:0  	 ATA  	 ST10000VN0004-2G  	 ZJV07BW4 
 c3t3d0  	 single  	 via dd   	 ok  	    	 10 TB  	  S:0 H:0 T:0  	 ATA  	 ST10000VN0004-2G  	 ZJV06S94 
 c3t4d0  	 single  	 via dd   	 ok  	    	 500.1 GB  	  S:0 H:0 T:0  	 ATA  	 Samsung SSD 860  	 S3Z2NB0K102498Y 
 c3t5d0  	 single  	 via dd   	 ok  	    	 500.1 GB  	  S:0 H:0 T:0  	 ATA  	 Samsung SSD 860  	 S3Z2NB0K102527V


Wenn ich hier auf "identify via dd" gehe, passiert nichts. Die Platte fängt nicht wie üblich an zu rödeln.


Pools:
Code:
zpool status	

  pool: rpool
 state: ONLINE
status: Some supported features are not enabled on the pool. The pool can
	still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
	the pool may no longer be accessible by software that does not support
	the features. See zpool-features(5) for details.
  scan: scrub repaired 0 in 0h0m with 0 errors on Sat Mar  2 22:00:17 2019
config:

	NAME        STATE     READ WRITE CKSUM      CAP            Product /napp-it   IOstat mess          SN/LUN
	rpool       ONLINE       0     0     0
	  c2t0d0    ONLINE       0     0     0      42.9 GB        Virtual disk       S:0 H:0 T:0          6000C29491D2649

errors: No known data errors

  pool: ssd
 state: UNAVAIL
status: One or more devices could not be used because the label is missing 
	or invalid.  There are insufficient replicas for the pool to continue
	functioning.
action: Destroy and re-create the pool from
	a backup source.
   see: http://illumos.org/msg/ZFS-8000-5E
  scan: none requested
config:

	NAME        STATE     READ WRITE CKSUM      CAP            Product /napp-it   IOstat mess          SN/LUN
	ssd         UNAVAIL      0     0     0  insufficient replicas
	  mirror-0  UNAVAIL      0     0     0  insufficient replicas
	    c3t4d0  UNAVAIL      0     0     0  corrupted data      500.1 GB       Samsung SSD 860    S:0 H:0 T:0          S3Z2NB0K102498Y
	    c3t5d0  UNAVAIL      0     0     0  corrupted data      500.1 GB       Samsung SSD 860    S:0 H:0 T:0          S3Z2NB0K102527V

  pool: tank
 state: UNAVAIL
status: One or more devices could not be used because the label is missing 
	or invalid.  There are insufficient replicas for the pool to continue
	functioning.
action: Destroy and re-create the pool from
	a backup source.
   see: http://illumos.org/msg/ZFS-8000-5E
  scan: none requested
config:

	NAME        STATE     READ WRITE CKSUM      CAP            Product /napp-it   IOstat mess          SN/LUN
	tank        UNAVAIL      0     0     0  insufficient replicas
	  mirror-0  UNAVAIL      0     0     0  insufficient replicas
	    c3t0d0  UNAVAIL      0     0     0  corrupted data      10 TB          ST10000VN0004-1Z   S:0 H:0 T:0          ZA223TLT
	    c3t2d0  UNAVAIL      0     0     0  corrupted data      10 TB          ST10000VN0004-2G   S:0 H:0 T:0          ZJV07BW4
	  mirror-1  UNAVAIL      0     0     0  insufficient replicas
	    c3t1d0  UNAVAIL      0     0     0  corrupted data      10 TB          ST10000VN0004-1Z   S:0 H:0 T:0          ZA23WAAJ
	    c3t3d0  UNAVAIL      0     0     0  corrupted data      10 TB          ST10000VN0004-2G   S:0 H:0 T:0          ZJV06S94
 
Hast Du es schon mal mit

cifs://root:*@192.168.178.79/userdata

anstatt mit

smb://root:*@192.168.178.79/userdata

versucht? Falls Du nämlich ein Illumos-Derivat nutzt, könnte es möglicherweise an der smb-Version liegen.

Habe es ausprobiert, geht leider immer noch nicht. Hab mich jetzt auch mal mit ner Android App verbunden (Es File Explorer) und habe weiterhin (auch mit root) nur Lesezugriff....). An was kann das liegen?

Ich weis aktuell nicht weiter...

Angehängt habe ich nochmal zwei Screenshots mit den Berechtigungen.

Screenshot 2019-03-28 at 21.35.13.jpg

Screenshot 2019-03-28 at 21.32.54.jpg
 
Hallo,

ich hätte da mal eine Frage. Ich habe ESXi mit Napp-It. ESXi auf NVME-SSD und den SATA-Controller durchgereicht.
Heute habe ich mal ein Image von der System-SSD mit Parted Magic auf eine USB-Platte gemacht. Und nun sind alle meine Daten-Pools "FAULTED" :confused: bzw. steht da "One or more devices could not be used because the label is missing or invalid."
Was will mir das sagen?

action: Destroy and re-create the pool from a backup source.
Scheint mir irgendwie nicht die beste Lösung. Ich habe zwar ein aktuelles Backup, aber das ist über 14 TB groß.

Für das Backup hätte ich zwar eher die VM heruntergefahren und in ESXi als ova exportiert. Ein offensichtliches Problem mit dem Disk Cloning sehe ich aber auch nicht.

Ich würde jetzt alles herunterfahren inkl. ESXi und neu starten, dann eventuell ein Pool export + Pool import versuchen

- - - Updated - - -

Habe es ausprobiert, geht leider immer noch nicht. Hab mich jetzt auch mal mit ner Android App verbunden (Es File Explorer) und habe weiterhin (auch mit root) nur Lesezugriff....). An was kann das liegen?

Ich weis aktuell nicht weiter...

An den ACL (Datei und Share ACL) liegt es jedenfalls nicht. Das Dateisystem ist auch RW und hat noch PLatz.

Wurde irgendeine spezielle Einstellung vorgenommen oder ist alles default?
Wurde vom Mac aus readonly gesetzt?
Ist das Problem nur in userdata (auch nach Server + Mac reboot)?

Geht denn NFS vom Mac aus (NFS ist ja aktiviert)

Gehe zu > mit Server verbinden
nfs://192.168.178.79/hddpool/userdata
 
Zuletzt bearbeitet:
Für das Backup hätte ich zwar eher die VM heruntergefahren und in ESXi als ova exportiert. Ein offensichtliches Problem mit dem Disk Cloning sehe ich aber auch nicht.

Ich würde jetzt alles herunterfahren inkl. ESXi und neu starten, dann eventuell ein Pool export + Pool import versuchen

Die einzelnen VM's habe ich als ova exportiert. Aber ein Image zusätzlich kann ja auch nicht schaden...

Export geht - Import nicht:
Code:
pools:
 pool  	 state  	 status 
 ssd_7683412146605051097  	 UNAVAIL  	 One or more devices contains corrupted data. 
 tank_15749880345658485837  	 UNAVAIL  	 One or more devices contains corrupted data.

cannot import 'ssd' as 'ssd': invalid vdev configuration

Ergänzung:
Kann es sein dass parted - obwohl nur Anzeige - die dev-id's verändert hat?
So sehen die jetzt aus:
name='devid' type=string items=1 value='id1,sd@SATA_____ST10000VN0004-1Z____________ZA223TLT'

Kann man irgendwie herausfinden, welche Platten im Pool hinterlegt sind ?
Dass die Platten nicht gefunden werden ist klar. Aber sie sind vorhanden. D.h. da muss irgend eine Zuordnung verloren gegangen sein.

Ergänzung2:
Die devid's sehen auf meinem Backupserver genauso aus. Das ist es wohl nicht...
name='devid' type=string items=1 value='id1,sd@SATA_____WDC_WD40EFRX-68W_____WD-WCC4E0170785'
 
Zuletzt bearbeitet:
Bei einem Pool > Import werden immer alle Platten-IDs neu eingelesen. Ändern sich die IDs so wird das dadurch behoben.

Die Fehlermeldung lautet aber "One or more devices contains corrupted data".
Das läßt darauf schließen dass Strukturdaten bei den Platten verändert wurden und der Pool damit defekt ist (->Backup)
 
Bei einem Pool > Import werden immer alle Platten-IDs neu eingelesen. Ändern sich die IDs so wird das dadurch behoben.

Die Fehlermeldung lautet aber "One or more devices contains corrupted data".
Das läßt darauf schließen dass Strukturdaten bei den Platten verändert wurden und der Pool damit defekt ist (->Backup)

Ich hatte halt die Hoffnung dass sich aufgrund "One or more devices could not be used because the label is missing or invalid" das Label (was ist eigentlich das label?)' wiederherstellen lässt. Für mich passen die Meldungen nicht so recht zusammen. Entweder er kann die Platten nicht nutzen oder sie haben korrupte Inhalte. Letzteres hätte ich eher als folge der fehlenden Platten gesehen. Andererseits sind sie den Pools noch zugeordnet. Ich habe aktuell keine verfügbaren Platten für einen neuen Pool.

Ich verstehe auch noch nicht, dass durch das Booten von einem Live-Stick auf einmal alles weg sein soll. Dann muss Parted ja auf alle Platten geschrieben haben, obwohl ich es nur einmal gestartet und gleich wieder geschlossen habe.
Und das bei einer Datenrettungs-Distribution...

Würde es evtl. helfen die Platten in ein neu installiertes Napp-it einzuhängen? Ich möchte gern tagelanges Rücksichern vermeiden. Außerdem muss ich dann die Pools, Freigaben und Backup-Jobs wieder komplett neu einrichten. Und mich erstmal einlesen wie ich überhaupt die Rücksicherung anstelle...

Ergänzung:
Und was mich vor allem wundert: "identify via dd" tut absolut nichts. Das rödelt sonst doch immer ordentlich. Und das hat ja nichts mit dem Pool zu tun.
 
Zuletzt bearbeitet:
Ich verstehe auch noch nicht, dass durch das Booten von einem Live-Stick auf einmal alles weg sein soll. Dann muss Parted ja auf alle Platten geschrieben haben, obwohl ich es nur einmal gestartet und gleich wieder geschlossen habe.
Und das bei einer Datenrettungs-Distribution...

Das ist genau die Kernfrage.
Wurde etwas auf die Platten geschrieben und ist der Pool deshalb korrupt oder ist etwas anderes Schuld.

Ich würde tatsächlich mal versuchen, OmniOS direkt auf eine Platte zu installieren (ohne ESXi) um zu sehen ob der Pool dann importiert werden kann.
 
Installation direkt auf Platte bedingt, dass ich mein ESXi-Bootmedium (worauf auch die VMs liegen) plätten müsste.

Wenn ich eine SSD aus dem SSD-Mirror per USB an den Backupserver (kein ESXi) hänge, könnte man - bei fehlerfreien Platten - so den Pool schon importieren?
Und ich würde mir damit sicher nicht den Backupserver zerschießen? (Backup vom Backup umfasst nur die wirklich wichtigen Daten - wäre trotzdem schade)

Wo genau liegen eigentlich die Pool-Informationen? Im Betriebssystem oder auf den Platten? Immer (auch) auf den Platten oder erst nach einem Export?
Nachdem ich den Pool exportiert hatte, war er ja "weg". Da ich noch ein paar zpool-Kommandos ausprobieren wollte, habe ich einfach eine etwas ältere Bootumgebung genommen und da war der Pool wieder sichtbar- wenn auch immer noch korrupt...
 
Zuletzt bearbeitet:
Für das Backup hätte ich zwar eher die VM heruntergefahren und in ESXi als ova exportiert. Ein offensichtliches Problem mit dem Disk Cloning sehe ich aber auch nicht.

Ich würde jetzt alles herunterfahren inkl. ESXi und neu starten, dann eventuell ein Pool export + Pool import versuchen

- - - Updated - - -



An den ACL (Datei und Share ACL) liegt es jedenfalls nicht. Das Dateisystem ist auch RW und hat noch PLatz.

Wurde irgendeine spezielle Einstellung vorgenommen oder ist alles default?
Wurde vom Mac aus readonly gesetzt?
Ist das Problem nur in userdata (auch nach Server + Mac reboot)?

Geht denn NFS vom Mac aus (NFS ist ja aktiviert)

Gehe zu > mit Server verbinden
nfs://192.168.178.79/hddpool/userdata

Erst einmal vielen Dank!

Ich kann mich nicht erinnern, dass ich irgendwelche speziellen Einstellungen vorgenommen habe, noch vom Mac manuell readonly gesetzt habe. Ich habe auch auf alle anderen Shares nur read Zugriff.


Mac Read Only mit root User:
Screenshot 2019-03-29 at 19.39.04.png



Geht denn NFS vom Mac aus (NFS ist ja aktiviert)

Gehe zu > mit Server verbinden
nfs://192.168.178.79/hddpool/userdata
Gerade ausprobiert, über NFS habe ich write Zugriff!

D.h. es muss an SMB liegen...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh