[Sammelthread] ZFS Stammtisch

schon wieder netzwerkproblem mit i210at
ich setze per console oder im nappit die feste adresse und zack ssh und nappit-verbindung weg.

ich kann nur mir ipadm delete-if igb0 wieder ran (zum glück nun über ipmi)

fehlermeldung : Dec 27 00:24:02 nas in.routed[554]: [ID 464608 daemon.error] route 0.0.0.0/8 --> 0.0.0.0 nexthop is not directly connected

und nun??
gn8,
david
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das funktioniert recht gut. Aber dran denken: mit ZFS spiegelt man nicht Platten, sondern Pools.
Du würdest also auf beiden SSDs jeweils eine 20GB Partition für rpool und eine 40GB für Cache anlegen.
Anschliessend mit zpool attach rpool ssd1partition1 ssd2partition1 den Spiegel für rpool bauen.
Den Cache spiegelt man nicht, also wäre das zpool add "hddpool" cache ssd1partition2 ssd2partition2
Damit hast du dem "hddpool" einen Cache von 80GB hinzugefügt.

cu

kannst du mir bitte sagen wie das geht?
im nappit geht das nicht, er schnappt sich nur die ganze zweite platte, mit partitionierter zweiter platte kommt ne fehlermeldung.
danke david
 
Ich hab mal eine Frage wie ich am besten PoeF aufsetze bei meinem neuen NAS. Es sind 24x 4TB in vier RaidZ2 @ 4+2 Platten, OmniOS stable und napp-it 0.9d2, RAW SIZE/ USABLE = 87T/ 58.4TB

Jetzt die Frage: eine einzige große PoeF oder ein RaidZx aus mehreren kleinen?
Und wenn ich es recht verstehe wird dann auf diesem PoeF ein zweites neues ZFS Filesystem mit SMB aufgesetzt?

Leider scheiterte Solaris 11.1 an den Intel i210 NICs von meinem Supermicro X10SL7-F ... sonst hätte ich das genommen und einfach mein verschlüsseltes ZFS via ZFS SEND vom alten NAS übertragen.
 
Das funktioniert recht gut. Aber dran denken: mit ZFS spiegelt man nicht Platten, sondern Pools.
Du würdest also auf beiden SSDs jeweils eine 20GB Partition für rpool und eine 40GB für Cache anlegen.
Anschliessend mit zpool attach rpool ssd1partition1 ssd2partition1 den Spiegel für rpool bauen.
Den Cache spiegelt man nicht, also wäre das zpool add "hddpool" cache ssd1partition2 ssd2partition2
Damit hast du dem "hddpool" einen Cache von 80GB hinzugefügt.

cu

Genaugenommen spiegelt man Blockdevices, also Platten, Partitionen, iSCSI LUNs oder Files die als Blockdevices gehandhabt werden. Daraus baut man ein Raid (vdev) auf dem man einen Pool anlegt.

Im Falle des rpool hat man als Ausgangssituation eine Platte=ein basic-vdev=einen Pool (rpool). Man könnte jetzt schon einfach per attach ein weiteres Blockdevice dem Bootdevice hinzufügen. Das klappt aber nur bei Solaris 11.1 da dort das System (z.B. Grub) darauf ausgelegt ist, das zu handhaben.

OI und OmniOS sind da nicht so clever. Hier muss Grub mit auf die zweite Platte und die muss auch bootbar sein. Dershalb ist mehr nötig. Ich habe es noch nicht versucht, würde aber vermuten, dass ein rpool Mirror auf Partitionen möglich ist aber nicht so ganz einfach ist. Ich würde auf jeden Fall eher abraten da es alles unnötig verkompliziert. Wenn dann würde ich eher mit Clonezilla ab und zu ein rpool Image als Backup wegsichern damit man das Bootlaufwerk schnell wiederherstellen kann und/oder eben einfach zwei ganze Platten oder USB Sticks für rpool spendieren.

- - - Updated - - -

schon wieder netzwerkproblem mit i210at
ich setze per console oder im nappit die feste adresse und zack ssh und nappit-verbindung weg.

ich kann nur mir ipadm delete-if igb0 wieder ran (zum glück nun über ipmi)

fehlermeldung : Dec 27 00:24:02 nas in.routed[554]: [ID 464608 daemon.error] route 0.0.0.0/8 --> 0.0.0.0 nexthop is not directly connected

und nun??
gn8,
david

Ich würde wenn möglich eine andere Nic einbauen und es damit versuchen.
Nur um sicher zu sein, dass der neue i210 Treiber das Problem ist.

- - - Updated - - -

Ich hab mal eine Frage wie ich am besten PoeF aufsetze bei meinem neuen NAS. Es sind 24x 4TB in vier RaidZ2 @ 4+2 Platten, OmniOS stable und napp-it 0.9d2, RAW SIZE/ USABLE = 87T/ 58.4TB

Jetzt die Frage: eine einzige große PoeF oder ein RaidZx aus mehreren kleinen?
Und wenn ich es recht verstehe wird dann auf diesem PoeF ein zweites neues ZFS Filesystem mit SMB aufgesetzt?

Leider scheiterte Solaris 11.1 an den Intel i210 NICs von meinem Supermicro X10SL7-F ... sonst hätte ich das genommen und einfach mein verschlüsseltes ZFS via ZFS SEND vom alten NAS übertragen.

Es gibt zunächst die Option, eine billige Intel Nic (PCI-e 1x) einzubauen um Solaris 11.1 zu nutzen bis es da einen Treiber gibt. Man kann auch PoeF nehmen, es ist aber langsamer.

Einen PoeF Pool aus lauter kleinen Dateien z.B. 2 GB macht man dann, wenn man vorhat, den verschlüsselten Pool inkl Verschlüssellung auch zu sichern. Das ist ja das Einmalige an PoeF. Man kann den verschlüsselten Pool auf beliebigen "unsicheren" Datenträgern/ Dateisystemen sichern, z.B. USB Sticks, Cloud, Backup-platten, eMail etc. Und das nicht nur verschlüsselt sondern mit Raid-Z (1-3) Sicherheit, Redundanz und Prüfsummen. Das ist daher ideal für einen "kleinen bis mittelgroßen geschäftskritischen Datenpool", weniger für den großen Multi-TB Videopool den man warum auch immer verschlüsseln möchte.

Im Falls von Solaris 11 müssen die Daten für ein Backup irgendwie neu verschlüsselt werden (ohne Raid-Z Sicherheit/Checksums)
 
Wenn dann würde ich eher mit Clonezilla ab und zu ein rpool Image als Backup wegsichern damit man das Bootlaufwerk schnell wiederherstellen kann und/oder eben einfach zwei ganze Platten oder USB Sticks für rpool spendieren.

OK. das system ist ja installiert und ein backup im nappit habe ich auch gemacht. wenn ich jetzt die ssd mit clonezilla clone und sich dann später doch nochmal was in der in der config geändert hat, reicht es das nappit-backup auf dem clone einzuspielen?

ich hab auch noch eine intel desktop ct eingebaut, die ist ja wirklich problemlos. nachdem ich alle karten per dhcp adressen gegebn hatte und dann auf statisch geändert gings seltsamerweise ohne probleme....

vielen dank,
david
 
Zuletzt bearbeitet:
Genaugenommen spiegelt man Blockdevices, also Platten, Partitionen, iSCSI LUNs oder Files die als Blockdevices gehandhabt werden. Daraus baut man ein Raid (vdev) auf dem man einen Pool anlegt.

Im Falle des rpool hat man als Ausgangssituation eine Platte=ein basic-vdev=einen Pool (rpool). Man könnte jetzt schon einfach per attach ein weiteres Blockdevice dem Bootdevice hinzufügen. Das klappt aber nur bei Solaris 11.1 da dort das System (z.B. Grub) darauf ausgelegt ist, das zu handhaben.

OI und OmniOS sind da nicht so clever. Hier muss Grub mit auf die zweite Platte und die muss auch bootbar sein. Dershalb ist mehr nötig. Ich habe es noch nicht versucht, würde aber vermuten, dass ein rpool Mirror auf Partitionen möglich ist aber nicht so ganz einfach ist. Ich würde auf jeden Fall eher abraten da es alles unnötig verkompliziert. Wenn dann würde ich eher mit Clonezilla ab und zu ein rpool Image als Backup wegsichern damit man das Bootlaufwerk schnell wiederherstellen kann und/oder eben einfach zwei ganze Platten oder USB Sticks für rpool spendieren.

Also die rpools aller meiner Systeme sind gespiegelte Slices. Wie groß die Slices sind, kannst du selber entscheiden.
Beispiel mit zwei Pools auf einer Platte:

NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
c3t0d0s0 ONLINE 0 0 0
c3t1d0s0 ONLINE 0 0 0

NAME STATE READ WRITE CKSUM
tank1 ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
c3t0d0s6 ONLINE 0 0 0
c3t1d0s6 ONLINE 0 0 0



Man beachte das s0 (100GB) bzw. s6 (360GB) hinten, beide Pools liegen auf den selben Platten aber auf verschiedenen Slices. Diese sind dann unabhängig voneinander gespiegelt.
Die Solaris-Partition erstreckt sich natürlich über die ganze Platte.

so schaut eine Platte dann mit format/part/print aus:

Part Tag Flag Cylinders Size Blocks
0 unassigned wm 1 - 13807 105.77GB (13807/0/0) 221809455
1 unassigned wm 0 0 (0/0/0) 0
2 backup wu 0 - 60797 465.74GB (60798/0/0) 976719870
3 unassigned wm 0 0 (0/0/0) 0
4 unassigned wm 0 0 (0/0/0) 0
5 unassigned wm 0 0 (0/0/0) 0
6 unassigned wm 13808 - 60797 359.96GB (46990/0/0) 754894350
7 unassigned wm 0 0 (0/0/0) 0
8 boot wu 0 - 0 7.84MB (1/0/0) 16065
9 unassigned wm 0 0 (0/0/0) 0


Grub auf beide Platten mit installgrub /boot/grub/stage1 /boot/grub/stage2 /dev/rdsk/c?d?t0s0 ist natürlich Pflicht.

cu
 
hast du mit format fdisk die partitionen (solaris2) erstellt?
dann dein installgrub und dann das attach mirror?
danke,
david
 
Korrekt. spielt keine Rolle ob du erst den Grub installierst und dann den attach machst oder umgekehrt.
 
Allen ZFSlern erstmal ein gutes neues Jahr.

Ich möchte einen neuen Server aufbauen und liebäugle mit dem SM Board X10SLH-F oder dem X10SLM-F. Wo unterscheiden sich die Beiden eigentlich, außer am Chipsatz, SATA und Netzwerkchips?

@brigadeleiter, du hast doch das X10SLH-F erst kürzlich verbaut und damit i210AT-Probleme gehabt, hast du r151008 oder r151006 installiert? Probleme jetzt gelöst?

Hat schon jemand mit diesen Boards Erfahrungen gesammelt? Entweder als das all-in-one Konzept mit ESXi 5.5 oder nur mit OmniOS r151008?
Gibts bekannte Probleme mit den Boards und wenn ja lassen sie sich lösen und wie?
Es gab ja anscheinend Probleme mit der Intel i210AT, Dieses sollte ja mit OmniOS r151008 laut Release Notes erledigt haben.

Was mich etwas iritiert steht in der c't 25/13 S. 126 "Die Firmware des Boards (X10SLM-F) unterstützt VT-d anscheinend nur für die Onboard-Netzwerkchips."
Das kann doch nicht sein? Passthrough für die LSI-HBAs wird doch weiterhin gehen? Meinte c't, dass weitere Onboardteile, wie z.B. SATA und USB nicht passthrough können?

- - - Updated - - -

alt+7 funkioniert nicht. habe es über ssh gemacht....
danke,
david

btw: das SUPERMICRO X10SLH-F hat auch probleme beim reboot mit omnios, aber den vorteil, dass ich es aus der ferne neustarten kann im gegensatz zum asus board. ...

Habe gerade dieses Problem bei deinem Board noch gefunden.

Funktioniert jetzt der reboot ohne Probleme und somit gelöst? Wie äusserten sich die Probleme?
OmniOS r15008 oder r151006?
 
teilweise bleibt der reboot nach dem sync hängen, aber bei uns wird ja auch nur alle jahre ein reboot durcheführt und zur not hat man ja noch das ipmi.
im moment läuft r151008 mit den beiden i210at und einer intel ct. ich hatte das problem, dass mir alle netzwerkverbindungen wegeflogen sind wenn ich eine weitere i210at statisch in der console festgelegt habe. dann ging es wirklich nur noch über das ipmi-kvm weiter. seltsamerweise ging es problemlos nachdem ich allen Adressen über dhcp gegeben hatte und dann auf statisch umgestellt hab. ich hatte mich aber vorher an die anleitung von gea gehalten.
genommen haben wir das SUPERMICRO X10SLH-F weil es erstens schnell verfügbar war und zweitens weil es 6 sata 6gbs ports hat. daran hängen nun auch alle "schnellen" geräte (2xintel ssd und 4xwd red) die restlichen 4x 500gb platten sind am alten lsi controller der nur 3gbs hat.
sonst bis jetzt keine probleme mit dem brettchen, vt-d hätte ich gerne getestet, aber es gab ja nur einen billigen core-3 zum system.

pool 1 - Raid10 (4x wd red 1tb) lz4 ,sync aus am onboard controller, X10SLH-F, 16gb ecc, core i3-4130


Ciao,david
 
Zuletzt bearbeitet:
Macht denn nur der fastboot (reboot) Probleme?
>> geht es denn mit dem vollen-Reboot: reboot -p ?

https://www.mail-archive.com/omnios-discuss@lists.omniti.com/msg01039.html
Rebooting a System - Booting and Shutting Down Oracle Solaris 11.1 Systems

Ich hatte übrigens auch schonmal Probleme beim setzen der IP sofern nicht der erste Link zum Management benutzt wurde (Also z.B. Management über den zweiten Link und Umstellen des ersten). Am Besten den ersten Link fürs Management konfigurieren.
 
Wie ist das, wenn ich einen zpool auf Komponenten einrichte, die temporär kleiner sind als den Rest ihres Daseins? Das sollte ja eigentlich der gleiche Fall sein, wie wenn ich eine Disk nachträglich durch eine größere ersetze, oder? Ich gehe zwar davon aus, dass ZFS entweder "hinten" einen Header hat oder vorne im Header halt drinsteht, wie groß das Device ist. Aber stimmt das auch?
 
teilweise bleibt der reboot nach dem sync hängen, aber bei uns wird ja auch nur alle jahre ein reboot durcheführt und zur not hat man ja noch das ipmi.
im moment läuft r151008 mit den beiden i210at und einer intel ct. ich hatte das problem, dass mir alle netzwerkverbindungen wegeflogen sind wenn ich eine weitere i210at statisch in der console festgelegt habe. dann ging es wirklich nur noch über das ipmi-kvm weiter. seltsamerweise ging es problemlos nachdem ich allen Adressen über dhcp gegeben hatte und dann auf statisch umgestellt hab. ich hatte mich aber vorher an die anleitung von gea gehalten.
genommen haben wir das SUPERMICRO X10SLH-F weil es erstens schnell verfügbar war und zweitens weil es 6 sata 6gbs ports hat. daran hängen nun auch alle "schnellen" geräte (2xintel ssd und 4xwd red) die restlichen 4x 500gb platten sind am alten lsi controller der nur 3gbs hat.
sonst bis jetzt keine probleme mit dem brettchen, vt-d hätte ich gerne getestet, aber es gab ja nur einen billigen core-3 zum system.

Steht in der Log was, nach dem reboot-hänger?

War das eine Neuinstall oder ein Update auf r151008?
Sorry verstehs jetzt nicht ganz. Das X10SLH-F hat 2 Ethernet Ports plus eine fürs ipmi Management.
Du wolltest jetzt den beiden i210at jeweils eine getrennte feste IP zuweisen, kein teaming. Bei der Ersten hats geklappt, aber sobald du der Zweiten eine feste IP zuweisen wolltest, flogen beide IPs raus und du hattest keine Verbindung mehr zu OmniOS weder per ssh noch dem Webbrowser. Verbindung dann nur noch per drittem Port per ipmi möglich.
Richtig oder falsch gedeutet?

Ich find die Anleitung zum X10SLH-F auf geas Webseite nicht. Hast du mir den Link bitte?

Ich hatte übrigens auch schonmal Probleme beim setzen der IP sofern nicht der erste Link zum Management benutzt wurde (Also z.B. Management über den zweiten Link und Umstellen des ersten). Am Besten den ersten Link fürs Management konfigurieren.
Irgendwie steh ich heute offensichtlich auf dem Schlauch. :confused:
Von welchem Management redest du?
 
@gea: Eine Frage: Gibt es in Omnios nur amerikansiche städte oder warum zeigt nappit in "Localization" nur US Staaten/Städte an?
 
@layerbreak:
anleitung für die netzwerkeinrichtung im onmios
4. setup network. Network is set to (per default): network/physical:default,
so login as root (no pw)

4.1 create interface
- list available interfaces and use linkname ex e1000g0::
dladm show-link
ipadm create-if e1000g0

4.2 add static IP address
4.2.1 create static adress
ipadm create-addr -T static -a 192.168.0.1/24 e1000g0/v4
4.2.2 add default route
route -p add default 192.168.0.254

4.3 or use DHCP (select either static or dhcp)
ipadm create-addr -T dhcp e1000g0/dhcp

4.4 add nameserver
echo 'nameserver 8.8.8.8' >> /etc/resolv.conf

If something happens (typo error), retry, opt. delete interface ex ipadm delete-if e1000g0

4.5 use dns (copy over DNS template)
cp /etc/nsswitch.dns /etc/nsswitch.conf

5. install napp-it 0.9
wget -O - www.napp-it.org/nappit | perl

die beiden i210at sind für die direkte verbindung (kein switch) zu den esx rechnern (192.168.10.10 und 192.168.20.10), die intel ct ist nur für die internetverbindung/wartung/ssh/nappit und befindet sich in einem weiteren netz (192.168.30.10).
die probleme traten beim ausus board und beim sm board auf, ich denke das hat was mit dem treiber oder dem zusammenspiel mit der intel ct zu tun. nachdem ich jetzt dhcp adressen im nappit zu statischen gemacht hatte gings aber.
es war eine neuinstall, mittlerweile gibt es ja schon wieder eine neuere 151008, also ich installiert hatte.
gn8,
david

- - - Updated - - -

über ipmi-kvm:
fehlermeldung : Dec 27 00:24:02 nas in.routed[554]: [ID 464608 daemon.error] route 0.0.0.0/8 --> 0.0.0.0 nexthop is not directly connected
 
Zuletzt bearbeitet:
Hallo
mich interessiert das Thema Storage Server sehr, vor allem deshalb weil ich auch als System Administrator Hyper-V, Xen und NetApp Systeme betreue. Und ich schon vor einigen Jahren ZFS als das Ultimative Filesystem unter den Dateisystemen ausmachen konnte.

Vielleicht kann mir die Frage ja jemand beantworten:

Ist irgendwann auch SMB 2.0 im Omnios Derivat geplant?

MFG
N.Rush
 
Ja schon, ich meine nur wegen der besseren Kompatibilität zu Windows 7, denn wie mir scheint soll SMB 1.0 irgendwann aussterben, das zeigt mir zumindest eine Featureseite von Windows Server 2012 R2 an, da kann man SMB 1.0 Kompatibilität bei bedarf abschalten.
 
Die SMB Version ist ein Feature des verwendeten SMB Serverdienstes.

Da ist sowohl bei Samba4 (hat nichts mit SMB4 zu tun, bringt SMB2/3) etwas zu erwarten wie auch beim bei Solaris bevorzugten CIFS Server. So bringt Nexenta dieser Tage sein neues NexentaStor 4.0 das wie OmniOS auf Illumos aufbaut mit SMB 2.1, siehe NexentaStor Project - NexentaStor 4.0 - New Beta Coming in January - NexentaStor Project

Da SMB 2.1 in der freien NexentaStor Community enthalten ist, kann man mit einer Aufnahme in Illumos rechnen. Damit steht es dann allgemein auch in OI, OmniOS und SmartOS zur Verfügung

Siehe dazu auch meine Anfrage in der Illumis Mailliste und die Antwort von Dan McDonald von Nexenta Listbox • Email Marketing and Discussion Groups
 
Zuletzt bearbeitet:
@gea: Eine Frage: Gibt es in Omnios nur amerikansiche städte oder warum zeigt nappit in "Localization" nur US Staaten/Städte an?

Bei meinem OmniOS und napp-it 0.9d2/e1 kommen europäische Stdte in der Zone "Europe".

Was ist es denn für ein OmniOS/napp-it; ist eventuell Javascript deaktiviert
- dann geht der Zonenwechsel nicht automatisch.
 
Ah danke für die Info mit dem SMB Protokoll, wollte mir nämlich demnächst ein schönes Home NAS bauen natürlich mit echter Server Hardware und daher ist mir wichtig das mit den nächsten Omnios Versionen auch das neue Protokoll im integrierten SMB Einzug hält.
 
Hallo zusammen,
bin gerade dabei meine Hardware zu aktuallisieren.
Hierzu habe ich mir einen HP ML310e zugelegt. Dazu 8Gb Ram und vorhanden ist schon eine M1015 Raidkarte.
Ich möchte ESXi auf USB Stick installieren. Darauf wird ein Windows Server 2008R2 laufen sowie ein paar kleine Test VM´s.
Das ganze läuft entweder auf der Mitgelieferten HD oder auf einer SSD (also der ESXi Datastore1).
Nun zu meiner eigentlichen Sache. Wie ich das mit dem Datenspeicher(Nas) mache.
Ich habe jetzt etliche Seiten gelesen und muss sagen, dass mit Omnios bzw Napp-It gut gefällt. Ich denke, ich werde dies einsetzen.
Ich werde den M1015 durchreichen, dazu habe ich zwei 3TB Platten. Diese möchte ich im Raid1 laufen lassen.

Einzig, was ich bisher nicht verstehe ist, wie das mit den Backup´s läuft. Vll kann mir hierzu jemand etwas auf die Sprünge helfen.
Was möchte ich?! Ich möchte, den gesamten Inhalt des Raid1 auf eine externe Platte Speichern. Hierzu habe ich eine 4TB große. Des Weiteren, möchte ich die Platte an ein anderes System hängen und direkt von Windows darauf zugreifen können (dh. NTFS formatiert). Wie kann man dies realisieren? Welche Möglichkeiten bestehen da? Wie binde ich die Platte am besten an?

Vielen Dank!
 
Hallo zusammen,
bin gerade dabei meine Hardware zu aktuallisieren.
Hierzu habe ich mir einen HP ML310e zugelegt. Dazu 8Gb Ram und vorhanden ist schon eine M1015 Raidkarte.
Ich möchte ESXi auf USB Stick installieren. Darauf wird ein Windows Server 2008R2 laufen sowie ein paar kleine Test VM´s.
Das ganze läuft entweder auf der Mitgelieferten HD oder auf einer SSD (also der ESXi Datastore1).
Nun zu meiner eigentlichen Sache. Wie ich das mit dem Datenspeicher(Nas) mache.
Ich habe jetzt etliche Seiten gelesen und muss sagen, dass mit Omnios bzw Napp-It gut gefällt. Ich denke, ich werde dies einsetzen.
Ich werde den M1015 durchreichen, dazu habe ich zwei 3TB Platten. Diese möchte ich im Raid1 laufen lassen.

Einzig, was ich bisher nicht verstehe ist, wie das mit den Backup´s läuft. Vll kann mir hierzu jemand etwas auf die Sprünge helfen.
Was möchte ich?! Ich möchte, den gesamten Inhalt des Raid1 auf eine externe Platte Speichern. Hierzu habe ich eine 4TB große. Des Weiteren, möchte ich die Platte an ein anderes System hängen und direkt von Windows darauf zugreifen können (dh. NTFS formatiert). Wie kann man dies realisieren? Welche Möglichkeiten bestehen da? Wie binde ich die Platte am besten an?

Vielen Dank!

Bei Solaris ist ZFS das originäre Dateisystem. Wenn man also die Platte zum Backup in OmniOS nutzen möchte, dann auf dieser Platte einen ZFS Pool anlegen und den Mirror darauf sichern (per Replication oder rsync). Anschließen den Pool exportieren und Platte entfernen. Für das nächste Backup Pool importieren und erneut sichern.

Hauptvorteil: ZFS Sicherheit (Prüfsummen), LZ4 Komprimierung und Snapshots (vorherige Versionen)
Die Platte kann man man im laufenden Betrieb in einem Wechselrahmen ein/ausstecken (M1015 ist hotplugfähig).


Alternative:
Platte in einem USB Gehäuse einbauen und am PC anschließen und NTFS formatieren.
Dann Daten von einem OmniOS SMB share auf diese Platte syncronisieren (Ich würde robocopy nehmen, ist bei Windows dabei und kopiert nur geänderte Dateien/ syncronisiert den Inhalt zweier Ordner).
 
Hallo,

ich bräuchte bitte eure Hilfe.

Ich habe napp-it bei mir installiert, und hatte napp-it in einer Domäne regstriert. Jetzt verwende ich aber nurmehr eine Workgroup, habe napp it aus der Domäne rausgenommen und in die Workgroup eingefügt.

Leider schaffe ich es nicht über smb auf meine daten zuzugreifen, er verlangt immer einen User/PW. Die ganzen Shares sollten einfach für jeden Lese/schreibbar sein. Der versuch die SMB shares zu Deaktivieren und wieder aktivieren war leider auch erfolglos.

Es ist bestimmt nur eine Kleinigkeit, nur leider finde ich den Fehler nicht.

Danke für eure Hilfe
 
Hallo,

napp-it ist wirklich toll, aber leider komme ich an einer Stelle nicht weiter:
Ich habe OpenIndiana dann napp-it und dann das AFP-Script von napp-it, was netatalk installiert benutzt.
Wenn ich jetzt in OS X ein paar Dateien auf einen AFP-share kopiere, wird in unregelmäßigen Abständen die Verbindung unterbrochen und in den Serverlogfiles steht dann:

cnid_dbd[663]: read: Connection reset by peer
cnid_dbd[663]: error reading message header: Connection reset by peer

in der Aktivitätenanzeige geht die Übertragungsrate kurz auf 0 runter und steigt dann wieder an, also der Kopiervorgang geht trotzdem weiter.
Trotzdem kann ich mir nicht vorstellen, dass das Verhalten der Software normal ist. Kennt diese Meldung jemand von euch? Danke schon mal.

- - - Updated - - -

Leider schaffe ich es nicht über smb auf meine daten zuzugreifen, er verlangt immer einen User/PW. Die ganzen Shares sollten einfach für jeden Lese/schreibbar sein. Der versuch die SMB shares zu Deaktivieren und wieder aktivieren war leider auch erfolglos.
Ist der Gästezugriff aktiviert? Siehst du, wenn du zfs get sharesmb datastore/media eintippst.
Wenn es fehlt: zfs set sharesmb=name=media,guestok=true datastore/media
 
Zuletzt bearbeitet:
Widdo, danke für den Tipp, mit dem Gästezugang kann ich jetzt lesen/schreiben auf dem share.

Leider ist es mir aber nicht möglich, etwas zu löschen.
 
Widdo, danke für den Tipp, mit dem Gästezugang kann ich jetzt lesen/schreiben auf dem share.

Leider ist es mir aber nicht möglich, etwas zu löschen.

Das liegt sicherlich daran, dass die Dateirechte keinen Zugriff für everyone@ erlauben.
Das einfachste wäre jetzt alle Dateirechte rekursiv auf everyone@=modify zu resetten

- > Menü ZFS-Dateisystems >> Folder-ACL (in der Zeile des entsprechenden Dateisystems)
-> reset-ACL anwählen (Link unterhalb der ACL Auflistung)
-> reset ACL=modify, recursive auf folder und files

Dann sollte alles mit Gastzugraiff = enabled klappen

- - - Updated - - -

Hallo,

napp-it ist wirklich toll, aber leider komme ich an einer Stelle nicht weiter:
Ich habe OpenIndiana dann napp-it und dann das AFP-Script von napp-it, was netatalk installiert benutzt.
Wenn ich jetzt in OS X ein paar Dateien auf einen AFP-share kopiere, wird in unregelmäßigen Abständen die Verbindung unterbrochen und in den Serverlogfiles steht dann:

cnid_dbd[663]: read: Connection reset by peer
cnid_dbd[663]: error reading message header: Connection reset by peer

in der Aktivitätenanzeige geht die Übertragungsrate kurz auf 0 runter und steigt dann wieder an, also der Kopiervorgang geht trotzdem weiter.
Trotzdem kann ich mir nicht vorstellen, dass das Verhalten der Software normal ist. Kennt diese Meldung jemand von euch? Danke schon mal.

Das einzige was man noch kontrollierenn sollte sind folgende Einstellungen für das Dateisystem mit dem AFP share:
- nbmand=off
- aclmode und aclinherit=passthrough
- ACL des Dateisystems (oberste Ebene): everyone=modify
 
Das einzige was man noch kontrollierenn sollte sind folgende Einstellungen für das Dateisystem mit dem AFP share:
- nbmand=off
- aclmode und aclinherit=passthrough
- ACL des Dateisystems (oberste Ebene): everyone=modify
Ist alles so, wie du es schreibst. Wäre ein anderes OS besser als OpenIndiana? OmniOS?
Habe auch schon wget -O - www.napp-it.org/afp | perl ein zweites mal gemacht. Hat aber nichts geändert.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh