[Sammelthread] ZFS Stammtisch

Nach der Installation startet napp-it seinen Webserver auf Port 81 (http) und 82 (https) via /etc/init.d/napp-it restart. Die Installation legt einen User napp-it an und paßt die /etc/sudoers an.

Nach dem Reboot wird der Webserver gestartet und
/var/web-gui/data/napp-it/zfsos/_lib/scripts/agents/agent-bootinit.pl aufgerufen (eventuell mal vor dem reboot umbenennen)

Dabei wird /etc/host bearbeitet sowie bonjour aufgerufen (/var/web-gui/_log/bonjour.sh)
Vielleicht liegt hier das Problem unter Proxmox
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@VirtuGuy: Ich hatte napp-it stets sofort nach der Installation von Proxmox geholt. Es liegen also die Standardeinstellung vor!

@gea: Vielen Dank für die schnelle Antwort! Ich hätte mir napp-it (und später dann auch Pro) gerne installiert, nur will ich mangels allzu großer Kenntnisse (noch) nicht an irgendwelchen Dateien herumexperimentieren.
Wenn es dir nichts ausmacht: Könntest du nicht mal das ganze selbst nachvollziehen? Also einfach direkt nach einem Proxmox-Setup (mittels der aktuellen ISO) napp-it installieren und neustarten?! Du hast da garantiert viel schneller den Kniff raus und kannst deinen Installer dann auch bestimmt anpassen!

napp-it bleibt auf jeden Fall eine Spitzen-Software!
 
Ich habe mich noch nicht mit Proxmox beschäftigt und habe das jetzt eigentlich auch nicht vor.

Ich habe aber aber die Bootprozedur von napp-it mal so abgeändert, dass unter Linux nur das nötigste ausgeführt wird. Vielleicht gehts ja damit.
 
Napp-it macht unter Linux keinen Autostart.
Wurde manueller Start via napp-it aufgerufen?

napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana, Solaris and Linux : Linux

Mensch, das ist mir echt peinlich. Offensichtlich bin ich einfach zu verdorben durch Windows, wo alles mögliche von selbst startet! :d

Jetzt muß ich nur noch herausfinden, wie ich das mit root-Rechten automatisch starten lassen kann! ;)

Ach ja, deine Änderungen von heute sind für Proxmox echt von Vorteil! Jetzt bleibt einem die WebGUI erhalten!
 
@gea: Ich habe gerade napp-it unter Ubuntu installieren wollen und es bleibt bei apt-get install smartmontools hängen!
Grund ist ein Popup für eine Postfix Config, welches nach lokaler E-Mail-Adresse und dem Einsatzgebiet fragt (Internet-Seite, lokal, etc.). Dein Skript zeigt das nicht an, ich habe es durch manuelle Installation von smartmontools entdeckt!
 
Hallo Leute,

eine Platte meines Raidz2-Verbundes hat defekte Sectoren. Das Problem besteht seit dem 18.12.2017, anfangs war nur ein Sector pending/uncorrectable. Mittlerweile sind es 2 Sectoren. Es besteht also Handlungsbedarf. Ich bin gerade aus dem Urlaub zurück, so dass ich mich dem Thema auch gleich widmen möchte. Mein Openmediavault3 informiert mich seither täglich mit folgenden beiden Emails:

Code:
This message was generated by the smartd daemon running on:

host name: omv

The following warning/error was logged by the smartd daemon:

Device: /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E2YJY76J [SAT], 2 Currently unreadable (pending) sectors

Device info:
WDC WD40EFRX-68WT0N0, S/N:WD-WCC4E2YJY76J, WWN:5-0014ee-20cf56a5b, FW:82.00A82, 4.00 TB

For details see host's SYSLOG.

You can also use the smartctl utility for further investigation.
The original message about this issue was sent at Mon Dec 18 01:36:30 2017 CET
Another message will be sent in 24 hours if the problem persists.


Code:
This message was generated by the smartd daemon running on:

host name: omv

The following warning/error was logged by the smartd daemon:

Device: /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E2YJY76J [SAT], 2 Offline uncorrectable sectors

Device info:
WDC WD40EFRX-68WT0N0, S/N:WD-WCC4E2YJY76J, WWN:5-0014ee-20cf56a5b, FW:82.00A82, 4.00 TB

For details see host's SYSLOG.

You can also use the smartctl utility for further investigation.
The original message about this issue was sent at Mon Dec 18 09:36:30 2017 CET
Another message will be sent in 24 hours if the problem persists.

Der Status des Pools ist immer noch in Ordnung:

Code:
root@omv:~# zpool status
  pool: mediatank
 state: ONLINE
  scan: scrub repaired 0 in 13h27m with 0 errors on Sun Dec 10 13:51:20 2017
config:

        NAME                                          STATE     READ WRITE CKSUM
        mediatank                                     ONLINE       0     0     0
          raidz2-0                                    ONLINE       0     0     0
            ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E2YJY76J  ONLINE       0     0     0
            ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E3NV2D2F  ONLINE       0     0     0
            ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E5EC1TZ9  ONLINE       0     0     0
            ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E6LA42K7  ONLINE       0     0     0
            ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E6LA4ZJ8  ONLINE       0     0     0
            ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E7HP68ZE  ONLINE       0     0     0
            ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E7XKY0DJ  ONLINE       0     0     0
            ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E7XKY1AN  ONLINE       0     0     0

errors: No known data errors

Die Festplatte ist identifiziert und eine Austauschplatte habe ich hier für alle Fälle immer herumliegen. Es kann also direkt losgehen.

Welche Vorgehensweise empfehlt ihr mir, damit der Vorgang reibungslos von statten geht? (Es handelt sich um ZoL und Debian Jessie.)


Danke für eure Unterstützung!

Gruß Hoppel

- - - Updated - - -

Code:
root@omv:~# ls -la /dev/disk/by-id/ata-WDC*
lrwxrwxrwx 1 root root  9 Nov 21 21:10 /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E2YJY76J -> ../../sdf
lrwxrwxrwx 1 root root 10 Nov 21 21:10 /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E2YJY76J-part1 -> ../../sdf1
lrwxrwxrwx 1 root root 10 Nov 21 21:10 /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E2YJY76J-part9 -> ../../sdf9
lrwxrwxrwx 1 root root  9 Nov 21 21:10 /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E3NV2D2F -> ../../sdj
lrwxrwxrwx 1 root root 10 Nov 21 21:10 /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E3NV2D2F-part1 -> ../../sdj1
lrwxrwxrwx 1 root root 10 Nov 21 21:10 /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E3NV2D2F-part9 -> ../../sdj9
lrwxrwxrwx 1 root root  9 Nov 21 21:10 /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E5EC1TZ9 -> ../../sdi
lrwxrwxrwx 1 root root 10 Nov 21 21:10 /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E5EC1TZ9-part1 -> ../../sdi1
lrwxrwxrwx 1 root root 10 Nov 21 21:10 /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E5EC1TZ9-part9 -> ../../sdi9
lrwxrwxrwx 1 root root  9 Nov 21 21:10 /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E6LA42K7 -> ../../sde
lrwxrwxrwx 1 root root 10 Nov 21 21:10 /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E6LA42K7-part1 -> ../../sde1
lrwxrwxrwx 1 root root 10 Nov 21 21:10 /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E6LA42K7-part9 -> ../../sde9
lrwxrwxrwx 1 root root  9 Nov 21 21:10 /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E6LA4ZJ8 -> ../../sdg
lrwxrwxrwx 1 root root 10 Nov 21 21:10 /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E6LA4ZJ8-part1 -> ../../sdg1
lrwxrwxrwx 1 root root 10 Nov 21 21:10 /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E6LA4ZJ8-part9 -> ../../sdg9
lrwxrwxrwx 1 root root  9 Nov 21 21:10 /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E7HP68ZE -> ../../sdh
lrwxrwxrwx 1 root root 10 Nov 21 21:10 /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E7HP68ZE-part1 -> ../../sdh1
lrwxrwxrwx 1 root root 10 Nov 21 21:10 /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E7HP68ZE-part9 -> ../../sdh9
lrwxrwxrwx 1 root root  9 Nov 21 21:10 /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E7XKY0DJ -> ../../sdk
lrwxrwxrwx 1 root root 10 Nov 21 21:10 /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E7XKY0DJ-part1 -> ../../sdk1
lrwxrwxrwx 1 root root 10 Nov 21 21:10 /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E7XKY0DJ-part9 -> ../../sdk9
lrwxrwxrwx 1 root root  9 Nov 21 21:10 /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E7XKY1AN -> ../../sdd
lrwxrwxrwx 1 root root 10 Nov 21 21:10 /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E7XKY1AN-part1 -> ../../sdd1
lrwxrwxrwx 1 root root 10 Nov 21 21:10 /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E7XKY1AN-part9 -> ../../sdd9

Den Informationen im Internet entsprechend müsste ich wie folgt vorgehen:

  1. Server herunterfahren
  2. Festplatte "/dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E2YJY76J" entfernen und durch die neue Festplatte ersetzen
  3. Server hochfahren
  4. mit "ls -la /dev/disk/by-id/ata-WDC*" die ID der neuen Festplatte ermitteln
  5. dann mit "zpool replace mediatank /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E2YJY76J /dev/disk/by-id/neue-Platte" das Resilvering anstoßen
  6. wenn das soweit geklappt hat, kann mit "„zpool status" das Resilvering verfolgt werden

Folgende Fragen habe ich nun noch?

  1. Passt die von mir geschilderte Vorgehensweise?
  2. Warum zeigt "zpool status" immer noch an, dass alles in Ordnung ist? Hängt das damit zusammen, dass der letzte scrub schon ein paar Wochen her ist?
  3. Wie lange wird das Resilvern eurer Einschätzung nach ungefähr dauern? (8x4TB WD Red, RaidZ2, 60% voll)
  4. Kann ich während des Resilverns auf den Pool zugreifen (lesen/schreiben) oder soll ich die Services lieber deaktivieren? (Mein VDR will eigentlich immer irgendwelche Aufnahmen auf den Pool schieben.


Gruß Hoppel
 
Zuletzt bearbeitet:
1. Wenn du Platz hast, kannst du auch die neue Platte zusätzlich einbauen und dann replacen und am ende die Alte ausbauen.
2. Weil noch alles in Ordnung ist. Die Platte hat ja bisher nur informiert das sie Sektoren umgelagert hat.
3. 12 Stunden bis mehrere Tage.
4. Klar kannst du den Pool voll weiter nutzen. Die zusätzlichen Zugriffe verzögern nur den resilver Prozess. Deshalb mein Vorschlag, die alte Platte noch nicht auszubauen, damit die Parity voll erhalten bleibt.
 
Danke für die Rückmeldung, läuft aber schon! [emoji6]

Es kam noch eine Meldung, dass ich force als Parameter verwenden soll, weil kein EFI-Label an der neuen Disk vorhanden ist:

Code:
root@omv:~# zpool replace mediatank /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E2YJY76J /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E4KYX7HZ
invalid vdev specification
use '-f' to override the following errors:
/dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E4KYX7HZ does not contain an EFI label but it may contain partition
information in the MBR.
root@omv:~# zpool replace mediatank /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E2YJY76J /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E4KYX7HZ -f

Code:
root@omv:~# zpool status
  pool: mediatank
 state: DEGRADED
status: One or more devices is currently being resilvered.  The pool will
        continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
  scan: resilver in progress since Sat Dec 30 20:32:23 2017
    74,0G scanned out of 18,6T at 356M/s, 15h9m to go
    9,04G resilvered, 0,39% done
config:

        NAME                                            STATE     READ WRITE CKSUM
        mediatank                                       DEGRADED     0     0     0
          raidz2-0                                      DEGRADED     0     0     0
            replacing-0                                 UNAVAIL      0     0     0
              8622885059351330634                       UNAVAIL      0     0     0  was /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E2YJY76J-part1
              ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E4KYX7HZ  ONLINE       0     0     0  (resilvering)
            ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E3NV2D2F    ONLINE       0     0     0
            ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E5EC1TZ9    ONLINE       0     0     0
            ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E6LA42K7    ONLINE       0     0     0
            ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E6LA4ZJ8    ONLINE       0     0     0
            ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E7HP68ZE    ONLINE       0     0     0
            ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E7XKY0DJ    ONLINE       0     0     0
            ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E7XKY1AN    ONLINE       0     0     0

errors: No known data errors

Nach derzeitigem Stand der Dinge dauert das Resilvern also noch knappe 15h, Tendenz eher weniger. Anfangs waren es über 400h, das geht konstant noch weiter nach unten, mittlerweile nur noch 13h.

Ich melde mich morgen wieder.


Danke und Gruß Hoppel
 
Zuletzt bearbeitet:
@gea: Ich habe gerade napp-it unter Ubuntu installieren wollen und es bleibt bei apt-get install smartmontools hängen!
Grund ist ein Popup für eine Postfix Config, welches nach lokaler E-Mail-Adresse und dem Einsatzgebiet fragt (Internet-Seite, lokal, etc.). Dein Skript zeigt das nicht an, ich habe es durch manuelle Installation von smartmontools entdeckt!

Danke, ich habe smartmontools aus dem Linux Installer entfernt.
Jede Linux Distri macht bei jedem Release etwas anders.. Weit weg von dem Solarish "tut einfach" - zumindest solange man da nur Storage auf unterstützter Hardware macht.
 
@gea: Die Frage ist eventuell bescheuert, aber erstellt napp-it die RAIDs mit den Disk-IDs oder den Mountpoints vom Linux-System?

Danke im Voraus!
 
Die Frage ist eigentlich falsch gestellt.

ZFS (und napp-it) kann alles nutzen was nach Blockdevice aussieht, egal ob Platte, Datei oder FC/iSCSI Device und auch unabhängig davon wie sich das Teil gegenüber dem OS identifiziert.

Zur Identifikation einer Platte gibt es die Möglichkeit eine Port-Nummer wie hda oder ein pci device zu benutzen. Das kann sich aber ändern wenn man eine Platte umsteckt oder eine neue einfügt. Da ZFS seine Platten im Pool abspeichert werden diese ohne ein Pool export + import nicht gefunden. Blöder Plan... (außer bei einem Homeserver mit 1,2,3 Platten)

Man kann auch die Seriennummer verwenden. Die ist aber nicht genormt und verschiedene Tools lesen das nicht immer gleich aus. Zur eindeutigen Plattenidentifikation besser geeignet aber nicht wirklich ein guter Plan.

Dann gibt es bei Platten die WWN Nummer. Das ist wie die MAC Adresse einer Netzwerkkarte eine eindeutige und genormte Kennung die der Hersteller in die Plattenfirmware schreibt. Das ist die einzig professionell brauchbare Kennung. Ich verwende die immer wenn möglich.

Unter Solarish mit aktueller Hardware wird WWN ausschliesslich benutzt. Bei Linux überlässt man es dem User unter allen Optionen auszuwählen und nutzt als Default die am wenigsten taugliche Port-Identifikation.
 
Zuletzt bearbeitet:
@gea: Danke für die Ausführungen! Dann stelle ich meine Frage anders: Bindet napp-it beim Erstellen eines RAID unter Ubuntu die Festplatten über die WWN ein?

Ich frage, weil ich keinen Bock auf degraded Pools habe wegen dem Verschiebebahnhof bei neuen Platten!
 
1. Wenn du Platz hast, kannst du auch die neue Platte zusätzlich einbauen und dann replacen und am ende die Alte ausbauen.
2. Weil noch alles in Ordnung ist. Die Platte hat ja bisher nur informiert das sie Sektoren umgelagert hat.
3. 12 Stunden bis mehrere Tage.
4. Klar kannst du den Pool voll weiter nutzen. Die zusätzlichen Zugriffe verzögern nur den resilver Prozess. Deshalb mein Vorschlag, die alte Platte noch nicht auszubauen, damit die Parity voll erhalten bleibt.

Code:
root@omv:~# zpool status
  pool: mediatank
 state: ONLINE
  scan: resilvered 2,27T in 14h25m with 0 errors on Sun Dec 31 10:58:16 2017
config:

        NAME                                          STATE     READ WRITE CKSUM
        mediatank                                     ONLINE       0     0     0
          raidz2-0                                    ONLINE       0     0     0
            ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E4KYX7HZ  ONLINE       0     0     0
            ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E3NV2D2F  ONLINE       0     0     0
            ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E5EC1TZ9  ONLINE       0     0     0
            ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E6LA42K7  ONLINE       0     0     0
            ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E6LA4ZJ8  ONLINE       0     0     0
            ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E7HP68ZE  ONLINE       0     0     0
            ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E7XKY0DJ  ONLINE       0     0     0
            ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E7XKY1AN  ONLINE       0     0     0

errors: No known data errors

So mein Pool läuft wieder. 14h25min hat das Resilvern gedauert. Deine Einschätzung war also gar nicht so schlecht. Ich hatte die "defekte" Festplatte übrigens vorher ausgebaut. Danke für den Tip, nächstes Mal werde ich die Platte für den Resilver-Vorgang noch eingebunden lassen. Übrigens haben wir gestern während des Resilverns noch einen Film von dem Pool geschaut und mein VDR hat gleichzeitig noch ein paar TV Aufnahmen drauf geschoben. Super genial, wie das alles so funktioniert! :)

Bei Linux überlässt man es dem User unter allen Optionen auszuwählen und nutzt als Default die am wenigsten taugliche Port-Identifikation.

Bin zwar kein absoluter ZoL-Experte, aber das kann man so nicht wirklich stehen lassen. Bspw. unter Openmediavault3 (Debian Jessie) wird der Pool mittlerweile per default mit "/dev/disk/by-id" erstellt. Wenn man den Pool auf der Command Line erstellt, steht es doch jedem frei direkt den Befehl mit den IDs zu verwenden und nicht mit der Port-Identifikation.

Nein, steht nicht zur Wahl
Ich nutze aus den angebotenen Linux Optionen die by-id Variante (basiert auf Seriennummer)

Die by-id Variante ist aufgrund der darin enthaltenen Seriennummer eindeutig, man benötigt also keine WWNs. ;)

Danke nochmal für eure Unterstützung!


Gruß Hoppel
 
hi
erstmal frohes neues Jahr und viel Gesundheit an alle.

ich hatte mal damals meinen router mit iptables konfiguriert, das bekomme ich hin unter debian
aber unter omnios/solaris hab ich keinen plan. bevor ich was falsch mache wollte ich mal fragen ob meine erste config soweit richtig ist.

block all
pass in quick on lo0 all keep state
pass out quick on lo0 all keep state
pass in from 192.168.111.111/24 # diesen Rechner komplett durchlassen
pass out on vmxnet3s0 192.168.111.111/24 # diesen Rechner komplett durchlassen
anschießen z.b. mit
pass in from any to any port = 2222

ports die gerbaucht werden freigeben ....

Ist die vorgehensweise so richtig oder bin ich komplett falsch ???
und muss ich vmxnet3s0 als interface nochmal definieren obwohl es als Host vorhanden ist ?
 
ipf beachtet die letzte passende globale Regel in der Liste und befolgt die erste passende quick Regel sofort.
http://www.napp-it.org/doc/manuals/ipf-howto.pdf

Am besten dafür sorgen, dass man bei Problemen die firewall lokal deaktivieren kann.
Das macht ausprobieren entspannter da man sich dann nicht aussperren kann.

Die Regel mit den Netzwerk Link-Namen sollte gehen.
In und out müssen aber durch den gleiche Link
 
Zuletzt bearbeitet:
Ich könnte mal eure Hilfe gebrauchen!

Für meinen Lifetime Media Storage würde ich gerne OmniOS einsetzen, nicht zuletzt durch das wirklich geniale napp-it. Auf diesem System brauche ich eine Windows-VM, welche meine 3 Blu Ray-Laufwerke durch Passthrough bekommt (sonst funktionieren ein paar wichtige Programme nicht korrekt) sowie 2 Linux-Applikationen (gibt es als Ubuntu-Repos). Bei den Linux-Programmen kann ich meinem Verständnis nach eine LX Zone mit Ubuntu 16.04 nutzen und die Programme wären so eingebunden wie native. Ist das soweit richtig?
Bzgl. der Windows-VM würde ich eigentlich gerne KVM nehmen, aber da habe ich keine Informationen gefunden, optische Laufwerke an eine VM durchzureichen. Ich selbst bin bei meinen Versuchen auf Proxmox gescheitert, am Ende war es immer nur dieses "Qemu DVD Drive". Mit Virtualbox hingegen geht das Passthrough, aber da finde ich nichts über die Möglichkeit der Installation auf OmniOS!

Bin für Hilfe sehr sehr dankbar!
 
Warum nicht als Basis den Type-1 Virtualisierer ESXi (Free Version 6.5U1).
Der braucht die wenigsten Resourcen, läuft direkt auf Hardware und bietet die beste OS Unterstützung von BSD über OSX, Linux, Solaris bis Windows mit angepassten Tools und Treibern (z.B. die schnellen vmxnet3 vnics)

ESXi ist erstmals oder nach Crash in wenigen Minuten eingerichtet, läuft im RAM und started von USB Stick oder Sata Platte. Vorhandene VMs lassen sich einfach importieren oder als Template (wie einen ESXi Storage Server) bereitstellen, siehe http://napp-it.org/doc/downloads/napp-in-one.pdf

ESXi is komfortabel und wird per Webinterface bedient (Die stellen gerade von Windows/Flash auf html-5 um. Die Webapplikation hat noch wenige aber unkritische Bugs)

DVD lassen sich als Hostdevice einer VM zuordnen oder per HBA/Pass-through einbinden.

Storage (OmniOS) geht perfekt per HBA pass-through bzw. mit Optane als cache-device
Performance siehe http://napp-it.org/doc/downloads/optane_slog_pool_performane.pdf
 
@gea: Weil ESXi für mich kein Bestandteil einer Vertrauenskette sein kann!

Der ESXi Server wird auf VMFS installiert, welches keinen Selbstschutz wie ZFS bietet. Auch beim Laden in die RAMDisk findet meiner Kenntnis nach kein Gegencheck oder ähnliches statt, wenn das VMFS einen schlechten Tag hat, beginnt man mit einem korrupten System! Und dieses System soll dann die Storage Appliance managen ...

Irgendwie sehe ich da keine Logik drin, aber eventuell kannst du die ja ausräumen! ;)
 
Ich seh das viel entspannter.

ESXi ist die dominierende Virtualisierungsplattform im kommerziellen Bereich.
Mit passender Hardware ist das extrem stabil.

ESXi bootet von vmfs so wie Linux meist von ext4 oder Windows von ntfs.
Ein Fehler führt da meist zum Systemabsturz. Daten-Prüfsummen gibt es da nirgends. Bei ESXi ist das Problem aber um Welten geringer als bei Linux oder Windows da es viel kleiner ist und nichts nachlädt (Läuft komplett im RAM)

OmniOS als Storage VM liegt ebenfalls auf vmfs. Das einzige was da aber nicht über ZFS Prüfsummen abgesichert ist, ist die Bootumgebung nicht aber das Solarish selber. OmniOS bootet ja von ZFS mit Prüfsummensicherung, auch wenn das eigentlich eine Datei auf vmfs ist.

Die eigentlichen Daten liegen ohnehin auf Platten die direkt von OmniOS per pass-through verwaltet werden. Bis auf crash-sicheres sync write ist aber auch ZFS auf vmfs ähnlich sicher zumindest was die Fehlererkennung angeht.

Alle anderen VMs liegen bei einem AiO System ohnehin nicht auf vmfs sondern auf ZFS das via NFS bereitgestellt wird.

Insgesamt ist es ohnehin viel fehlertoleranter und einfacher zu warten als eine Virtualisierung im Betriebssystem, egal ob KVM, Proxmox oder LX Zonen bei OmniOS da es keinerlei Abhängigkeiten oder komplexe Setups gibt und man daher nicht mal ein Backup/ Disaster Restore für ESXi oder OmniOS braucht.

Auch wenn das Bootsystem (ESXi + Omni) komplett abraucht hat man alles nach wenigen Minuten wieder am Laufen - ohne irgendein Backup. Backups braucht man nur vom ZFS Datenpool.
 
Zuletzt bearbeitet:
Auch von mir ein Lob an gea!

FreeNAS nutzt SAMBA als SMB Server. Den gibt es für jedes Linux/Unix unabhängig vom Dateisystem. SAMBA weiß also nichts von ZFS sondern gibt einfach Ordner frei - egal ob einfacher Ordner oder ZFS Dateisystem. SAMBA hat damit den Vorteil dass man Shares unabhängig von ZFS verwalten kann aber den Nachteil dass ZFS Snaps als Windows "Vorherige Version" nicht so einfach out of the Box tut und dass die ganze Rechteverwaltung auf Unix/Linux Rechten basiert. Unter FreeNAS kann und sollte man auf dem Pool zwar auch ZFS Dateisysteme für Userdaten anlegen, muss das aber nicht. Man verliert allerdings die einfache Zuordnungen von Solarish bei dem eben alles (Shares, Snaps, Eigenschaften) in ZFS integriert ist.

Ich sehe hier zumindest für _mich_ immer noch SAMBA im Vorteil - lasse mich aber gerne belehren:
- Privat verwende ich kein MS Windows.
- SMB unter Solaris & Co scheint bei den Features nicht auf aktuellem Stand zu sein. Ist das richtig?
- Als Macuser fährt man vermutlich mit SAMBA deutlich besser, da man dort (bzw. Ralph Böhme) die Eigenheiten von Apple in Verbindung mit SMB2 und SMB3 nachbaut (oder es zumindest versucht): Spotlight (Suchfunktion), TimeMachine und die von Apple an SMB angeflanschten eigenen Erweiterungen (SMB2 AAPL protocol extension - IMHO sind gerade die nicht unwichtig), z.B. Samba 4.3.4 or later configured with modules for Apple compatibility.
 
Zuletzt bearbeitet:
Verbreitete technische Lösungen im Vergleich haben stets ihre individuellen Vor und Nachteile. SAMBA ist zweifelsohne der verbreiteste SMB Server unter Linux/Unix und der mit den meisten Features/ Erweiterungen.

Ich habe ihn dennoch in meiner eigenen Umgebung (ca 60% Mac, 40%Windows) nicht in Erwägung gezogen. Es gibt SAMBA natürlich auch auf meiner Hauptumgebung Solarish. Ich seh das aber so

Wenn ich wirklich die neuesten SMB Features brauche, muss ich Windows nehmen (Ich habe mehrere Windows 2016 Server) - trotz der lausigen Storage Performance, der Unübersichtlichkeit von SS und den ständigen Reboots wegen kritischen Updates.

TimeMachine nutze ich nicht da es im Vergleich zu ZFS nichts taugt. Mac Deployment/OS Backup mache ich über CCC oder Clonezilla. Daten liegen alle zentral auf ZFS. Wer seine Daten bei uns lokal hält nutzt Timemachine per lokaler USB Platte und das interessiert mich dann nicht weiter.

Spotlight wäre ein Thema. Bei vielen Usern mit unterschiedlichen Zugriffsrechten ist Datenstrukturierung aber wichtiger. Es ist ohnehin so dass alles was Mac spezifisch ist nur auf Macs sauber läuft. Apple sorgt schon dafür.

Last but not least. Auch Solaris CIFS hat Bugs, es läuft aber extrem stabil und schnell und ist was AD Windows ACL Unterstützung und ZFS Snaps als Windows Previous Versions angeht einfach überlegen.

Ausserdem ist es nahezu idiotensicher. Keine Konfigurationsdatei - für ein ZFS Dateisystem einschalten, tut und gut. ACL-Rechteverwaltung mit ACL Vererbung dann weitgehend identisch zu Windows Server mit ntfs und wird üblicherweise von Windows aus verwaltet.
 
Zuletzt bearbeitet:
Danke für die Antwort.
TimeMachine nutze ich nicht da es im Vergleich zu ZFS nichts taugt. Mac Deployment/OS Backup mache ich über CCC oder Clonezilla. Daten liegen alle zentral auf ZFS. Wer seine Daten bei uns lokal hält nutzt Timemachine per lokaler USB Platte und das interessiert mich dann nicht weiter.
Spotlight wäre ein Thema. Bei vielen Usern mit unterschiedlichen Zugriffsrechten ist Datenstrukturierung aber wichtiger.
Ich betrachte das Thema aus der Homeuser-Perspektive mit wenigen Usern (= Familie).
Auf TimeMachine kann man IMHO ebenfalls verzichten (wobei es auch seine Vorteile hat). Spotlight ist extrem nett. Das läuft aber via SAMBA noch nicht rund und der Gnome Tracker ist dafür wohl auch nicht ideal und eher eine Notlösung.
Viel wichtiger finde ich wie geschrieben die Apple eigenen Extensions, die über vfs_fruit bei Samba nachgebaut werden, z.B. aus dem Link oben:
Faster Finder browsing:
‣ in extreme cases 5 seconds instead of 2 minutes for 5000 files in a single directory (ctdb cluster or high-latency network link)
‣ changes how the OS X client retrieves metadata
Without AAPL:
‣ SMB2_FIND to get list of files, then 5000 requests to retrieve metadata
With AAPL:
‣ Single SMB2_FIND request and response, done!
‣ Hack alert: FILE_ID_BOTH_DIR_INFORMATION structure elements repurposed
Im Context von FinalCutPro X verweist Apple selber darauf (Link ist ebenfalls oben).
A Linux Network Attached Storage (NAS) SMB volume must originate from a Linux server running Samba 4.3.4 or later configured with modules for Apple compatibility.
Code:
vfs objects = catia fruit streams_xattr


Last but not least. Auch Solaris CIFS hat Bugs, es läuft aber extrem stabil und schnell und ist was AD Windows ACL Unterstützung und ZFS Snaps als Windows Previous Versions angeht einfach überlegen.
CIFS?
Das ist doch völlig veraltet! Das entspricht AFAIK gerade mal SMBv1! Das ist bei MS AFAIK EOL und mit hoher Wahrscheinlichkeit auch bald bei Apple (sofern es das noch nicht ist).

Es ist ohnehin so dass alles was Mac spezifisch ist nur auf Macs sauber läuft. Apple sorgt schon dafür.
Das ist in der Tat ein Unding, das mir sauer aufstößt, weswegen ich u.a. aktuell mit Linux als DesktopOS am experimentieren bin (soweit es meine Zeit zulässt).
Ich habe aber Hoffnungen, dass im Fall von SMB bzw. Samba noch einiges geht.
Apple selber bietet keine Serverhardware mehr an, geschweige denn ein brauchbares ServerOS und lässt die User bei dem Thema mehr oder weniger im Regen stehen. Ich glaube nicht, dass die Samba-Leute von Apple Unterstützung erhalten. :-/
Gut, das ist ein anderes Thema und gehört hier nicht hin.
 
Zuletzt bearbeitet:
Das Problem ist weniger SAMBA oder Solaris CIFS sondern eher Apple mit OSX.
Warum zum Teufel tut das Zeug nur auf Apple Hardware sauber und wird zudem lausig bis gar nicht gepflegt.

Für manche OSX Softeware, die mit einem "normalen" SMB Share Probleme hat, würde ich mir ein Apple Dateisystem auf iSCSI überlegen - zumal at home.

ps
Unter Solaris spricht man meist immer noch vom Solaris CIFS Server, auch um SMB wegen der Namens-Ähnlichkeit zu SAMBA zu vermeiden. Solaris und OmniOS sind auf SMB 2.1. NexentaStor, wie OmniOS auch ein Illumos Abkömmling ist auf SMB3.
 
Für manche OSX Softeware, die mit einem "normalen" SMB Share Probleme hat, würde ich mir ein Apple Dateisystem auf iSCSI überlegen - zumal at home.
Ja, die Idee hatte ich früher auch schon mal sogar testweise am laufen (u.a. mit TimeMachine). Ist natürlich "super", dass bei macOS ein Initiator fehlt und man auf Dritthersteller angewiesen ist. Damals hatte ich glaube ich den von globalSAN verwendet, der kostenlos war. Kenne den aktuellen Stand nicht. Danke aber noch mal für den Tipp. Wobei das natürlich wirklich nur eine Notlösung mit Einschränkungen ist und man dann wieder beim Apple Dateisystem hängen bleibt (APFS nicht ausgereift; HFS+ tut es zwar aber ist alles andere als toll).

Das Mac-Thema halte ich jetzt aus dem Thread raus. Ist aber ein Argument, das eher für Samba spricht.
 
Zuletzt bearbeitet:
Mac Deployment/OS Backup mache ich über CCC oder Clonezilla. Daten liegen alle zentral auf ZFS.

Hi gea,

sind das dann bootfähige 1:1 Backups, in/auf Images, die auf dem Share liegen? Oder sicherst Du Nutzerdaten? Ist das mit 1GB Ethernet von der Geschwindigkeit her vergleichbar mit USB3 (zumindest nahezu)? Mich nervt ja die latent hohe SMB-Performance von macos (Sierra und HighSierra).

Merci
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh