[Sammelthread] ZFS Stammtisch

Ne, der Schlüssel läuft noch 624 Tage oder sowas^^

Hab activate 18.01pro gemacht und danach nochmal das download 18.01pro. Aber die Liste beleibt trotzdem leer.
Hmm, mal auf Gea warten

Aber danke!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Beim Login nicht. Auf der Updateseite steht dann noch was. Aber ich habe Napp-it mit dem vorherigen Key und der Maschine ID wieder freigeschaltet über deine Website. Muss ich das andere trotzdem noch machen?
 
Hallo Gea,

ich verwende seit einigen Jahren eine Pro-Version von Nappit und muss nun meinen Filer auf einer neuen Hardware neu aufsetzen.
Vorher wurde ein Backup der appliance settings, inkl. jobs, groups, users usw. nach /pool/backup_appliance durchgeführt.
Neuer Server mit OmniOS CE 151024 aufgesetzt, Napp-it installiert, Pool importiert und Restore der Settings (Pro-Version: Users->Restore Settings, alles angewählt) durchgeführt.
Alle User, Gruppen,Jobs und Logs wurden übernommen. Gearbeitet wird im Workgroupmodus.
Den Pool muss ich aber neu verrechten, die Gruppen in den Folder-ACLs werden nur als Nummer angezeigt.
Sprich, die ehemaligen Gruppen und deren Member existieren zwar alle auf dem neuen Server, müssen aber den Filessystemen des Pools neu zugeordnet werden.

Frage: ist das so im Workgroupmodus oder habe ich einen Verfahrensfehler?

Gruß Millenniumpilot
 
Ich mache sowas immer mit AD, da bleiben die Rechte beim Pool Import auf einem anderen AD Member immer erhalten da dann die Windows gid (wird von Solarish genutzt) zentral vergeben wird.

Ich hätte jedoch vermutet dass die ACL erhalten bleiben wenn man die User mit ihrer ehemaligen uid und die Gruppen behält. Eventuell muss auch der Hostname gleich bleiben.

Ansonsten ist es das gleiche Verhalten wie wenn man eine externe ntfs Platte woanders ansteckt. Da muss man auch alle Rechte neu setzen.
 
OK, danke Gea.
Hostname ist gleich. Dann ist das Verhalten wohl normal. Dachte ich mir schon.

Früher hatte ich auch ein AD zu Hause am Laufen, aber irgendwann wenn die Kinder zu Hause weniger werden, lohnt das nicht mehr.
 
Alle Rechte rekursiv auf root=only zurücksetzen und dann neu setzen.
Dank Rechtevererbung wie bei ntfs geht das Ganze ja recht schnell.
 
weis jemand, ob es für OmniOS ein fertiges Paket für APCUPSD gibt? USB-Unterstützung wäre nicht unbedingt notwendig.

Gruß Millenniumpilot
 
Hallo Gea,

das hatte ich schon gefunden, bekomme aber eine Fehlermeldung. Daher meine Frage nach einem Package für OmniOS.

Alternativ soll es noch "NUT" geben, kenne ich aber nicht und dafür habe ich auch kein Paket finden können.

Hat den niemand eine USV an seinem BareMetal OmniOS-Server?
 
Ich habe eine USV an meinen kritischen Filern aber ohne Auto Shutdown (sichert einen Strang der redundanten Stromversorgung). Grund ist der dass ich damit Peaks oder kurze Spannungsausfälle/ Einbrüche puffern möchte.

Ein Crash oder einfaches Ausschalten insbesondere wenn auch Clients, Switche etc betroffen sind ist bei ZFS wegen CopyOnWrite unkritisch. Man muss ja nicht wie bei ext4 oder ntfs nachher ein korruptes Dateisystem befürchten.
 
OK, Danke Gea.
Switch, Firewall, ESXi usw., sogar der PC meines Sohnes, hängen bei mir auch jeweils an einer USV. Aber wenn das dem Filer wirklich nichts ausmacht....
Eventuell kann ich die Firewall dazu überreden (dort läuft ein apcupsd), über SSH ein Poweroff zum Filer zu schicken.
 
Naja, das Filesystem geht nicht korrupt, aber alles was noch im Writecache im Ram steckt und nicht mit sync writes geschrieben wurde, ist weg. => Z.B. Die Files, die per SMB von einem Windows-Client reinkamen (sofern Sync Write nicht manuell per Property sync=always als erzwungen eingestellt wurde).
Und je nach Ram, Einstellungen, Netzwerkdurchsatz und was zuletzt geschrieben wurde können das durchaus mehrere Gigabytes sein.

=> Da ich diese Daten definitiv auch nicht verlieren will, wenns mir den Strom wegzieht, muss ich definitiv mit ner USV vorm Filer arbeiten. Bleibt bei mir noch das Restrisiko eines NT-Ausfalls (hab kein redundantes) oder dass das Mainboard plötzlich die Grätsche macht.

Allerdings lass ich die Kiste auch nicht per Auto-Shutdown runterfahren, da ich per Notebook und Lan-Kabel immer noch rankäme und auch nicht 24/7 fahre.
 
Zuletzt bearbeitet:
Also bei mir war nach nem Stromausfall mal eine Datei bzw. mehrere auf meinem rpool hinüber. Da der Dank ESXi-AIO auf dem VMware-Filesystem liegt ist das nicht so hübsch abgesichert und unter voller Kontrolle von solaris wie die Daten auf den RaidZX am HBA und das hat mich - weil es mir 2x passiert ist - so genervt, dass ich da jetzt eben Raid1 auch mit dem rpool fahre (was aber beim Stromausfall nicht helfen wird) und mein ESXi eben tatsächlich sicherheitshalber automatisch (APCUPSD in LinuxVM, siehe Signatur) runterfahren lasse.

Irgendwas war, warum ich APCUPSD nicht in Solaris selbst hatte laufen lassen... (wahrscheinlich war ich zu blöd, es hinzubekommen...)
 
Es gibt tatsächlich ein kleines kritisches Zeitfenster von ein paar Sekunden. Wenn da eine kleine Datei im Schreibcache landet oder eine größere noch nicht abgeschlossen ist und dann der Strom ausfällt ist die Datei nicht auf Platte oder korrupt. Eine USV kann da tatsächlich helfen auch wenn dieser Fall sehr unwahrscheinlich ist. Kritischer sehe ich kurze Spannungsschwankungen die ein OS Amok laufen lassen können und auch für die Hardware gefährlich sind. Dafür setze ich USV ein.

Ich habe aber bereits einige USV Ausfälle gehabt und das nicht wirklich viel seltener als Stromausfälle und mache deshalb USV auch nur noch in einem Zweig einer redundanten Stromversorgung (und achte bei kritischen Servern auf regelmäßigen Akku-Tausch)

- - - Updated - - -

Also bei mir war nach nem Stromausfall mal eine Datei bzw. mehrere auf meinem rpool hinüber. Da der Dank ESXi-AIO auf dem VMware-Filesystem liegt ist das nicht so hübsch abgesichert und unter voller Kontrolle von solaris wie die Daten auf den RaidZX am HBA und das hat mich - weil es mir 2x passiert ist - so genervt, dass ich da jetzt eben Raid1 auch mit dem rpool fahre (was aber beim Stromausfall nicht helfen wird) und mein ESXi eben tatsächlich sicherheitshalber automatisch (APCUPSD in LinuxVM, siehe Signatur) runterfahren lasse.

Irgendwas war, warum ich APCUPSD nicht in Solaris selbst hatte laufen lassen... (wahrscheinlich war ich zu blöd, es hinzubekommen...)

Bei einem AiO muss der Shutdown vom ESXi aus erfolgen damit der erst seine VMs und dann als letztes via vmware tools die Storage VM herunterfährt. Ein plötzliches Wegnehmens des Storage könnte für die VMs kritisch sein (Korruptes Dateisystem, die haben haben ja kein ZFS und ZFS kann ja nicht mehr für vollständige atomare Schreibaktionen garantieren)
 
Jupp, darum fährt mein von apcupsd getriggertes Script die Storage-VM als letztes herunter, bevor der Host heruntergefahren wird.
 
Hallo Gea,

danke für die Links. Schaue ich mir an und hoffe, das ich das mit Hilfe der Hinweise auf Deiner HP hinbekomme.


@besterino: wenn die Startreihenfolge der VMs richtig eingestellt ist, reicht es den Host runterzufahren. Dann fährt die Storage-VM automatisch als letztes runter, bevor der Host sich abschaltet.
Eine "manuelle" Einflussnahme auf die VMs ist daher meist nicht notwendig. Wenn VMs automatisch starten (macht die Storage-VM in der Regel), dann fährt sich auch automatisch runter.

Mein neuer Filer ist aber leider BareMetal und keine VM mit apcupsd in Sichtweite.
 
Zuletzt bearbeitet:
Hallo Gea,

ich hab jetzt nochmal geschaut. Es ist schon ein Machine ID Key. Hab jetzt spasseshalber nochmal einen Key Swap gemacht, aber auch mit dem neuen Key tauchen 18.03pro und 18.06dev nicht in der Liste auf...

Code:
   home  About   Update

request all update options for current version 18 from www.napp-it.org:
# update options for 18.xx # commalist on free and pro, info for wget free: 17.12free, 18.01free pro: 18.01pro, 18.03pro, 18.06dev wget: 18.01free 

request Pro update options for versions newer v.18.01 (valid machine id license required)
license swapped
Update or Downgrade:

running version : 18.01 Pro Feb.22.2018
free updates    : 17.12free, 18.01free 
pro  updates    : 18.01pro, 18.03pro, 18.06dev 
wget updates    : 18.01free

Napp-it basic/ stable edition is freely available and updated from time to time.
Bugfix and latest developer editions are available in the Pro-version.

For online updates of napp-it, you can download the newest version or you can activate one of the downloaded versions.
All your settings, logs, private menus and jobs are kept. This updater keeps the last 5 versions and deletes older versions automatically.

Check always the Changelog for bugs and details.
In case of problems, you can boot into a pre-update boot environment or redo a setup via wget.

Was bedeutet der Abschnitt ganz oben mit dem "request all update options..."? Was muss ich da denn machen?
 
ich wuerde bei zfs sowieso nicht auf redundantes raid gehen sondern auf mehrfache speicherung von dateien, sprich zfs soll von jeder datei 2 weitere kopieen halten. damit kannst du verschieden grosse hdds in einem storagepool nutzen ohne dass dir deshalb speicherplatz verloren geht.

Wie funktioniert das bzw. was für ein Raid Level ist das?
 
Hallo Gea,

ich hab jetzt nochmal geschaut. Es ist schon ein Machine ID Key. Hab jetzt spasseshalber nochmal einen Key Swap gemacht, aber auch mit dem neuen Key tauchen 18.03pro und 18.06dev nicht in der Liste auf...

Code:
   home  About   Update

request all update options for current version 18 from www.napp-it.org:
# update options for 18.xx # commalist on free and pro, info for wget free: 17.12free, 18.01free pro: 18.01pro, 18.03pro, 18.06dev wget: 18.01free 

request Pro update options for versions newer v.18.01 (valid machine id license required)
[COLOR="#FF0000"]license swapped[/COLOR]
Update or Downgrade:

running version : 18.01 Pro Feb.22.2018
free updates    : 17.12free, 18.01free 
pro  updates    : 18.01pro, 18.03pro, 18.06dev 
wget updates    : 18.01free

[/QUOTE]

Die entscheidende Meldung ist dass diese Lizenz bereits gegen eine Maschine ID getauscht wurde. Kann es sein, dass die Installation unter ESXi geklont wurde. Damit haben beide die gleiche Maschine ID. Der zweite Updateversuch sperrt dann diese ID. Im Ergebnis können beide Versionen nicht mehr updaten.

Bei AiO ist es wichtig dass mehrere Installationen eigenständig aufgesetzt z.B. aus dem Template bereitgestellt werden. Ein Clonen der Installation ist nicht zulässig (außer bei napp-it Free).

Siehe auch http://napp-it.org/extensions/swap.html
[I]AiO users!
If you clone a VM, the clone has the same machine-ID. If you try to swap the key multiple times, all keys are blocked.
This means that you cannot clone a VM but must deploy both from the .ova template or install from scratch. If you want to keep
jobs intact, only copy the folder /var/web-gui/_log/jobs. On problems, send an email to support@napp-it.org[/I]

Um das zu lösen, bitte beide Original-Keys mit der jeweiligen Machine-ID (muss unterschiedlich sein) an support@napp-it.org schicken.
 
Zuletzt bearbeitet:
Hmm okay. Ich hab keine Ahnung, wie man was cloned^^
War wahrscheinlich bei meinen Controllern Problemen. Aber da hatte ich die Napp-IT VM gelöscht und über dein Template neu erzeugt. Wohl aber nicht korrekt...

Aber was meinst du jetzt mit "beide Originalkeys"? Ich habe unter ESXi nur eine OmniOS VM mit Napp-IT und eine Windows VM. Ich hab noch die eMails, wenn ich einen neuen Key mit altem Key und Machine ID angefordert habe. Hilft mir das weiter?
 
Clonen geht bei ESXi ganz einfach. Entweder den VM Ordner duplizieren oder aber die VM als Template exportieren und wieder bereitstellen. Wenn es aber nur einen Key gibt, schick mir den bitte zusammen mit der aktuellem Machine ID. (Zwei Keys gibts mit der Home unlimited).

Einen Key dann nur bei einer neuen Maschine ID eintauschen. Die Online Swap Option blockiert einen Key wenn man versucht den mehrfach gegen einen neuen Key zu tauschen.
 


Hallo Gea,

wollte nur berichten, die Installation hat soweit funktioniert. Die hierfür notwendigen Schritte sind im Link von Gea und den dort aufgeführten Seiten dokumentiert.
Der APCUPSD funktioniert und kommuniziert mit der USV. Im Script apccontrol ist der Shutdownbefehl noch anzupassen, der Syntax ist bei OmniOS anders als bei Linux.

Jetzt muss ich mich nur noch in die Startscriptstruktur von OmniOS einarbeiten. init.d ist unerwarteterweise ziemlich leer. Muss den Daemon noch an der richtigen Stelle starten lassen.

Aber das Schwerste ist wohl schon geschafft.
 
Zuletzt bearbeitet:
debian9 gibts nun als lx Container. Werd die Tage mal versuchen mein debian8 mit Unifi5.6 mit debian9 mit Unifi5.7 versuchen zu ersetzen.
 
Neu in napp-it 18.06 Dev (Apr 11)

Als Anpassung an OmniOS 151026 stable im Mai (oder aktuelle Bloody)
omnios-build/ReleaseNotes.md at r151026 · omniosorg/omnios-build · GitHub

Support für vdev removal (neues ZFS Feature) im Menü Pools > Shrink Pool (OmniOS 151025+)
Support für poolweite Checkpoints (neues ZFS Feature) im Menü Snaps > Checkpoint (OmniOS 151025+) und Pool > Import

Disk Detection: ATTO HBAs (ATTO, ein Media Spezialist unterstützt jetzt Illumos)
Disk Map: korrekte Zuweisung der HBA auch wenn Platten bei gleicher Controllernummer (z.B. c0) an unterschiedlichen HBA hängen
Disk Map: DD Disk Detection für alle Platten
Disk Location: DD Disk Detection für alle Platten
 
Du könntest doch auch mal Mediatomb in nappit aus dem Menü bei "LX Zones" rausschmeißen, das passt doch da nicht rein oder hat das einen Grund?
 
Das ist ein Überbleibsel aus der Zeit als der Menü Punkt noch Add-On hieß

Das wird aber eh gerade aufgeräumt (wandert in My menus, da von meiner Seite unsupported). Auch die Service-Übersicht unter About wird künftig den Status "Offline" nur bei Core Services zeigen und andere/ unsupported nur wenn sie gestartet sind.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh