[Sammelthread] ZFS Stammtisch

Hallo napp-it-user, developer,

zum Thema Poef.

a) ich kriege den poef-pool nicht "zerstört" nachdem ich einen angelegten pool disconntected habe. Ich kriege die Meldung

Melden Sie den Pool ab und löschen die Dateien - oder werfen den Key weg!

b) diese Option der Verschlüsselung ist für dem Heimverbraucher dauerhaft nutzbar?

c) Warum werden nur fixe größen der verschlüsselten Datei vorgebenen? (5,10,20,50...800GB) und wieso kann man 500GB anlegen obwohl man nur 10GB zur Verfügung stehen?


PS: Wird SnapRaid noch weiter in Napp-IT integriert oder bleibt es so?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo napp-it-user, developer,

zum Thema Poef.

a) ich kriege den poef-pool nicht "zerstört" nachdem ich einen angelegten pool disconntected habe. Ich kriege die Meldung

b) diese Option der Verschlüsselung ist für dem Heimverbraucher dauerhaft nutzbar?

c) Warum werden nur fixe größen der verschlüsselten Datei vorgebenen? (5,10,20,50...800GB) und wieso kann man 500GB anlegen obwohl man nur 10GB zur Verfügung stehen?

PS: Wird SnapRaid noch weiter in Napp-IT integriert oder bleibt es so?

a.
POEF devices sind einfache Dateien auf einem ZFS Dateisystem/share.
Damit läßt sich ein verschlüsselter Pool ganz einfach auf beliebigen Datenträgerm mit Raid-ZFS Sicherheit sichern. Destroy bedeutet einfach Devices=Dateien löschen (per SMB share).

b.
Verschlüsselte Lofi-devices unter Solaris ist OpenSource, auch kommerziell frei nutzbar.
Lediglich der Web-UI Komfort kostet unter napp-it -bei kommerzieller Nutzung-.
Eine Änderung ist nicht geplant.

c.
Der verfügbare Platz wird nicht vorab geprüft.

d.
Ich entwickle napp-it schwerpunktmäßig Richtung "high Performance Enterprise use", nicht Richtung "low power home-media Server". Ich greife da sehr gerne die eine oder andere Anregung wie Mediatomb oder SnapRaid auf, das ist aber definitiv nicht der Schwerpunkt, weder von ZFS noch von napp-it. Etwas CLI oder "other jobs" zum Raid anlegen bleibt also bei SnapRaid angesagt.
 
Zuletzt bearbeitet:
Habe nochmal eine Frage bzgl. iSCSI und Kompression.
Angenommen ich habe eine 250 GB große Festplatte, darauf ein Pool und ZFS Volume erstellt mit LZ4 Kompression.
Als iSCSI Target wird eine Datei darauf erstellt, "darin" werden hauptsächlich sehr gut komprimierbare Daten gespeichert (z.b. Betriebssysteme)
Wenn ich jetzt also dem iSCSI Initiator eine 250 GB große virtuelle Platte präsentiere, habe ich dann trotzdem noch Platz frei (durch die Kompression) auf der echten Platte für andere Dateien?
 
Hallo Gea,

ich habe mein neues Board Supermicro X9SRL-F mit Deinem NappitToGo, passend für dieses Board gebootet.
Sata-Platten an der PCH werden zwar in der Console gemeldet in der Art "Platte an Port2 attach oder Platte an Port 3 detach", erscheinen aber nicht im WebGui, nach Kontrolle auf der Konsole werden diese mir auch nicht angezeigt, wenn ich "format" aufrufe.
Kannst Du mir bitte sagen, ob vom OmniOS in Deinem Image Platten am PCH unterstützt werden? Nach Platten am SCU frage ich da garnicht erst ;-)

Gruß Millenniumpilot
 
Habe nochmal eine Frage bzgl. iSCSI und Kompression.
Angenommen ich habe eine 250 GB große Festplatte, darauf ein Pool und ZFS Volume erstellt mit LZ4 Kompression.
Als iSCSI Target wird eine Datei darauf erstellt, "darin" werden hauptsächlich sehr gut komprimierbare Daten gespeichert (z.b. Betriebssysteme)
Wenn ich jetzt also dem iSCSI Initiator eine 250 GB große virtuelle Platte präsentiere, habe ich dann trotzdem noch Platz frei (durch die Kompression) auf der echten Platte für andere Dateien?

Die Datei ist das 'lu-file' die 'logical unit'. Die kann 0 Bytes gross sein, sofern bei stmfadm create-lu die option -s (Size) benutzt wird:
touch /dein-pool/dein-lufile && stmfadm add-view -t DEINTARGET `stmfadm create-lu -s 5p -p alias=/dein-pool/dein-lufile -p wp=false -p wcd=false /dein-pool/dein-lufile|tr -d "Logical unit created: "`

macht genau das und registriert eine view für die neue LU unter Target DEINTARGET. Der Klient kriegt dann eine Platte 5 Petabyte groß präsentiert die er partitionieren, formatieren oder wie auch immer verwenden kann. Auf dem Server wächst das lu-file, entsprechend des real benutzten Plattenplatzes, mit.
In deinem Fall wird das bis zu einer Größe, des lu-files und der andere Dateien, von max. 250 Gbyte gutgehen. Du kannst aber jederzeit dem Pool mit weiteren VDEVs erweitern falls der Platz sich dem Ende zuneigt.
 
Hallo Gea,

ich habe mein neues Board Supermicro X9SRL-F mit Deinem NappitToGo, passend für dieses Board gebootet.
Sata-Platten an der PCH werden zwar in der Console gemeldet in der Art "Platte an Port2 attach oder Platte an Port 3 detach", erscheinen aber nicht im WebGui, nach Kontrolle auf der Konsole werden diese mir auch nicht angezeigt, wenn ich "format" aufrufe.
Kannst Du mir bitte sagen, ob vom OmniOS in Deinem Image Platten am PCH unterstützt werden? Nach Platten am SCU frage ich da garnicht erst ;-)

Gruß Millenniumpilot

Sata Platten sollten eigentlich funktionieren sofern:
- im Bios AHCI mode eingestellt ist
- Die Platten eine gültige Partition aufweisen (Rollovermenü Platten - Initialisieren)

SCU wird von Illumos & Co meines Wissens noch nicht unterstützt
 
Hallo Gea,

auf den Platten war sogar ein Pool, welcher beim Anschluss an einem M1015 auch sofort gemountet werden konnte. Nur halt am PCH wurden die Platten nicht erkannt. Selbstverständlich standen die auf AHCI.


Edit: hallo Gea, muss mich entschuldigen, scheint ein Hotswap-Problem zu sein. Sind die Platten zum Bootvorgang angeschlossen, werden sie auch erkannt. Geht also prinzipiell. Im Bios steht bei jeder Platte "hot-Plug Enabled"
 
Zuletzt bearbeitet:
"Sollten" sage ich deshalb immer, weil jede Installation etwas anders ist. Ansosten unterscheidet sich napp-it To Go nicht von einer manuellen Installation. Es ist halt alles vorkonfiguriert - USB Stick einstecken und gut.

Ich selber habe das Board auch und boote OmniOS von Sata (Mit dem Datenpool aber an LSI HBAs).
Sata funktioniert also soweit. Ich habe auch von keinen generellen Problemen mit dem Board und Sata gehört.
(Wobei Datenplatten an LSI HBA Controllern wohl überall die Regel ist)

Verhält es sich denn an den 3GB genau wie an den 6GB ports?
 
Hallo Gea,

Dank für Deine schnelle Reaktion. Das mit 3g und 6G kann ich morgen gern probieren, habe auch schon von Aggressive Link Power Management als Problemversursacher lesen müssen.
Egal, dann werden es halt 3 HBA anstatt 2 ;-)
 
Hallo zusammen, ich bräuchte mal eine "zweite" Meinung.

Habe einen M1015 als HBA mit 4 x 3TB WD RED an eine OmniOS VM durchgereicht. Als Datastore für meine VM's kommt eine 120 GB SSD840 zum Einsatz. Auf der liegt auch die OmniOS VM und alle weiteren VMs.

Meine Idee war jetzt folgende:
Aus drei HDDs ein Raidz machen und die vierte als Basic Device.
Auf das Raidz sollen die Medien Dateien und die einzelne Festplatte wollte ich als NFS/iSCSI Device dem ESXI wieder zur Verfügung stellen und mehr Festplattenplatz in die zusätzlichen VM's zu bekommen, für bspw. TV Aufnahmen, Timeshift, allgemeiner Datastore für die restlichen VMs.
Die 3 Platten können dann solange schlafen, bis eine Client auf die Mediendateien zugreift. Das Basic Device soll deutlich öfter/länger bzw. 24/7 laufen.

Frage:
Macht das Szenario Sinn oder sollte ich lieber ein Raidz aus 4 Platten erstellen?

Nachteil:
Es würden dann alle 4 Platten immer laufen müssen sobald nur eine VM irgendetwas auf das Raidz schreibt.

Vorteil:
Auch das Basic Device ist vor Hardwarefehlern durch das Raidz geschützt.
Einen größeren Pool, der wohl flexibler ist.

Bin da im Moment echt umentschlossen...
 
Zunächst mal würde ich keine Datastores auf einer einzelnen HDD/SSD ablegen - es sei denn du hast ein externes Image der VMs und speicherst Dateien mit denen du arbeitest auf dem RaidZ ab (so mache ich das).
Aber auch falls das gegeben ist und falls es überhaupt möglich sein sollte in der OmniOS das RaidZ in den Schlafmodus zu versetzen (was ich nicht glaube, aber lasse mich hier gerne eines Besseren belehren): Die Ersparnis ist m.E. vernachlässigbar (wenn du mit 7 Watt Durchschnittsverbrauch pro Platte rechnest bist du pro Tag mit drei Platten bei 0,5kWh Verbrauch, selbst wenn die Platten pro Tag nur 3h laufen würdest du also in einem Monat weniger als 15kWh (oder ca. 3 EUR) einsparen.
Daher würde ich die vierte Platte mit einbinden, am besten ein Raid10 mit 2 vdevs konfigurieren und zusätzlich als Datastore nutzen (bessere IO-Performance die sich bei VMs durchaus bemerkbar machen kann)
 
Zuletzt bearbeitet:
Danke schonmal für die Antwort.

Also Spindown in OmniOS für den Raidz Pool funktioniert ohne Probleme. So komme ich bei 3 schlafenden und einer aktiven Platte (inkl. M1015 und DD Cine S2) von 47W (alle Platten aktiv) auf 38W. Die WD Reds brauchen im Betrieb ca. 4,6W.

Backups/Snapshots der VMs sollen entweder auf eine externe 3TB Platte oder halt in den Raidz...damit sollte ich dann auch gegen Ausfall der SSD geschützt sein.

Gehe ich mal davon aus, dass das Raidz mit 3 Platten 20 Std. am Tag schlafen könnte, dann sind das 20*9W = 180W/h * 365 / 1000 = 65,7 kW die ich einsparen könnte....bei 0,25ct die kW Stunde sind das 16,43€ pro Jahr...

Wobei auch sicherlich das 4-er Raidz 12+ Std. am tag schlafen könnte.... Ok ich glaube ich nehme die vierte Platte mit ins Raidz :)

Dadurch, dass ich die VMs auf der SSD habe, würde ich lieber kein Raid10 machen, sondern mit der vierten Platte das Raidz vergrößern.
 
Kann man eigentlich das Kompressionsverhältnis (Ratio) in den ZFS-Betriebsystemen die LZ4 unterstützen einstellen?
HIER kann man zwischen c0, c1, c2 zumindest auswählen, sodass die Kompression größer wird (leider fällt dadurch der Durchsatz auch extrem). Ist das bei Omnios & Co. mit LZ4 auch möglich?
 
Ich kann mich erinnern, das Saso Kiselkov (der hat LZ4 implementiert) mal mit LZ4_HC experimentiert hat, die Kompressionsraten waren aber nicht so viel besser, dafür der Durchsatz massiv schlechter, daher wurde das wieder verworfen. Konfigurierbar ist es nicht.

cu
 
Hallo,

ich bin aktuell über ein Problem im Zusammenhang mit den Platten IDs und WWNs gestolpert.
Ich verwende den IBM M1015 als HBA und meine SATA-Platten behalten ihre PlattenID, egal an welchem Port und welchen der HBAs ich diese stecke.
Testweise habe ich eine HP SAS-Disk 146GB 15k bekommen können, hier wechselt die PlattenID je nach Steckplatz. Die WWN der Platte selbst bleibt gleich, aber der Prefix ändert sich, die ersten 3 Buchstaben&Zahlen vor der 5000xxxxxxx
?

Ich mache gerade ein paar Benchmarks und habe dazu meine Seagate SAS 146GB angeschlossen
(IBM 1015, 9211-IT mode, OmniOS stable, Mai 2013):
s146.png

Die Controller-ID bleibt bei mir einheitlich auf C1
 
@gea:
Die erneuerte nappit-webseite macht einen guten Eindruck. :) TOP
Wenn du mal Zeit hast könntest du ja noch folgendes tun, wenn du es für sinnvoll hälst^^:
1) Hinzufügen von md5/sha Hashes der nappit-to-go Dateien (.zip's) auf der Webseite.

(Vielleicht kann man sogar die Installations-Dateien während der normalen "online-installation via Link" nach dem runterladen/während der installation automatisch auf "Korrektheit" prüfen via md5/sha??)
Keine Ahnung ob das bei der "nappit Installation via Link" überhaupt möglich ist, aber bei den nappit-to-go ZIP-Dateien schon :)

2) Ein Favico zu der erneuerten Webseite wäre nicht schlecht :)

PS: Wie funktioniert eigentlich die installation nur durch einen Link? Bei windows ist sowas z.B.nicht möglich oder? (Apropro, wie installiert man eigentlich nappit wenn die seite mal offline ist oder was auch immer). Kann man nappit eigentlich auch offline installieren?
 
Zuletzt bearbeitet:
napp-it und napp-it.org sind noch nicht pefekt aber "work in progress",
d.h. es wird konstant verbessert...

zum online-installer
Der lädt ein Script das dann napp-it und die benötigten Tools nachlädt und
die Server Appliance anschließend konfiguriert. Eine manualle Installation würde
auf jeden Fall den Online Installer benötigen (zum Konfigurieren und Installieren der
Tools wie Smartmontoole etc). Napp-it selber ist nur der Ordner /var/web-gui.
Der ist copy and run.

Komplett offline installieren geht also nicht. (Bis auf napp-it To Go, das ist eine
Komplettdistribution, USB Stick einstecken und alles ist bereits installiert/ konfiguriert).

Das ganze ginge unter Windows prinzipiell auch. Es fehlt aber ein CLI-Tool um einen
Installer online zu starten und zum Nachladen von Dateien aus dem Internet.
Das müsste vorab installiert werden.
 
napp-it und napp-it.org sind noch nicht pefekt aber "work in progress",
d.h. es wird konstant verbessert....

Fang doch mal bei Snapshotkommentaren Umlaute ab und konvertier sie in ae/oe/ue/ss ;)

Und @ ZFS-Unlocking in einem Rutsch hab ich noch keine Antwort gelesen, evtl. übersehen?
 
Fang doch mal bei Snapshotkommentaren Umlaute ab und konvertier sie in ae/oe/ue/ss ;)

Und @ ZFS-Unlocking in einem Rutsch hab ich noch keine Antwort gelesen, evtl. übersehen?


Umlaute-Konvertierung werde ich ohne Not nicht einbauen (in ACL extensions wars notwendig, sonst Faß ohne Boden),
ansonsten gilt eben: Immer wenn bei Mac/ Windows/ Unix/ WWW Nutzung mehr als eine Plattform dabei ist, am Besten kein Umlaute nehmen.
Es gibt sonst 1001 Arten, wo was Probleme machen kann.

Falls sich ZFS unlocking auf Solaris 11 bezieht: Es ist momentan so wie es ist (einzeln aufschließen), wer es anders braucht,
der muss eben selber ein kleines script dafür anlegen.

Desweiteren:
Ich mache gerade ein paar Benchmarks vor allem um SMB vs iSCSI und sync write vs nonsync write (ZIL Nutzung)
http://napp-it.org/doc/manuals/benchmarks_5_2013.pdf

Eines der Ergebnisse: sync write ohne ZIL: teilweise nur 10% der Performance von sync=disabled
 
Hallo Zusammen,

ich planne demächst mein altes ZFS Storage umzubauen. Zur Zeit ist es ein kleiner AMD, 2GB, SASUC8I @ IT und 14 Platten (8 am Controller und 6 am Mainboard).

Ich möchte das Storage auf einen neuere und stärke Hardware zum ziehen lassen. Geplant ist eine potenzielle Erweiterbarkeit der Disks. Momentan "könnte" 48 (4 Backplate's) Platten verwendet werden. Zusätzlich soll ein Backup System aufgebaut werden. Für das Backup System habe ich noch 3x AOC-SASLP-MV8 über.


Meine erste Idee war, zwei getrennt Systeme je mit max. 24 Platten @ 3 Controller und 16GB RAM. Die zweite Idee wäre ein System, in dass 6 Controller platz haben. So hätte ich nur ein System aber zwei Disk Arrays mit je max. 24 Platten.


Was würde ich ehr von den beiden Lösung machen? Als kleine Info, dass Gehäuse wird selber gebaubt.
 
...also die Backups in das gleiche System zu packen wäre IMHO nicht so weise.
"Do not put all eggs into the same basket!"...ein kaputtes NT kann die die ganze Box inkl. Disks frittieren...dann ist auch das Backup futsch
Stromsparend ist es auch nicht, wenn das Backupsystem 24/7 im idle rennt (Platten und Controller brauchen schon ein wenig).

Ein Board mit sovielen Slots (mit passenden Speeds) wird schon schwierig. Evtl ein S2011er oder dann ein Dual.
 
oki, dass das Netzteil etwas schrotten kann, damit hast du natürlich recht. Aber mal ehrlich, wann passiert das mal? Mir ist jedenfalls in ca. 15 Jahren kein NT kaputt gegangen.
Ok, war auch kein billig scheiss *g*.

Das Sytem läuft eh nicht 24/7, sondern nur bei bedarf (nein, es wird nicht ständig rauf und runterfahren, wenn das vlt jmd denken sollte). Klar limieren soviele Controller die Bandbreite, aber das sehe ich nicht so schlimm. Ich will ja keine Geschwindigkeitsrekorde brechen, sondern ein einen Datenmüllhalde haben.
 
Zuletzt bearbeitet:
oki, dass das Netzteil etwas schrotten kann, damit hast du natürlich recht. Aber mal ehrlich, wann passiert das mal? Mir ist jedenfalls in ca. 15 Jahren kein NT kaputt gegangen.
Ok, war auch kein billig scheiss *g*.

Das Sytem läuft eh nicht 24/7, sondern nur bei bedarf (nein, es wird nicht ständig rauf und runterfahren, wenn das vlt jmd denken sollte). Klar limieren soviele Controller die Bandbreite, aber das sehe ich nicht so schlimm. Ich will ja keine Geschwindigkeitsrekorde brechen, sondern ein einen Datenmüllhalde haben.


Ich hatte vor Jahren mal den Fall, dass mir ein ganzes Raid wegen dem Netzteil abrauchte. Auch ein Blitzeinschlag kann ähnliches verursachen. Backup im gleichen System ist nie gut, nicht mal im gleichen Brandabschnitt.

Ansonsten sind viele Controller gut für die Bandbreite. Man braucht auch keinen Expander und hat damit auch ganz sicher keine Probleme mit Sata Platten. (Ich habe selber Systeme mit max 50 Platten in einem Chenbro Case und 6 HBA Controllern). Rennt prima.

Wenn möglich würde ich aber eher auf möglichst wenige, große Platten setzen.
So ein Trum braucht wahnsinns Strom und Kühlung. Wenn soviel Platten laufen, gibts auch massig Vibrationen. Mein Chenbro ist dazu so schwer, dass man es am besten zu viert wie einen Sarg wegträgt.

Falls aber Platten > 2 TB genutzt werden sollen, unbedingt auf neuere Controller achten (LSI HBA oder IBM 1015 mit LSI 2008 Controller oder neuer)


Fertig sieht das so aus:
http://www.ico.de/details.php/categ..._name/9HE_Servergehäuse_RM_912__eATX__48x_HDD
 
Zuletzt bearbeitet:
Falls aber Platten > 2 TB genutzt werden sollen, unbedingt auf neuere Controller achten (LSI HBA oder IBM 1015 mit LSI 2008 Controller oder neuer)

im moment habe ich 2TB und 1.5TB Platten drin. Als Controller wollte ich entweder den IBM1015 oder Supermicro AOC-USAS2-L8i holen.

Ich hatte vor Jahren mal den Fall, dass mir ein ganzes Raid wegen dem Netzteil abrauchte. Auch ein Blitzeinschlag kann ähnliches verursachen. Backup im gleichen System ist nie gut, nicht mal im gleichen Brandabschnitt.

Das mit dem Blitzeinschalg oder ähnlichem hätte ich zu Hause so oder so, ob ein oder zwei getrennt Systeme. Muss ich mir nochmal durch den Kopf gehen lasse. Preislich nehmen sich beiden Wege nicht viel.
Da ich das Gehäuse eh selber baue, bin ich ja nicht gebunden wie viele Mobos am verbaut.


Aber nun noch eine andere Frage. Wie sollte man am besten, den Pool aufbauen? Aktuell sind 8 Platten (je 2TB) in einem raidz2.
Das beste wäre dann wohl ein Striped RAIDZ1/2/3 Nested Zpool oder lieber getrennte einzel RAIDZ's?
 
oki, dass das Netzteil etwas schrotten kann, damit hast du natürlich recht. Aber mal ehrlich, wann passiert das mal? Mir ist jedenfalls in ca. 15 Jahren kein NT kaputt gegangen.
Ok, war auch kein billig scheiss *g*.

...ist vielleicht ein statistisches Ereignis, Deine Erfahrung ;)
OK, dass mit dem NT war auch nur ein Beispiel.
Aber mir wurden schon so einige externe USB-/Firewire-Disks durch ne Stromspitze oder einen Stromausfall kaputtgemacht.
Der grosse Hobel ist eh entkoppelt durch ne USV.

Haben Du und/oder Deine Nachbarn in Deinem Strassenzug ne PV-Anlage aufm Dach?
Ja?...dann wird das auch bei Dir noch kommen ;)
Wenn der Wind weht und die Sonne scheint, haben die Energieversorger schon heute grösste Probleme die Netzparameter für das 400V-Netz stabil zu halten.
 
Hallo Gea,

ich habe zum ersten mal mit Deiner Replikationsextension gearbeitet. Ich versuche mich einzuarbeiten, es funktioniert soweit ganz gut.
Nun dachte ich mir, ich benötige auf dem Quellsystem keine Snaps mehr, da ich nun Backups auf der zweiten Maschine habe.
Ich habe daher auf der Quellmaschine alle Snaps gelöscht, auch die Replikationssnaps. Ich wollte mir eigendlich das Quelldateisystem von alten Leichen freihalten, daher auch das Löschen von alten Replikationsjobs. So wie es aussieht, geht das garnicht- oder?!
Jetzt läuft keine Replikation mehr, ich erhalte die Fehlermeldung: "source-dest snap-pair not found". Ist ja auch klar, wurde gelöscht.
So wie es jetzt aussieht, bekomme ich den Job also nie wieder zum Laufen und muss das Zieldateisystem komplett löschen, also TB an Backups.
Was mache ich wenn das Quelldateisystem defekt ist und ich es aus dem Replikationspartner wieder herstelle? Dann fehlt auch ein Partner. Habe ich einen Denkfehler?

btw: für den Einsatz von 10Gb-Nics zur Replikation musste ich auf beiden System zusätzlich zur Einstellung der MTU noch den Befehl ndd -set /dev/vmxnet3s0 accept-jumbo 1 absetzen. Leider überlebt dies nicht einen Neustart. Gibt es eine Stelle in OI und OmniOS (welches rc-script), wo ich diesen Befehl festsetzen kann?
 
Hallo @all,

vielleicht kann mir jemand bei dieser Sache helfen:

Ich habe heute mein System Log gechecked und dabei folgende Meldungen gefunden:

....

May 31 07:09:04 smartnas2 mDNSResponder: [ID 702911 daemon.error] ERROR: getOptRdata - unknown opt 4
May 31 07:09:35 smartnas2 last message repeated 11 times
May 31 07:27:09 smartnas2 mDNSResponder: [ID 702911 daemon.error] ERROR: getOptRdata - unknown opt 4
May 31 07:27:40 smartnas2 last message repeated 11 times
May 31 10:10:06 smartnas2 mDNSResponder: [ID 702911 daemon.error] ERROR: getOptRdata - unknown opt 4
May 31 10:11:55 smartnas2 last message repeated 23 times
Jun 1 08:45:14 smartnas2 mDNSResponder: [ID 702911 daemon.error] ERROR: getOptRdata - unknown opt 4
Jun 1 08:45:45 smartnas2 last message repeated 11 times
Jun 1 10:24:40 smartnas2 smbsrv: [ID 138215 kern.notice] NOTICE: smbd[NT Authority\Anonymous]: smartpool access denied: IPC only
Jun 1 10:29:15 smartnas2 last message repeated 909 times
Jun 1 10:29:39 smartnas2 smbsrv: [ID 138215 kern.notice] NOTICE: smbd[NT Authority\Anonymous]: smartpool access denied: IPC only
Jun 1 10:36:03 smartnas2 last message repeated 1739 times
Jun 1 10:36:10 smartnas2 smbsrv: [ID 138215 kern.notice] NOTICE: smbd[NT Authority\Anonymous]: smartpool access denied: IPC only
Jun 1 10:42:39 smartnas2 last message repeated 1739 times
Jun 1 10:42:46 smartnas2 smbsrv: [ID 138215 kern.notice] NOTICE: smbd[NT Authority\Anonymous]: smartpool access denied: IPC only
Jun 1 10:49:23 smartnas2 last message repeated 1836 times

....

Ist das ein Problem bzw. kann ich das abstellen ?

Gruß
 
@millenniumpilot

ZFS Replication arbeitet inkrementell.
Das bedeutet, dass ein neuer Quellsnapshot gemacht wird, der die Differenz zum vorherigen enthält. Dieser wird dann übertragen. (Auf beiden Seiten wird ein Snap-paar/ Startzustand mit gleichen Snapnummern vorgehalten) Ist der vorherige gelöscht oder einer der beiden, muss alles neu übertragen werden. (Daher auch die Extra-Abfrage beim Löschen von Replikations-Snaps). Falls der Platz reicht, altes Ziel-ZFS umbenennen, Replikation neu starten und erst nach Erfolg altes Ziel-Dateisystem löschen.

Autostart-Sachen gehen entweder als SMF-service oder per initscript in /etc/init.d mit einem Link in /etc/rc3.d (vgl napp-it in diesen Ordnern).
Denkbar wäre eine Erweiterung des napp-it scripts. Das wird aber bei Updates überschrieben.


@ guna
Das ist kein Problem sondern eine belanglose Meldung von mdns (Apple Bonjour/ Zeroconfig).

Banal formuliert:
Das ruft ins Netz "Hallo Ich, wer da??" und erhält da gerne auch Antworten wie ("Was willst du??, die Frage/Antwort kenne ich nicht")


Die smbsrv Meldung würde ich auch nicht als Problem sehen.
Das Dilemma der Root-Console ist eben, dass jedes Programm/Service, das als Root gestartet wird, da seine Meldungen ablädt.
Wenn man da wirklich Ruhe haben möchte, als user anmelden und per su root-Rechte holen.
 
Zuletzt bearbeitet:
Hi gea,

vielen Dank für die Info!! Jetzt weiss ich bescheid.
Am besten ich schau weg ;-)

Gruß
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh