[Sammelthread] ZFS Stammtisch

Bei meiner Neuinstallation taucht erst nach dem Importieren des Pools und anschließendem Anlegen der User folgende Meldung auf der Console:
Code:
Feb 22 17:28:30 aio smbd[604]: [ID 413393 daemon.error] dyndns: failed to get domainname
Warum erzeugt Omnios den Fehler und vor allem wie bekomm ich den wieder weg?

Beim Durchsehen der /var/adm/messages taucht dann u.a. auch folgendes auf:
Code:
Feb 22 17:28:34 aio napp-it-mhttpd[777]: [ID 732965 daemon.warning] started as root without requesting chroot(), warning only
Feb 22 17:28:34 aio napp-it-mhttpd[777]: [ID 692443 daemon.notice] mini_httpd/1.19 napp-it13 starting on aio, port 81

Wo liegt da mein Fehler?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ersteres is kein Fehler sondern allenfalls ein Hinweis.
Ursache liegt irgendwo im Umfeld DNS Einstellungen und nsswitch.conf

Zweiteres ist auch kein Fehler sondern die normale Startmeldung von minihttpd
(Webserver von napp-it)
 
Hallo,

Kann man ein Raidz2 (Raid 6) nachträglich in ein Raidz1 (Raid 5) umwandeln?

Ich habe unter OpenIndiana (Desktop) 5 Platten in einem Pool mit Raidz1 zusammen geschlossen. Bis ich die letzten 25% des Datenpools nutze werden noch Monate vergehen.

Mein Gedanke wäre nun folgender:
Ich erstelle den Pool erneut als Raidz2.
Anschließend klemme ich eine der 5 Platten vom Strom.
Trotz Beschwerde habe ich nun immer noch die Redundanz von Raidz1.
Wenn ich nun später mehr Platz benötige würde ich die geschonte Platte wieder in Betrieb nehmen und den Pool von Raidz2 in Raidz1 zurück konvertieren?!?

Ist das möglich?

Noch habe ich die Möglichkeit die Daten auf meiner alten Maschine zu sichern, so das ich es vorab testen könnte.
Falls die Möglichkeit besteht würde ich eine detaillierte Anleitung benötigen da ich auf dem Gebiet OpenIndiana und co absolutes Neuland betrete.

Gruß
Newbe
 
Meine Antwort dazu lautet:
Kann man machen - muss man nicht machen - würd ich nie machen.

Natürlich geht es ein Raid Z2 zu erstellen, eine Platte wegzunehmen und den Pool degraded zu betreiben. Ist aber wie wenn ein starker Raucher nur Bio Lebensmittel ißt um gesund zu leben - recht sinnfrei.

Ein Umwandeln des Raid ist das aber nicht sondern lediglich ein Fehler der noch zu keinem Datenverlust führt. Ein späteres Hinzufügen der Platte bringt dann nicht mehr Kapazität sondern stellt nur Z2 Sicherheit wieder her bei der 2 Platten ausfallen dürfen ohne dass die Daten verloren sind. Ich würde einfach ein paar Euro ausgeben, und ein Raid Z2 (idealerweise mit 6 Platten) anstreben

oder
mit mehreren Mirrors bzw. Z1 arbeiten. Das ist meist schneller und man kann es mit weiteren Mirrors/Z1 einfach erweitern. Bei größeren Platten oder mehr als 3 Platten würde ich aber heute kein Z1 mehr machen oder nur bei einem guten Backup (sollte immer mit geplant werden - zumindest für wichtige Daten) denn auch ein Rechner mit ZFS Pool kann sterben. Mehr ausgefallenen Platten als es die Redundanz der Raidlevels erlaubt, ein amoklaufendes Netzteil oder ein Blitzeinschlag genügt.
 
Zuletzt bearbeitet:
Ich hab mich ja extra für 5 Platten entschieden weil ich Z1 betreiben will.
Der Anteil an wichtigen Dokumenten ist gering und entspringt den Klienten wo jeweils eine Kopie verbleibt.
Für meine Zwecke denke ich reicht mir die Sicherheit.

Ich kann deinen Einwand verstehen,

denke dennoch das ich mit z2 zwar eingeschränkte Performance habe wenn ich ihn degraded und mit nicht perfekter zahl an Platten fahre aber immerhin habe ich die selbe Sicherheit die ich mit z1 anstrebe.

Bis ich den Platz brauche spare ich mir die Stromkosten, die Platte läuft nicht und wird nicht "abgenutzt".

Wenn ich dann auf Z1 upgrade und die 5. Platte hinzufüge habe ich das optimierte Verhältnis von Z1 mit 5 Platten und weiterhin das von Anfang an gewünschte Z1.
Und natürlich auch gewonnen Speicherplatz der 5. Platte da meine Kernfrage ja war: Kann ich nachträglich Z2 in Z1 „Konvertieren“
Einzige Alternative wäre das ich direkt im Z1 mit 4 Platten starte. Jedoch ist es dann nicht mehr möglich eine einzelne Platte hinzu zu fügen. Und wenn ich einen Spiegel öder ähnliches hinzufügen möchte habe ich auf jeden Fall wieder eine erhöhte Redundanz welche mir mehr wie eine Platte blockiert, was ich bis zum erreichen von 5 Platten im Raidz1 vermeiden möchte.
Wenn ich da keinen weiteren Denkfehler habe, wäre ich sehr Dankbar wenn man mir die genaue Befehlskette nach dem erstellen meines Pools zukommen lassen könnte.

Starten würde das ganze wohl demnach mit:
..................Name................Beispiel Laufwerke
zpool create Archiv raidz2 c9d0 c9d1 c9d2 c9d3 c9d4
Eine Platte entfernen
...
...
...
...

Hilfeeee
 
Zuletzt bearbeitet:
Mir ist weiterhin nicht klar, was das bringen soll. Aber bei deiner Ahnung kann ich dir eigentlich nur wünschen, dass hier keiner so nett ist und ein paar simple zpool-/zfs-Befehle postet, denn ich würd drauf wetten, dass du damit gegen die Wand fährst. Man sagt ja immer, Leuten ohne Backup sind die eigenen Daten nix wert. Aber so offensichtlicher Murks spielt schon irgendwie in der gleichen Liga.

Und: Es ist so oder so nicht möglich, einen bestehendes vdev durch Hinzufügen von Platten zu vergrößern. Wenn, dann hängst du weitere vdevs an deinen zpool, die aber dann idealerweise identisch organisiert werden wie die vorhandenen Platten. Also auch kein Mix von kaputten Z2, irgendwie hingedrehten Z1, Mirrors, oder was dir so einfällt. Oder du tauscht alle Platten reihum durch, so hab ich das gemacht. Danach den autoexpand erlaubt, und die neue Kapazität steht zur Verfügung. Ich hatte unterm Strich zuwenig Kapazität für den Wechsel von Spiegelplatten (mit NTFS) auf Z2, hab dann eine kleinere Platte als Kapazitätslimiter dazugenommen, und dann durch geschicktes Umkopieren und Tauschen doch alles raufbekommen, ohne während dem Kopierprozess die Redundanz einzubüßen. Man muss halt wissen, was man tut... :wink:
 
Was ist daran falsch ein Raid 5 mit 5 Festplatten zu betreiben?

Wenn es umzusetzen ist, ist gerade jetzt der richtige Zeitpunkt.
Der Pool ist noch leer und ich kann testen ob ich zum gewünschten Ziel gelange.
Wenn nicht, starte ich den zpool direkt mit 5 platten im z1 Modus, so wie mein Plan von Anfang an war.
Ich hätte nur gerne die Hdd erst dann in Betrieb genommen wenn der zu neige gehende Speicherplatz des Polls das verlangt.

Momentan liegen meine Daten auf einem HP Data Vault WHS 2003 ohne Raid auf vier Platten. Einige wichtige Daten sind dort doppelt auf jeweils zwei Platten verteilt.

Ich gewinne also eine Redundanz was ich erst mal als Fortschritt nicht Rückschritt betrachte.

Und ja, wie erwähnt ich lese mich gerade absolut neu ein in diese Materie.
Vielleicht könnt ihr mir ja noch einen Tipp geben wo ich meine Installationsprobleme mit entsprechender Hardware unter OpenIndiana in den Griff bekommen kann.
Wo genau ich also diesen Post integriere oder Neu setze. Läuft alles noch nicht rund.
Ganz im Gegenteil, da stelle ich mich anscheinend auch dusselig an.
 
Zuletzt bearbeitet:
Dein Pool wird nicht größer werden, wenn du die Platte zu einem späteren Zeitpunkt wieder hinzufügst.
Bis auf den gesparten Strom einer Platte und die Abnutzung, wirst du keine weiteren Vorteile bei diesem "Konstrukt" haben.
 
Also ist es einfach nicht möglich einen vollen oder zum teil befüllten zpool Raidz2 in ein Raidz1 zu wandeln ohne die Daten zuvor anderweitig zu speichern!?!
 
Was ist daran falsch ein Raid 5 mit 5 Festplatten zu betreiben?

Falsch ist daran nichts, die Wahrscheinlichkeit sagt aber, dass ein totaler Datenverlust nicht mehr extrem unwahrscheinlich ist denn bei etwas älteren Platten oder nicht ganz so zuverlässigen Modellen auch bei Neuexemplaren steigt die Ausfallrate auf beachtliche Werte - lt einer Untersuchung bei backplaze auf über 10% pro Jahr.

Bei 5 Platten hat man dann eine 50% Wahrscheinlichkeit pro Jahr dass eine Platte ausfällt. Da dann alle anderen beim recht lange laufenden Rebuild besonders beslastet werden, ist ein Totalverlust durchaus real.

Daher:
Bei vielen Platten, besonders bei großen Platten würde ich kein Raid-5 mehr machen. Ich selber hatte in der Vergangenheit bereits mehrere Totalverluste bei Raid-5. Selbst bei Raid-6 bin ich einmal nur knapp daran vorbeigekommen. Ich habe zwar backups die sind aber halt immer "von gestern". Es hat schon Sinn, dass ZFS jetzt sogar Z3 anbietet (3 Platten dürfen ohne Datenverlust ausfallen).

siehe
Backblaze Blog » How long do disk drives last?

ps
Ein Umwandeln eines vdevs in einen anderen Typ (Z2 -> Z1) ist bei ZFS generell nicht möglich. Auch können Pools nicht verkleinert werden sondern nur wachsen und das nicht um einzelne Platten sondern nur über weitere vdevs - dann aber praktisch bis unendlich. Big Data läßt grüßen.
 
Zuletzt bearbeitet:
Also ist es einfach nicht möglich einen vollen oder zum teil befüllten zpool Raidz2 in ein Raidz1 zu wandeln ohne die Daten zuvor anderweitig zu speichern!?!

Nein, weil das im ZFS-Jagdrevier keiner machen würde. Nichtmal auf die Idee kommen würde.


//da war ja ne neue Seite auf, der Verständlichkeit halber ergänzt
 
Zuletzt bearbeitet:
Edit: Eigentlich könnte ich das Post ja auch für eine Frage nutzen. ;)

Was ist eigentlich der Vorteil eines seperaten Controllers wie dem (IT-geflashten) Intel M1015 gegenüber den Controllern im Chipsatz? HBA sollte doch auch der Chipsatz-Controller können, oder?
 
Zuletzt bearbeitet:
Was ist eigentlich der Vorteil eines seperaten Controllers wie dem (IT-geflashten) Intel M1015 gegenüber den Controllern im Chipsatz? HBA sollte doch auch der Chipsatz-Controller können, oder?

Die die ihn einsetzen machen das entweder weil sie mehr Anschlüsse benötigen oder sie beispielsweise virtualisieren mit Exsi und man da nen zweiten Controller braucht wenn man einen durchreichen möchte (sonst hat Exsi ja keinen mehr für die Datastores, weil USB ist nicht). Hat nicht direkt einen "Vorteil" sondern es geht anders halt nicht und man braucht einen zweiten.
 
Zuletzt bearbeitet:
Bei meiner Neuinstallation taucht erst nach dem Importieren des Pools und anschließendem Anlegen der User folgende Meldung auf der Console:
Code:
Feb 22 17:28:30 aio smbd[604]: [ID 413393 daemon.error] dyndns: failed to get domainname
Warum erzeugt Omnios den Fehler und vor allem wie bekomm ich den wieder weg?


Ersteres is kein Fehler sondern allenfalls ein Hinweis.
Ursache liegt irgendwo im Umfeld DNS Einstellungen und nsswitch.conf

ich erlaube mir nochmals auf obiges Thema zurück zu kommen.

Die Installation habe ich genau nach wiki vorgenommen.
Code:
# cp /etc/nsswitch.conf{,.bak}
# cp /etc/nsswitch.{dns,conf}
# echo 'nameserver 192.168.2.1' >> /etc/resolv.conf
Erst wenn der SMB-Service enabled wird, kommt die Meldung 'smbd[604]: [ID 413393 daemon.error] dyndns: failed to get domainname',
wenn SMB disabled wird, kommt beim Restart Keine mehr.

Im Netz hab ich das hier noch gefunden: OpenSolaris Distribution Community Group discussion
Aber auch wenn ich die Änderung, wie sie Andre Lue geschrieben hat durchführe ändert sich nichts.

Ich würde gerne dieses Problem gelöst haben, da der Server viel schneller zur Verfügung steht und die VMs gestartet werden können.
Hat mir noch jemand irgend welche Lösungsvorschläge?
 
Kann es vielleicht sein, dass du in der /etc/resolv.conf einen oder mehrere Nameserver eingetragen hast, die auf VMs sind und daher erst später nach Start des ESXi zur Verfügung stehen und die Probleme daher verursacht werden? Ist nur eine Idee, müsstest du mal testen falls das bei dir zutreffend sein sollte.

- - - Updated - - -

Oder search domain, die auf einer VM ist, ich denke du weisst auf was mein Hinweis hinaus läuft, typisches Ei - Henne Problem...

- - - Updated - - -

Hmm ich glaube das hat eher was mit CFIS zu tun, nach einigem googlen.

Versuch mal das oder die Shares im Webinterface unter ZFS Filesystems zu unsharen und danach wieder sharen:

SMB auf Sharenamen klicken zum unsharen und danach wieder auf off klicken und wieder sharen.
 
Zuletzt bearbeitet:
Kann es vielleicht sein, dass du in der /etc/resolv.conf einen oder mehrere Nameserver eingetragen hast, die auf VMs sind und daher erst später nach Start des ESXi zur Verfügung stehen und die Probleme daher verursacht werden? Ist nur eine Idee, müsstest du mal testen falls das bei dir zutreffend sein sollte.

Nein, nur ein Eintrag vorhanden, so wie ich oben angegeben habe.
# echo 'nameserver 192.168.2.1' >> /etc/resolv.conf

Oder search domain, die auf einer VM ist, ich denke du weisst auf was mein Hinweis hinaus läuft, typisches Ei - Henne Problem...

Auch nein, Omnios ist die erste und bisher einzige VM, die auf dem neu installierten ESXi 5.5 drauf ist.
Also kann Omnios nur die Henne sein, da dieses Huhn noch keine Eier gelegt hat. :rolleyes:

Hmm ich glaube das hat eher was mit CFIS zu tun, nach einigem googlen.

Versuch mal das oder die Shares im Webinterface unter ZFS Filesystems zu unsharen und danach wieder sharen:

SMB auf Sharenamen klicken zum unsharen und danach wieder auf off klicken und wieder sharen.

So denke ich auch.
Hab schon mehrfach bei den FS CIFS deaktiviert und dann war die Meldung weg. Sie kommt auch nicht mehr, wenn ich nur den CIFS-Server disable.
In der /etc/nsswitch.conf hab ich die 'mdns' Einträge schon entfernt - bringt aber auch nicht das gewünschte Ergebnis.
Das komische ist, dass ich auf einem anderen Server noch OI157a7 laufen habe, dort gibts keine solche Meldung. Ist der Entwicklungsstand zwischen OI157a7 und Omnios so unterschiedlich?
 
Ich meinte nicht den kompletten CIFS Server disablen, sondern nur die Shares unsharen und danach wieder neu sharen, versuch das bitte mal.
 
Ich meinte nicht den kompletten CIFS Server disablen, sondern nur die Shares unsharen und danach wieder neu sharen, versuch das bitte mal.
DONE.

1. Erst alle Shares smbshares=off über napp-it gesetzt, CIFS Server war enabled, dann einmal 'init 6' danach CIFS Server war disabled - ersten Share smbshares=name$ gesetzt, CIFS Server wieder enable und Hinweismeldung kommt sofort auf der Console.

2. Erst alle Shares smbshares=off über napp-it gesetzt, CIFS Server war enabled, KEIN Neustart CIFS Server bleibt enabled - ersten Share smbshares=name$ gesetzt, KEINE Hinweismeldung auf der Console - aber nach 'init 6' kommt die Hinweismeldung.
 
Hallo,

könnte es evtl. an einem (fehlenden) Eintrag in der /etc/hosts liegen? Hier liegen auch des öfteren Probleme verborgen, die ähnliche Meldungen bewirken können.
 
Dann wäre die Meldungen auch da, wenn der CFIS Server nicht läuft...

Also das verstehe ich nicht. Wieso sollte die Fehlermeldung dann trotzdem kommen? Der Fehler wird ja vom smbd ausgegeben und der läuft ja nicht.

Ich habe aktuell kein OmniOS am laufen, aber weiß, dass bei der alten Version r151006 ein Eintrag in der hosts Datei noch nötig war, damit einige Fehlermeldungen verschwinden.
 
Hallo,

könnte es evtl. an einem (fehlenden) Eintrag in der /etc/hosts liegen? Hier liegen auch des öfteren Probleme verborgen, die ähnliche Meldungen bewirken können.
Ich hab folgende Einträge in hosts:
Code:
::1		localhost
127.0.0.1	localhost loghost
127.0.0.1	aio
192.168.1.10	aio
192.168.1.11	aio
Ich richte mir gleichzeitig auch noch einen Backupserver ein und da war/ist es genauso, in dem Moment wo CIFS für ein FS aktiviert wird, kommt diese Meldung auf der Console.
Dies aber nur bei Omnios - bei Oi 151a7 nicht.

---------------------------
Bisher war ich immer der Meinung, dass Snapshots keinen oder so gut wie keinen Speicher verbrauchen.
3-way Mirror mit 2TB Platten = 1,81 TB minus 184 GB FRES ~ 1,6 TB - 532 GB Daten liegen auf dem Pool und 'zfs list' zeigt mir gerade noch 224 GB freien Speicher an. Fast 850 GB wurde von Snapshots belegt.
Die Snaps laufen aber auch schon seit 3 Jahren auf. :angel:
Snaps gelöscht und alles wieder fein.

---------------------------
Ich brauch mal euren Rat.
Omnios soll auf zwei Samsung 840 120 GB SSD im Mirror installiert werden. Die 120 GB nur für das BS zu nutzen wäre reine Verschwendung. Also spiele ich mit dem Gedanken Omnios auf einer 30 GB Partition zu installieren und eine weitere Partition von 60 GB für L2ARC. Der Rest bleibt als Reserve für die SSD. L2ARC natürlich dann auch im Mirror.
Auf den Server wird hauptsächlich lesend und wenig schreibend zugegriffen.

Wie ist eure Meinung dazu? Bringt es überhaupt was? Sinnvoll?
 
Bisher war ich immer der Meinung, dass Snapshots keinen oder so gut wie keinen Speicher verbrauchen.

Das gilt nur direkt nach dem Erzeugen des Snapshots. Sobald Daten verändert werden, belegen die Änderungen natürlich Platz. Das gilt wegen der CoW-Eigenschaft auch dann, wenn man z.B. eine Datei an Ort und Stelle nochmal mit sich selbst überschreibt.
 
---------------------------
Ich brauch mal euren Rat.
Omnios soll auf zwei Samsung 840 120 GB SSD im Mirror installiert werden. Die 120 GB nur für das BS zu nutzen wäre reine Verschwendung. Also spiele ich mit dem Gedanken Omnios auf einer 30 GB Partition zu installieren und eine weitere Partition von 60 GB für L2ARC. Der Rest bleibt als Reserve für die SSD. L2ARC natürlich dann auch im Mirror.
Auf den Server wird hauptsächlich lesend und wenig schreibend zugegriffen.

Wie ist eure Meinung dazu? Bringt es überhaupt was? Sinnvoll?

Das geht und zwar sehr gut.
Du kannst die bd. 30GB Partitionen als Mirror für rpool verwenden und die bd. übrigen als Stripe für L2ARC, da brauchts keinen Spiegel.

cu
 
Das gilt nur direkt nach dem Erzeugen des Snapshots. Sobald Daten verändert werden, belegen die Änderungen natürlich Platz. Das gilt wegen der CoW-Eigenschaft auch dann, wenn man z.B. eine Datei an Ort und Stelle nochmal mit sich selbst überschreibt.
Danke für die Erklärung.

Das geht und zwar sehr gut.
Du kannst die bd. 30GB Partitionen als Mirror für rpool verwenden und die bd. übrigen als Stripe für L2ARC, da brauchts keinen Spiegel.

Na das hört sich doch gut an. :)

Wenn das sehr gut geht, dann hab ich doch noch eine Nachfrage.
Bin gerade dabei meinen all-in-one Server mit ESXi5.5 neu auf zu setzen. Auch zwei Samsung 120 GB SSD.
Auf SSD0 ist ausschließlich ESXI5.5 installiert und auf SSD1 ausschließlich Omnios als VM. Auf SSD0 ist noch eine virtuelle Festplatte angelegt, welche als Mirror für rpool genutzt wird. Beide SSDs haben noch ca. 100 GB frei.
Was spricht dagegen, auf beiden SSD eine virtuelle Festplatte mit je 70 GB anzulegen und diese Beiden dann Omnios bzw. dem Datenpool als L2ARC zur Verfügung zu stellen?
Der a-i-o könnte von dem L2ARC am Meisten profitieren, da dort später mal mehrere VMs drauf laufen sollen.
 
Zuletzt bearbeitet:
Kann man den LSI 9240-8i standardmässig als HBA (für ZFS) nutzen oder muss man da noch die IT-Mode-Firmware des 9211er flashen? Wie siehts mit der Kompatibilität zu UEFI-Boards aus?
 
@layerbreak, da sollte nichts gegen sprechen.wobei 2x100GB als L2ARC schon recht viel ist. Dann lieber aufteilen und z.B. 2x8GB als ZIL und 2x16GB als L2ARC verwenden.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh