[Sammelthread] ZFS Stammtisch

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ZFS + Linux ist halt... frickelig. Wie's mit BSD aussieht, weiss ich allerdings nicht.

Das kann ich so nicht bestätigen. Wenn’s frickelig ist, liegt’s wie immer an Layer 8 (an der Person vor dem Bildschirm).

Mein ZoL läuft unter Openmediavault (erst 3, nun 4) seit mittlerweile knapp 2 Jahren ohne irgendwas. Ok, neulich war eine Platte defekt. Aber da kann zfs ja nichts für. Im Gegenteil, das Resilvern hat hervorragend geklappt. ;)

noch besser funktioniert zfs, wenn man sich auch ein wenig einliest...

Und hör endlich auf auf dem Pool im root rumzupfuschen, das macht man unterhalb des Pools!
Defaults verändern, ohne zu wissen was sie bewirken und hinterher vergessen machts nicht leichter!

Jo, sehe ich genauso! Erst den Pool erstellen und die Default-Werte definieren, dann die Filesysteme erstellen und für jedes Filesystem die spezifischen Parameter definieren und dann die shares (smb/nfs) einrichten.

Mir war gar nicht klar, dass man einen Ordner direkt im Pool erstellen kann, also quasi ohne Extra-Filesystem...

Gruß Hoppel
 
@Hoppel: gebe Dir da völlig recht. Bei Solaris hat nur Layer 8 nicht so viele Möglichkeiten/Einsatzfelder schon bei den Standardfunktionen zuzuschlagen. ;)
 
Ok, mit Solaris kenne ich mich nicht aus. Bei mir läuft mittlerweile schon über eine Dekade irgendwo immer irgendeine Linux-Distri. Mittlerweile bin ich von Debian auch echt wieder ziemlich angetan. Mit den Backports hat man neben der Debian Stabilität auch noch einen aktuellen Kernel (4.14). Was braucht man mehr...

Das meiste läuft bei mir auf der Command Line ab. Allerdings habe ich die Konfiguration meines RAID-Z2 fast ausschließlich über das Openmediavault WebInterface vorgenommen.

Gruß Hoppel
 
Ich würde eine halblebige Platte als Ursache vermuten.
ZFS wartet per default bis zu 60s auf Daten einer Platte. Wenn eine Platte Probleme hat kann das dazu führen dass die Platte noch nicht aus dem Pool geworfen wird obwohl sie massive Performanceprobleme bereitet.

Ich würde mal die Auslastung der Platten (iostat, wait etc) vergleichen. Fällt eine negativ auf, die dann tauschen.


So, ich weiß, ist schon eine Weile her, aber kannst Du mir bitte nochmal mit zwei Wörtern mehr erklären, wie ich das kontrollieren kann? Der Sachverhalt an sich ist mir klar, ich kanns nur nicht umsetzen.


Scrub hat übrigens gefühlt 50% Performance gebracht, aber wenn ich jetzt einmal dabei bin, mach ichs ordentlich. Wenn sich nachher rausstellt, dass ich schnellere Platten oder irgendeine Art anderes Caching brauche, dann beschäftige ich mich damit.
 
@Fimbultyr: ich trage inhaltlich nichts bei. Aber Du solltest Dich mal fragen, was Du mit Deiner Signatur bezweckst. Du beschimpfst alle hier mal im Generalrundumschlag, die Dir doch helfen sollen. Auch der Spoiler ändert daran nichts. Und amüsant ist das auch mit viel Wohlwollen nicht. Mal so gar nicht.
 
Das ist ein Zitat aus einem eigentlich sehr lustigen Lied. Mir war ehrlich gesagt nicht die Idee gekommen, dass das jemand auf sich beziehen kann/will...
 
Die napp-it Localisation Funktion ist in
"/var/web-gui/data/napp-it/zfsos/03_System and network=-lin/02_HW and Localization/02_Localization/action.pl"

Ich guck mal ob ich da was finden kann.
Gestern ist mir noch aufgefallen wenn ich die Zeitzone ändere über die CLI mit dem Befehl "tzselect" dies in Nappit selber aber keine Auswirkungen hat. Sprich nappit zeigte weiterhin UTC als eingestellte Zeitzone an obwohl ich über tzselect in Europa/Berlin umgestellt habe. Die angezeigte Zeit war aber weiterhin UTC+1
 
Zuletzt bearbeitet:
Hi,

nachdem ich mich jetzt mal ein paar Stunden mit NappIT beschäftigt habe, wollte ich nachfragen ob meine nachfolgende Idee sinnvoll ist. Den ersten Pool habe ich erstellt und per NFS in ESXi eingebunden. Auf diesem Pool sollen nun meine VM laufen. Macht es nun Sinn für jede dieser Maschinen ein neues Filesystem zu erstellen und dieses dann jeweils einzeln in ESXi einzubinden? Meine Überlegung dahinter wäre gewesen,bei den Snapshots flexibler zu sein, zwecks Backup etc. Macht das so Sinn?wird es in ESXI dann nicht vll zu "unübersichtlich"? oder gibt es andere Vorschläge dazu?

Vielen Dank schonmal,

tekken321

PS: gibts nen Unterschied zwischen "fertigen" NappIT als AIO Image oder selbst aufsetzen?
 
Also:

1. mach am besten nichts direkt auf dem Pool, sondern alles in Filesystems/Datasets.

2. eine Freigabe, also ein Dataset reicht normalerweise.
 
@besterino, ich hab auch den Pool ein Filesystem erstellt und auch in ESXi gemountet. Die Frage war bloß ob eines reicht oder lieber für jede VM ein eigenes auf dem Pool. Hoffe es ist so verständlicher.

Gesendet von meinem SM-G935F mit Tapatalk
 
Bei iSCSI würde man je VM ein Target anlegen.
Der Vorteil von NFS ist ja gerade dass man ein Share für alle VMs anlegen kann (Keep it simple) und trotzdem für jede VM auf Snaps zugreifen kann (am Einfachsten per SMB und Windows Previous Versions)
 
Würde das dann nicht extrem unübersichtlich werden? Weil selbst @home hat man schnell mal 10 - 15 VMs.
 
Warum?
Eine VM = ein Ordner auf NFS (SMB) und Snaps sind dann "SMB Previous Versions" in diesem Ordner
 
Kann es sein dass man die ACLs der SMB Shares nicht mehr über Windows verändern kann wenn SMB1 deaktiviert ist? Ich kann mir zwar die angelegten Nutzer noch anzeigen lassen, doch will man dann die Rechte setzen kommt eine Fehlermeldung dass er den Nutzer nicht finden kann. Verändern von bestehenden Einträgen geht natürlich, aber neue hinzufügen geht nicht. Bin natürlich als "root" angemeldet, dennoch funktioniert es nicht (mehr).
 
Dann habe ich dich wohl falsch verstanden. Für mich liest sich deine Aussage so, als das du für jede VM eineinzelnes iSCSI Target einrichten möchtest.

Ein Key Feature von ZFS sind Snaps, Clone und Rollback. Bei einem Shared Service wie NFS kann man auf einzelne Dateien/VMs in einem Snapshot zugreifen und die gezielt wiederherstellen/ zurücksetzen.

Legt man aif einem iSCSI LUN mehrere VMs ab, so geht genau das verloren. Das Wiederherstellen einzelner VMs aus einem ZFS Snap ist nicht mehr möglich, lediglich das ganze LUN läßt sich mit allen VMs zurücksetzen.

Ja, ich würde daher je VM ein Target nutzen - würde, ich nehme ja unter anderem deshalb NFS und nicht iSCSI.

- - - Updated - - -

Kann es sein dass man die ACLs der SMB Shares nicht mehr über Windows verändern kann wenn SMB1 deaktiviert ist? Ich kann mir zwar die angelegten Nutzer noch anzeigen lassen, doch will man dann die Rechte setzen kommt eine Fehlermeldung dass er den Nutzer nicht finden kann. Verändern von bestehenden Einträgen geht natürlich, aber neue hinzufügen geht nicht. Bin natürlich als "root" angemeldet, dennoch funktioniert es nicht (mehr).

Ja, kann sein.
 
Mir ist aufgefallen dass unter "Pools" in der Spalte "ATIME" überall ein "-" steht außer bei rpool da steht "off".
Habe jetzt bei einem weiteren Pool ATIME über die CLI auf "off" gesetzt, allerdings zeigt nappit für den Pool immer noch "-" an.
 
Die Option habe ich extra für rpool auf USB eingefügt.
Für Datenpools halte ich das weniger interessant da man hier atime wohl eher auf Dateisystemebene einstellen würde.

Aber ich kann ja den aktuellen Wert in der nächsten Release anzeigen.
 
Also ich habs auf einem SSD Pool deaktiviert, bisschen die SSD schonen;) Weil brauche atime dort eh nicht, denke mal VMs und alles kommt auch mit atime=off klar?
Hat mich nur verwundert wieso man es bei rpool ändern kann und bei den restlichen "-" steht und es da nicht konfigurieren kann und auch nicht angezeigt wurde wenn man es manuell setzt.

Weil meine 2 LX Container (unifi und jdownloader2) schreiben gut 7GB pro Tag im "idle". In meinen Augen ist das recht viel, aber unifi logt auch alles mit.

edit: Mediatomb ist im Menü unter "LX Container" gelistet. Das passt doch nicht zusammen?;)
 
Zuletzt bearbeitet:
Ich habe zwei alte DL380g5 mit je 8 SAS-Platten am P400 RAID-Controller. Der P400 kann die Disks nicht einzeln durchreichen und ist scheinbar auch nicht auf HBA zu flashen.

Zur Nutzung der Proxmox Replikation würde ich gerne ZFS verwenden. Könnte mir jemand die Nachteile dieser beiden Ansätze erläutern?
1. schlechteste Wahl: RAID5/6, ZFS kann keinen Einfluss darauf haben, auf welcher Platte Datan abgelegt werden, somit nur als Simple-Volume zu gebrauchen
2. einzig andere Wahl: pro Platte ein RAID0, dann hat ZFS zumindest den Zugriff auf Plattenvolumes, aber keinen Zugriff auf Sektoren. Wie dramatisch ist das?

Viele Grüße
Martin
 
Ja. Auch Booten mit der USB geht problemlos. Allerdings alles immer mit Solaris 11.3, nicht OmniOS.

Das Problem hatte ich mit der USB HDD auch mit Windows schon. Glaube habe das Problem erkannt, es scheint der SES Treiber zu sein, den diese HDD benutzt.
Der Microserver G7 interesiert in dem Zusammenspiel auch nicht was man als bootplatten vorschlägt, er versucht es immer wieder von der USB Platte zu booten, selbst wenn man einstellt er soll ausschließlich von der internen SSD booten und von nichts anderem, erst die komplette Deaktivierung von bios usb bewegt ihn dazu davon abzusehen. Die Platte taucht auch beim Bootvorgang schon als 2 Geräte auf, einmal WD SES und einmal die HDD selbst.

Solche Platten mit SES Treibern scheinen also wohl eher eine schlechte Wahl zu sein. Bei meinem alten Desktop PC konnte ich auch nie booten damit, erst mit Umstieg eines Laptops mit UEFI Bios konnte ich sie dauerhaft dranlassen und musste sie beim booten nicht abstöpseln.
 
Zuletzt bearbeitet:
Ich überlege gerade wie ich meine Ordnerstruktur möglichst sinnvoll gestalten könnte und wollte fragen ob es sinnvoll ist, z.b. einen Pool "data" zu haben, darauf ein Filesystem "media" und dieses wieder zu unterteilen in z.b. "movies" "pictures" etc., oder nur ein Filesystem "media" und dann z.B. unter Windows eigene Ordner anzulegen?
Ich müsste je mehr Filesysteme ich habe, ja flexibler im Sinne von Snapshots zu sein? z.B. nur "movies" anstatt das ganze "media" Filesystem. Ausserdem ja auch flexibler bei Rechtevergabe?oder lieber einmal "media" und den Rest dann über SMB-Freigaben regeln?

Muss ehrlich gestehen ich Blick da noch nicht 100% durch.

Vielen Dank schonmal
 
Wenn Du unterschiedliche Dinge machen willst wie andere Snap-Zyklen, andere Berechtigungen, Replikationszyklen o.ä. —> jeweils eigenes Dataset, nicht nur Unterordner.
 
Zuletzt bearbeitet:
@besterino, das sieht aus als wäre es das AiO was ******* da installiert hat
@******* um auf die Weboberfläche zugreifen zu können, müsstet du die IP-Addresse rausfinden, d.h. gib mal auf der Konsole "ifconfig -a" ein und schau was dabei rauskommst.
 
Eingabe in Browser in dieser Form? http://ip:81 ? ansonsten würde ich echt empfehlen das obige verlinkte Handbuch einmal durchzuschauen, und ich komme auch von Windows, hab eig auch nur mit GUI gearbeitet, aber muss sagen es ging echt flott zum aufsetzten ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh