[Sammelthread] ZFS Stammtisch

Okay Danke, @besterino! Gibt‘s da auch was mit USB3.1 (also 2. Gen.)? Bei der Suche nach Renesas bin ich erstmal nur auf USB3.0 gestoßen (was eigentlich auch erst mal ausreichen würde). Da ich aktuell den USB3.0 Onboard Comtroller meines Boards nicht anderweitig brauche, ist es für mich aber auch erst mal okay, wenn der durchgereicht bleibt.

Mit ESXi habe ich bislang keine Probleme. Die Installation hatte sich bei mir angeboten, da ich sowieso neu installieren musste und ein Update von 6.5 angestanden hätte. Da bin ich gleich auf 7.0 gegangen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hi zusammen,
ich lerne grad das Laufen mit ZFS und wollte nachfragen ob das irgendwie Sinn ergibt, was das 'autotune' bei FreeNas so eingestellt hat.

Vor allem mit den ARC Settings kann ich absolut gar nichts anfangen.
 

Anhänge

  • autotune.JPG
    autotune.JPG
    90,8 KB · Aufrufe: 120
EDIT: Ok, hat sich erledigt. Hatte vorher noch keine Snapshots benutzt^^'
 
Zuletzt bearbeitet:
Denke Aufgaben>Snaps ist auch ohne Lizenz dabei.
Sonst per cron und console. Denke aber, das ist dabei.
 
Ja, dem ist so (Aufgaben > Snaps).
Autojob einschalten nicht vergessen: Aufgaben > Autoservice z.B. auf alle 5 Minuten stellen
 
Hi,
wie sollte man eigentlich bei ZFS die datasets "richtig verwenden"?

Ich habe aktuell ein Dataset "BACKUP", da drin habe ich dann normale Ordner erstellt und diese dann via NFS freigegeben.
Dachte mir das passt schon so, separate Snapshots oder Optionen brauche ich nicht.

Normalerweise würde man die Ordner auch alle als Datasets anlegen, oder? Und dann halt das Dataset via NFS freigeben?
Hätte man nix verloren, sondern nur gewonnen wenn man es so macht.

Sehe ich das richtig?
 
Jain. Ich wäre mit verschachtelten Datasets vorsichtig, also Dataset statt Unterordner in einem anderen Dataset. Die verhalten sich manchmal (Replikation, Rechte usw.), naja, sagen wir: "unerwartet" - bzw. man sollte sich vorher wirklich genau informieren, wie das genau geht was man will. Für den Einstieg würde ich daher grds. Datasets auf "root"(oberste Pool)-Ebene empfehlen und darin dann nur normale Ordner/Unterordner.

Macht's m.E. einfacher (und auch übersichtlicher) bei Replikation, Snaps usw.
 
Kurze Frage: Platte mit verschlüsseltem ZFS-Pool liegt vor. Dort sind nur testweise Daten gelandet, die Platte soll zurück an den Händler gehen. Gehe ich recht in der Annahme, dass es reicht, die Platte einfach wieder mit NTFS zu formatieren (Auslieferungszustand)? Durch die ZFS Verschlüsselung sollte ja nix lesbar/rekonstriuerbar sein. Oder ist sicheres löschen mit mehreren Durchgängen nötig?
Danke vorab!
 
Ich würde sagen da brauchst du nichts großartiges zu machen.
Das ist ja Sinn und Zweck einer Verschlüsselung. Sonst könnte man's ja gleich lassen. :d
 
So sehe ich das auch. Die Frage ist, ob da noch irgendwelche Verwaltungsstrukturen von ZFS bereinigt werden sollten.
 
Also zumindest in der FreeNAS Doku steht irgendwo, dass ein sicheres Löschen nicht notwendig ist.
Allerdings nutzt FreeNAS auch nicht ZFS-eigene Verschlüsselung, soweit ich weiß.
 
Moin,

ich verwende bei mir napp-it und muss meinen Storage Server ausdünnen.
Kann ich im Laufenden Betrieb einzelne Platten rausziehen ohne das was passiert?
Alle Platten während Mitglied von Pools, dürfen daher komplett 'ausfallen' - ich brauch die Dinger woanders und kann den Server nur schwierig runterfahren aktuell...
 
Ich würde vorher zumindest den Pool exportieren, damit das OS keine Panik schiebt und es Fehlermeldungen hagelt. Hab’s grad nicht im Kopf und kann nicht nachschauen, evtl. kann man sogar Disks (schau mal in dem Menü) offline setzen.

Wie gut dein System das Ziehen der Platten im
laufenden Betrieb verkraftet, hängt vor allem vom Controller ab. EIGENTLICH sieht selbst die SATA-Spec Hotplug vor wenn ich mich richtig erinnere. Bei einem SAS-HBA oder RAID-Controller sollte das jedenfalls gar kein Thema sein. Grundsätzlich sollten die Platten das auch ohne Weiteres abkönnen.

Generell würde ich aber die Disks erst ein kleines Stück rausziehen (Kontakt trennen) und dann noch ein zwei Minuten warten und im Schacht lassen. U.U. drehen die nämlich noch weiter und da finden die Beschleunigung (Bewegung) am allerdoofsten. ;) Also einfach noch etwas Austrudeln lassen, bevor Du sie ganz raus nimmst.
 
Für den Einstieg würde ich daher grds. Datasets auf "root"(oberste Pool)-Ebene empfehlen und darin dann nur normale Ordner/Unterordner.
Agree.
Auch dann (mit nicht-verschachtelten datatsets) kann man doch aber eine "verschachtelte" Ordnerstruktur bauen, indem man die mountsets passend legt?
 
Aus Sicht des Dateisystems gibt es keinen Unterschied zwischen einfachen Ordnern und ZFS Dateisystemen die man irgendwo mountet. Viele Dienste z.B. Samba machen da auch keinen Unterschied. Die wissen nichts von ZFS und sehen nur "Ordner".

Ein einfacher Ordner erbt aber unter ZFS immer die primären Eigenschaften des Parent Dateisystems wie Snaps, Case Sensitivity oder Zeichensatz. Das kann üble Probleme bereiten wenn ein Dienst nicht darauf vorbereitet ist das diese Eigenschaften sich von "Ordner zu Ordner" ändern. Bei Solarish mit dem kernelbasierten SMB Server ist man da auf der sicheren Seite weil da ein SMB Share eine strikte ZFS Eigenschaft ist und keine beliebige Ordner Eigenschaft. Bei Samba muss der Admin aufpassen dass alles passt.

Verschachtelte Dateisysteme sind kein Problem per se. Problem können nur z.B. SMB Shares machen bei denen man ein Parent Dateisystem freigibt. Unter Samba oder dem kernelbasiertem SMB Server kann man dann innerhalb des Shares auf tieferliegende Dateisysteme wechseln. Bei Samba ist das "ohne Gewähr, der Admin der das einrichtert muss wissen was er tut", bei Illumos "hoffen wir mal das Beste, immerhin weiß Illumos um ZFS. Daher gehen da wenigstens immer und ohne dafür Gedankenschmalz zu verwenden Snaps als Windows vorherige Version. Bei Oracle Solaris und native ZFSsind verschachtelte SMB Shares erst gar nicht möglich, damit gibts das Problem da auch nicht.
 
Ich geb ja zu, ich schachtle; auch mit "umgebogenen" Mountpoints, weil ich bei Windows-Clients dann einfach ein einzelnes Share auf einen Buchstaben mounten kann, und nicht zig Laufwerksbuchstaben (die noch dazu schnell zur neige gehen können), während in Storage-Realität ich mehrere Datasets drunter hab und damit z.B. getrennte Eigenschaften setzen kann und auch bei den Snapshots

Aber man muss wissen was man tut, weil man sonst Sharemounts und echte Ordner ggf. überlappt und es dann ggf. auch aussieht, als wären keine Files mehr da, obwohl ZFS natürlich alles noch hat. Hat mir beim ersten mal seinerzeit nen ziemlichen Schrecken erst verpasst.
 
Ich will mir jetzt auch mal einen ZFS-Teststand bauen. Dazu hätte ich noch einen E5-2630 mit Intel X79 Mainboard und unbuffered DIMMs. Ich weiß eigentlich ECC-pflicht bei ZFS, aber das ganze soll nur ein technologie und Leistungsprüfstand werden. Daher sollte der Mangel an ECC keine rolle spielen oder?
 
ECC ist keine Pflicht. Geht als Testdose sicher klar. Empfehlenswert ist es dennoch.
 
Hallo zusammen,

ich hatte mit napp-it heute Nacht einen Plattenausfall vom SSD-Mirror für die VMs. Kompletter Systemstillstand, also das OmniOS ist dadurch gecrasht. Da keine Benachrichtigung kam erst um 10 gemerkt. Ganze Umgebung abgeschaltet, mehr ging ja nicht mehr und alles neu hochgefahren. Dann im napp-it gesehen, dass die eine SSD wohl defekt ist, Pool degraded. Ok, RMA aufgemacht und gleich noch ne weitere SSD bestellt als Ersatz für die Zukunft. Gegen 14 Uhr das selbe Spiel: OmniOS wieder gecrasht. Wieder alles hart abschalten müssen, nach dem Hochfahren versucht die napp-it Appliance zu starten...ist nicht... Dann mit verbose hochgefahren und haufenweise Meldungen hal, acpi etc. kann nicht gestartet werden und keine Initialisierung der Platten oder Start der VM. Umgebung runtergefahren und Platte abgezogen, hochgefahren und nun läuft es erstmal wieder. Notfallbackup läuft gerade, falls die zweite SSD auch noch ausfällt.

Die Frage dazu: Das System sollte doch in so einem Fall weiterlaufen. Was bringt ein Storage System, was bei einem Plattenausfall gleich mit ausfällt? Ist da irgendwas bekannt, dass es in der aktuellen OmniOS-Version so ein Verhalten gibt?

EDIT: Die napp-it Appliance läuft natürlich nicht auf dem Mirror.
 
Zuletzt bearbeitet:
Prinzipiell hängt es immer vom Einzelfall ab. Fällt eine Platte einfach aus so ist das komplett unkritisch. Reagiert eine Platte noch teilweise oder unerwartet, so kann das schon einen Absturz oder ein Device retired zur Folge haben mit dem das System versucht vor Datenverlust zu schützen. Da muss man die defekte Platte oder HBA tatsächlich physisch entfernen damit das System wieder läuft.

In der überwiegenden Mehrzahl der Fälle fällt eine Platte aus, der Pool geht auf degraded oder eine Hotspare wird eingebunden. Ein Kernelpanik oder device retired ist die große Ausnahme.
 
Meiner begrenzten Erfahrung nach ist OmniOS deutlich zickiger, was Hardware Fehler angeht, als Win, Linux etc
Hatte schon mehrfach das Phänomen, dass Plattenprobleme den Login unmöglich machten - man kam noch bis zur Abfrage von Name und Passwort, aber danach hing es dann. Sowohl SSH als auch Konsole.
 
Hallo zusammen,
Ich bin gerade dabei mein FreeNAS einzurichten. ZFS ist komplett neu für mich.

Wie viele automatische Snapshots soll ich denn machen?
Gibt es da "zu viele"? Beeinträchtigt das irgendwann die Leistung o.Ä.?

Ich hätte jetzt mal folgenden Plan für die wichtigen Daten:

Snapshot​
Aufbewahrungsdauer​
Stündlich (von 13:00 bis 23:00, keine leeren Snapshots)3 Tage
Täglich (um 00:00, keine leeren Snapshots)4 Wochen
Monatlich (am 1. des Monats um 00:10, erlaube leere Snapshots)1 Jahr

Ist das so im Rahmen?

Vielen Dank im voraus. :)
 
Zuletzt bearbeitet von einem Moderator:
Ich hatte schon über 10000 Snapshots auf einer Maschine.
Einzige Auswirkung war dass ein Snap Listing deutlich länger brauchte. Ansonsten hat man halt eine große Plattenbelegung durch die Versionierung.
 
Beschäftige mich gerade mit lx zones. Debian, CentOS und Ubuntu lassen sich auch problemlos auf aktuellen Release-Stand bringen, nur leider klappt es bei allen nicht mit dem NFS-Server.

Hat das jemand schonmal hinbekommen? Möchte emby im Container laufen lassen und da das Audio für den Apple TV transcodiert werde muss, komme ich am NFS direkt auf dem emby nicht vorbei, denke ich.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh