[Sammelthread] ZFS Stammtisch

ESXi Snapshots werden per SSH auf der ESXi Console erzeugt. ESXi muss das also unterstützen. Wird also wohl ohne vorherigen Shutdown (geht auch remote) nicht funktionieren.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
D.h. ich müsste im PRE Skript die entsprechenden VMs runterfahren und im POST Skript dann wieder starten. Eigentlich müsste dann ja gar kein ESXI Snap von diesen VMs gemacht werden, dem im heruntergefahrenen Zustand, sollte der ZFS Snap ja konsistent sein, oder?

Kann ich eigentlich irgendwie das Log des ESXi Autosnap Jobs ansehen oder per email zusenden lassen? Ich habe einen entsprechenden Snapshot Job angelegt, dieser wird ausgeführt, aber außer einem neuen Verzeichnis finde ich im Filesystemverzeichnis snapshot nichts. Ich vermute die Ursache ist, dass das PRE Skript aufgrund der oben erwähnten Thematik mit dem Passthrough auf einen Fehler läuft und der gesamte Snapshot dann abgebrochen wird? Wie kann ich das debuggen?

Im Webinterface nach zweimaligem Starten sehe ich folgendes:

Screenshot from 2018-04-26 19-35-47.png


Was mir auch noch nicht ganz klar ist: Wie kann ich im Restorefall meinen ESXi Snap wiederherstellen? (free version)
Bislang sehe ich nur die Rollbackfunktion.

Um es via Snapshots->Clones->Clone-Create zu machen, benötige ich die Volllizenz, richtig?

In der Hilfe stehen noch die Optionen Replication oder Copy. Replication geht vermutlich nur bei mehreren Napp-It Instanzen. Und was verbirgt sich hinter "Copy"?
 
D.h. ich müsste im PRE Skript die entsprechenden VMs runterfahren und im POST Skript dann wieder starten. Eigentlich müsste dann ja gar kein ESXI Snap von diesen VMs gemacht werden, dem im heruntergefahrenen Zustand, sollte der ZFS Snap ja konsistent sein, oder?

Ja

Kann ich eigentlich irgendwie das Log des ESXi Autosnap Jobs ansehen oder per email zusenden lassen? Ich habe einen entsprechenden Snapshot Job angelegt, dieser wird ausgeführt, aber außer einem neuen Verzeichnis finde ich im Filesystemverzeichnis snapshot nichts. Ich vermute die Ursache ist, dass das PRE Skript aufgrund der oben erwähnten Thematik mit dem Passthrough auf einen Fehler läuft und der gesamte Snapshot dann abgebrochen wird? Wie kann ich das debuggen?

Zum zfs snap gibts nicht viel zum Debuggen.
Im Jobs Menü kann man auf snap in der Zeile des Jobs klicken um die letzten Ausführungen zu sehen.

Die ESXi Funktionalität kann man auf der Console mit den SSH Befehlen testen. Das wäre einfacher als den Job per Console zu starten und zu debuggen.

Im Webinterface nach zweimaligem Starten sehe ich folgendes:
Anhang anzeigen 432926

Es wurden Snapshots angelegt. Deren Größe entspricht den geänderten Datenblöcken zum Vorsnap. Den Snap-Stand findet man im Ordner /pool/dateisystem/.zfs/snapshots/snapname (WinSCP oder midnight commander auf Console) oder am Einfachsten indem man das Dateisystem per SMB freigibt und in Windows "vorherige Version" aufruft

Was mir auch noch nicht ganz klar ist: Wie kann ich im Restorefall meinen ESXi Snap wiederherstellen? (free version)
Bislang sehe ich nur die Rollbackfunktion.

Viele Möglichkeiten.
- Rollback des Dateisystems (kein undo, folgende Snaps gehen verloren, geht ohne Zeitverzug)
- Wiederherstellen durch Kopieren (am Einfachsten per Windows vorherige Version)
- Snap zusätzlich als Clone bereitstellen

dann in ESXi Hotsnap wiederherstellen


Um es via Snapshots->Clones->Clone-Create zu machen, benötige ich die Volllizenz, richtig?

Ja, man kann aber auch ganz einfach mit zfs clone einen erstellen

Ein Clone ist ein beschreibbares Dateisystem das aus einem Snap erzeugt wird.
Würde man machen wenn man den Snapstand zusätzlich in ESXi hochfahren möchte.
Overview of ZFS Clones - Oracle Solaris ZFS Administration Guide


In der Hilfe stehen noch die Optionen Replication oder Copy. Replication geht vermutlich nur bei mehreren Napp-It Instanzen. Und was verbirgt sich hinter "Copy"?

siehe oben, aus dem Snap kopieren via midnight commander (am schnellsten) oder Windows vorherige Version
 
Hi Leute,

mein Speicher 8x4TB WD Red im RAID-Z2 neigt sich so langsam dem Ende, ca. 75% belegt.

Bevor der Speicher ganz voll läuft, möchte ich gern die Platten gegen größere tauschen.

• Hat hier jemand Erfahrungen mit den Seagate Ironwolf Festplatten?
• Wie sieht’s mit Support aus? Wie schnell wird die Festplatte bei Defekt üblicherweise ausgetauscht?
• Wie sieht’s mit der Lautstärke aus? Hört man irgendeine Art Festplattengeklacker?
• Wie sieht’s generell mit Festplatten dieser Größe in einem RAID-Z2 aus? Was sollte ich beachten?

Ich habe das 10TB Modell ins Auge gefasst. Preislich sieht die Seagate Ironwolf (270€) ganz gut aus im Vergleich zur 10 TB WD Red (315€).

Ich plane eine HDD nach der anderen auszutauschen. Bin mal gespannt, wieviel Tage/Wochen das insgesamt dauert. [emoji6]

Gruß Hoppel
 
Zuletzt bearbeitet:
• Wie sieht’s mit der Lautstärke aus? Hört man irgendeine Art Festplattengeklacker?

Ich habe die 12 TB Version, und die ist nicht leise, bei Zugriffen.Würde sagen, dass sie fast auf niveau der alten WD Raptor ist, wenn dir das was sagt.
 
Zuletzt bearbeitet:
Wenn ich einen Pool, bestehend aus 2x2 mirror, um ein weiteres Paar Festplatten erweitere, dann sind die ersten 4 Platten voll und die neuen 2 Platten leer.

Ist es sinnvoll, ein Re-Balancing der Daten zu betreiben? 1GB vs 10 GB Netzwerk? Viele kleine Dateien vs. wenige große?

Wenn ja, was wäre die Strategie.
 
Zuletzt bearbeitet:
Ein Dreifach Raid-10 hat prinzipiell eine höhere iops/sequentielle Performance wie ein Zweifach Raid-10, kann also schon Sinn machen. Da alle neuen Schreibvorgänge bevorzugt auf das leere vdev gehen und erst wenn das voller ist eher gleichmäßig verteilt werden würde es ohne manuelles Re-Balancing eine geraume Zeit dauern bis man ansonst etwas von der höheren Performance merkt da die alten Daten nur auf den alten vdev sind und die neuen eher nur auf dem neuen vdev..

Für ein ausreichend gutes Re-Balancing kann man z.B. ein größeres ZFS Dateisystem mehrfach replizieren, z.B. xx -> xx1 (xx löschen) -> xx (xx1 löschen) -> xx1....
 
Zuletzt bearbeitet:
BTW: Wird man die demnächst kommende Pool-Verschlüsselung eigentlich nachträglich zur Anwendung bringen können oder geht das dann nur für neue Pools/Daten?
 
Zuletzt bearbeitet:
Es wird sicher ähnlich laufen wie bei ZFS Verschlüssellung in Oracle Solaris

- man wird den Pool updaten müssen (ist dann inkompatibel mit älteren Systemen die das Feature nicht haben)
- man wird beim Anlegen eines neuen Dateisystems die Verschlüssellung aktivieren müssen (geht nicht nachträglich)
 
Ein neues Release von Openindiana Hipster 2018.04 ist verfügbar

OpenIndiana Hipster ist eine Distribution des aktuellsten Illumos (freier Solaris fork). Alle 6 Monate gibts eine ISO des aktuellen Standes den man mit pkg update auf den neuesten Illumos Stand bringen kann. OpenIndiana gibt es in den Varianten GUI mit Mate Desktop, Text (sehr ähnlich zu OmniOS, einer anderen Illumos Distribution) und Minimal.

2018.04 Release notes - OpenIndiana - OpenIndiana Wiki
 
Ich habe aktuell ein Raid-Z1 aus drei 1TB HDDs.
Wenn ich das erweitern würde, wie würde ich da am besten vorgehen? zwei mirror Raidz1? Oder lieber direkt auf Raid-Z2 umbauen? Hätte aktuell noch Platz für 3 HDDs. Später eventuell nochmal platz für weitere 8 HDDs.

Hier ist mir Zugriffszeit und Datenintegrität wichtiger als reiner Speicherplatz. Würde den Speicher gerne für Videoschnitt verwenden. Aber auch Websites und VMs sollen darauf laufen (proxmox).

Für reinen Datenstorage habe ich noch ein Mergerfs+Snapraid.
 
Zuletzt bearbeitet:
Da würde ich bei den Mirrors bleiben oder wenn überhaupt auf RAID 10 wechseln.

@Gea
Wie arbeitet raid 1 bei zfs eigentlich ? Also gerade der Leseprozess - wird da von beiden gelesen, oder nur wenn es einen Checksummenfehler gab von der anderen und dann eben repariert, was ja bedeuten würde, dass die anderen HDDs nur mitlaufen und idlen.
 
Zuletzt bearbeitet:
Mirror-Raid-Z gibt es nicht als Option. Vdevs werden immer wie ein Raid-0 gestriped.

Die zwei sinnigsten Varianten sind:

- ein weiteres Raid-Z1 aus drei Platten
Das würde die Performance und Kapazität verdoppeln - aber auch die Wahrscheinlichkeit eines Pool-Verlustes.
Kapazität bei 6 Platten ist 4 x Einzelplatte, iops ist 2 x Einzelplatte

- Umstellen auf Raid-10 aus drei Mirrors im Endausbau
Kapazität bei 6 Platten ist nur 3 x Einzelplatte, dafür ist die Performance und Zuverlässigkeit höher
Schreib-iops ist 3 x Einzelplatte und Lese-iops ist 6 x Einzelplatte da von beiden Mirrors gleichzeitig gelesen wird,

Sequentielle Performance ist in beiden Fällen ähnlich.
 
Soweit ich weiß, ist das einzige, was bei ZFS on-the-fly möglich ist, ist einem Mirror weitere Platten hinzuzufügen. Für alles andere muss der Pool neu aufgesetzt werden.
Aber gea wird sicher eine fundierte Antwort nachreichen :)
 
Den Raid-Level eines vdev ändern (Raid-Z-> Mirror) geht nicht und
wird wohl nie gehen da man damit Grundstrukturdaten anfassen müßte was bei ZFS extrem aufwändig wäre

Normalerweise würde man einen neuen Pool anlegen (Mirror oder Raid-10) und die Daten per Replikation umkopieren, danach den alten Pool zerstören und die alten Platten als weiteren Mirror dem neuen Pool anfügen.

Was bei ZFS strukturell geht:
- Pool vergrößern (weiteres vdev oder Platten durch größere ersetzen)
- Pool verkleinern durch entfernen eines vdev
in aktuellem Solaris enthalten, auch OmniOS/OI kann das mit Einschränkung da ohne Unterstützung von Raid-Zn
- vdev vergrößern (z.B. Raid-Z von 4 Platten auf 5 Platten) bei Open-ZFS in Arbeit, vorraussichtlich Ende 2018
 
Vdev verkleinern ist auch in Arbeit lt. Allan Jude. soweit ich ihn in BSD Now Vlog richtig verstanden habe.
Hierzu wird in so einem Fall eine Mappingtabelle angelegt für die Blöcke, die auf dem zu entfernenden Drive liegen und die betreffenden Blöcke auf die weiter bestehenden Drives kopiert. Dieses Mapping ersetzt temporär das entfernte Laufwerk.
Sobald dann die Daten per Cow neu geschrieben werden, werden die gemappten Blöcke wieder aus der Table entfernt, so dass das Mapping nach und nach sich wieder entfernt.

Der Preis für so eine Aktion "vdev verkleinern" ist also eine zusätzliche Datenstruktur, die sonst nicht existiert.. Aber immerhin soll es möglich werden, was für bestimmte Operationen mehr flex bringt.
 
Zuletzt bearbeitet:
wie erstellt man denn ein Raid10 am besten mit ZFS? Ausgangssituation sind die drei vorhandenen Platten, die dann durch drei weitere, gleichgroße Platten erweitert werden sollen.

Also auch: wie funktioniert das mit der Replikation?
 
Raid-10

Dazu erstellt man einen neuen Pool bestehen aus einem Mirror (zpool create).
Anschließend fügt man dem Pool einen zweiten Mirror hinzu und erhält ein Raid 10

Mann kann dann noch weitere Mirrors hinzufügen und erhält dann, tja gibt dafür keinen Namen,
man sagt dann ein Raid-10 aus drei, vier, n Mirrors.

Erstellen und Entfernen von ZFS-Speicher-Pools - Oracle Solaris ZFS-Administrationshandbuch


Replikation
Mit dem Befehl zfs send kann man ein ZFS Dateisystem als Stream zu einem anderen ZFS Dateisystem schicken, entweder lokal oder übers Netzwerk via SSH, mbuffer oder netcat.

Senden und Empfangen von ZFS-Daten - Oracle Solaris ZFS-Administrationshandbuch
 
OmniOS 151026 stable (mai.07.2018) ist da

Release note: omnios-build/ReleaseNotes.md at r151026 · omniosorg/omnios-build · GitHub
Download: Index of /media/r151026/

Verbesserungen:

- Protection against the Meltdown Intel CPU vulnerability announced earlier this year
- Experimental support for bhyve - a fast, lightweight and modern hypervisor
- Sparse-branded zones, clocking in under 4MB per zone
- An improved Installer which is dramatically faster making the OmniOS installation procedure
one of the fastest in the industry. The new installer also provides many more options for
customising the installed system.
- A new lightweight default MTA (Dragonfly Mail Agent)
- Fault management improvements for SSD disks

ZFS features
- Improved support for ZFS pool recovery (import good data from a damaged pool)
- The new zfs remove of toplevel vdevs
- zfs checkpoint features (poolwide checkpoint to make even a fs destroy/ vdev add/remove undoable)
- Support for raidz2 and raidz3 boot disks

Hardware
- support of the new BroadCom tri-mode HBAs

napp-it unterstützt OmniOS 151026 ab 18.01 (apr.02)
napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana, Solaris and Linux Changelog

Update, siehe 3.)
napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana, Solaris and Linux : Manual
 
Zuletzt bearbeitet:
Update analog Guide verlief problemlos


Allerdings kann ich nach wie vor keine Appliance Map anlegen.

Ich bin im Zuge dieses Updates auf 18.06DEV aufgestiegen und habe dessen Changelog derart interpretiert, dass dort das Problem mit einheitlicher C3T500... gelöst sei?
 
Zuletzt bearbeitet:
Moin!
Ich sehe das richtig, dass das neue OmniOS nachwievor kein vollständiges vdev-removal unterstützt, sondern nur bei (einfachen) zpools? Also ist weiterhin nur Solaris in der Lage, zraid oder mirror grow oder shrink durchzuführen?
 
Solaris (die neueste 11.4 Beta3 mit ZFS v44) kann mit allen vdevs umgehen (add, remove) und das ohne Einschränkung.

Die Illumos/Open-ZFS Variante von Delphix (OpenZFS Device Removal | Delphix) hat schon zugelegt und kann jetzt basic vdev und auch mirror vdev. Man kann allerdings noch kein Raid-Zn entfernen und bei einem Pool wo man ein vdev entfernt hat anschliessend auch kein Raid-Zn hinzufügen. Ist also noch nicht ganz fertig und auf dem Niveau von Solaris.
 
Jupp. Danke für die Bestätigung und den Ausblick auf Alternativen.
Ich spiele in der wenigen Freizeit etwas mit Solaris+Nappit rum und bin als Langzeit-Linuxer etwas verwirrt von der Fremdartigkeit. Mal sehen, ob ich mich angewöhnen kann... :)
 
Update von 151024 auf 151026 verlief problemlos. :) Bestellung liegt aktuell bei uns in der Buchhaltung, ich hoffe, dass das noch vor dem langen Wochenende raus geht. Dann gehören wir auch "offiziell dazu". ;-)
 
ZFS bietet ja das Feature read-ahead um Dateien vorausschauend zu lesen. Wie ich gelesen habe ist die Standardeinstellung so das dies nur Dateien betrifft die kleiner als 8kb sind? Ist es möglich dieses Limit per ZFS Parameter zu erhöhen? Auf sagen wir 100MB.

Damit wenn z.B. ein Mediafile angespielt wird dieses bereits vollständig in den L2arc geladen um Spulen in Mediafile zu beschleunigen?
 
Alle Lesecaches in ZFS arbeiten blockorientiert mit einem Regelwerk das auf Last accessed/ Most accessed aufbaut. Read ahead ergänzt das lediglich um vorausschauendes Lesen daran anschließender Datenblöcke. Das "Vorladen" ganzer Dateien ist nicht vorgesehen (und auch nicht sinnvoll da damit der komplette Cache für eine Anwendung verwendet würde.)

Wichtig sind die Lesecaches ohnehin nicht nur für die Datenblöcke sondern auch die Metadaten (wo liegt was). Das Cachen der Metadaten (ca 1% der Daten) ist fast noch wichtiger als das Cachen der Daten selber.

Was man machen kann ist ein möglichst schnelles L2Arc nehmen (NVMe), ca 5-max 10x RAM und da readahead aktivieren.
 
Zuletzt bearbeitet:
Beta3 bezieht sich auf die Solaris Releasenummer.

Es wurde zunächst die erste Beta von Oracle veröffentlicht. Die erhielt ein Update im März das man per pkg update erhält. (Ich habe nicht kontrolliert ob es dafür eine neue iso zum Download gibt, vermutlich eher nicht). Per cat /etc/release erhält man dafür ein Release Datum vom 28.3. und eine Releasenummer von 11.4.0.3

Das ist die aktuelle Solaris 11.4 Version mit ZFS v.44, SMB 3.1.1 und funktionierendem zpool remove
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh