[Sammelthread] ZFS Stammtisch

Das macht Sinn, vielen Dank für die Antworten. LZ4 kann ich ja trotzdem aktiviert lassen.

Welche Sektorengröße sollte ich für HDDs unter ZFS eigentlich wählen?
Ich wollte mich gerne mit HGST Helium Platten für meinen Fileserver eindecken.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei FreeBSD müsste ich also ZFS über den Desktop administrieren können!
Und bei OmniOS muß so eine LX Zone nur meine Hoffnungen erfüllen, dann bin ich sofort bei napp-it! :d

Nein, der Desktop bringt garnichts. Da kann man einen Browser starten oder Dateien verschieben. Ist wie mit Linux und ZFS. Ein beliebiges Linux mit ext4 Dateisystem ist nicht annähernd so komfortabel und leistungsfähig wie ein Synology NAS obwohl beide Linux + ext4 sind.

Erst ein Managementool wie FreeNAS oder Nas4free (BSD) oder Nexentastor (Illumos) oder mein napp-it (Solaris, Illumos mit OmniOS OpenIndiana) machen Storage für jedermann bedienbar oder auch für einen erfahrenen Admin schnell überschaubar und managebar.

Zu Linux Container
Dabei stellt ein Wirtssystem die Linux Grundfunktionen die immer identisch sind bereit. Aus den unterschiedlichen Teilen der verschiedenen Linux Distributionen wird ein Container erstellt. Der ist natürlich viel kompakter als ein komplettes Linux. SmartOS stellt beispielsweise Container für Ubuntu, CentOS etc bereit. Die "gemeinsamen" Linux Bestandteile sind in SmartOS oder daraus abgeleitet in OmniOS enthalten.

Man installiert also z.B. einen Ubuntu Container und kann sich da ganz normal per Console anmelden und Packete per apt get installieren. Das ZFS Dateisystem von OmniOS wird dabei als normaler Ordner/Mountpoint in Ubuntu bereitgestellt.

In napp-it habe ich die Grundfunktionen für Linux Container für OmniOS integriert (Download, Edit, Start, Stop)

- - - Updated - - -

Das macht Sinn, vielen Dank für die Antworten. LZ4 kann ich ja trotzdem aktiviert lassen.

Welche Sektorengröße sollte ich für HDDs unter ZFS eigentlich wählen?
Ich wollte mich gerne mit HGST Helium Platten für meinen Fileserver eindecken.

Gar keine, ZFS macht das schon richtig (ashift=12, 4k physical)
 
Gar keine, ZFS macht das schon richtig (ashift=12, 4k physical)
Ich meine damit, welche Platten ich kaufen soll. :d 512 oder 4k?
Ein weiterer Punkt wäre, ob ich lieber auf 4x4TB oder 2x8TB setzen soll.
Einmal Stripe+Spiegel und einmal Spiegel.
 
Zuletzt bearbeitet:
512n gibt es nicht mehr und nur die machen Probleme.
512e oder 4kn ist egal, bei beiden nutzt ZFS den 4k Modus. 512e sind flexibler da abwärtskompatibel.
 
gea, du hast mich voll und ganz überzeugt! :d

Für mich bleibt dann nur noch die Frage, ob so ein Linux Container beim Booten des Host automatisch mit startet und sich anmeldet. Also so eine Art Single-Sign On! Denn dann ist es perfekt für mich! ;)
Oh, noch aus reinem Interesse: Ist diese Zone dann für den Host ein "entferntes" System oder "nativ und lokal"?
 
VMs/ Zonen lassen sich autostarten.
Ein Linux System ist ein entferntes System für OmniOS, lediglich Netzwerk oder ZFS Dateisysteme sind gemeinsam. Für Single Sign On bräuchte es einen zentralen Verzeichnisdienst wie Ldap oder Active Directory.

Aber Obacht.
Container Lösungen haben auch ihre Lernkurve. Und es ist ganz neu.
 
Single Sign On war nur ein Schlagwort für das was ich wollte! ;)

Hauptsache, die LX Zone startet von selbst und der Emby Server dadurch auch. Und das ohne mein Zutun!

Bin schon beim Durchstöbern deiner Seite, wie man napp-it gescheit aufsetzt... Kann man die System Platte denn damit auch als RAID1 (wie auch immer das jetzt gerade bei ZFS heißt!) einrichten?
 
512n gibt es nicht mehr und nur die machen Probleme.
512e oder 4kn ist egal, bei beiden nutzt ZFS den 4k Modus. 512e sind flexibler da abwärtskompatibel.

Das heist, meine Barracuda XT könnten Probleme machen ?
http://www.seagate.com/files/staticfiles/docs/pdf/datasheet/disc/barracuda-xt-ds1696.3-1102us.pdf
Leider schweigt sich Seagate aus ob e oder n - schätze aber ob des Alters eher n.


Werden zwar gegen zwei 10 TB getauscht, aber die wollen erstmal bezahlt werden.
 
Zuletzt bearbeitet:
Richtig böse waren nur 4k physical Platten die sich als 512n ausgaben (schlechte Performance). Man kann aber 512n Platten auf ashift=12 zwingen, entweder beim Anlegen (Solarish macht das nicht), per sd.conf (ZFS and Advanced Format disks - illumos - illumos wiki) oder indem man eine 512e/4k Platte per vdev nutzt.

Ashift =9 (512n) sollte man aber auf jeden Fall vemeiden, gibt später Probleme beim Ersetzen mit aktuellen 4k oder 512e Platten.
 
Zuletzt bearbeitet:
Weiss jemand, ob man die Temps des LSI 2116 in der Shell auslesen kann ?
Für die CPU Temps kann man "sysctl -a | grep tempe" eingeben und bekommt die Temps der Kerne (FreeNAS).
Gibt es eine solche Abfrage auch für den SAS Chip ?`

Das Board ist schnell sehr heiss unterwegs. Mit zusätzlichem Lüfter direkt auf dem CPU Kühler komm ich auf 72 Grad beim kopieren ins Raid.
Der SAS Chip ist ebenfalls heiss, hab aber keinen so kleinen Lüfter.
 
Bin schon beim Durchstöbern deiner Seite, wie man napp-it gescheit aufsetzt... Kann man die System Platte denn damit auch als RAID1 (wie auch immer das jetzt gerade bei ZFS heißt!) einrichten?

Ja, ZFS mit Solarish kann System-Mirror und bootfähige System-Snapshots (Boot Environments).
Wenn man das aber tatsächlich braucht, sollte man sich zusätzlich Gedanken über Backup/ Restore machen. Mein Ideal ist nichts wichtiges auf der Systemplatte installieren. Dann ist das ganze Storage per clean Setup in 10 Minuten wieder online. Dann brauchts kein Backup oder Mirror.
 
Ja, ZFS mit Solarish kann System-Mirror und bootfähige System-Snapshots (Boot Environments).
Wenn man das aber tatsächlich braucht, sollte man sich zusätzlich Gedanken über Backup/ Restore machen. Mein Ideal ist nichts wichtiges auf der Systemplatte installieren. Dann ist das ganze Storage per clean Setup in 10 Minuten wieder online. Dann brauchts kein Backup oder Mirror.

Da wird nichts wichtiges drauf sein, ich habe einfach schon immer ein RAID 1 als System! ;)

BTW: Du hast es echt geschafft, mich so richtig heiß auf die ganze Illumos-Familie zu machen! Ich hatte vor kurzem mal nach ner Lizenz für NexentaStor angefragt, aber bei Beachtung eines Vollausbaus bei mir müsste ich 250k berappen. War mir dann doch ne Spur zu teuer! ;)
SmartOS ist ja mein eigentlicher Liebling, aber diese Nummer mit RAM Disk und Global Zone sagt mir so absolut nicht zu.
Naja, OmniOS scheint ja doch nicht so tot zu sein wie zuerst befürchtet, und es ist echt ne feine Sache!


Von daher vielen vielen vielen vielen vielen vielen vielen Dank an dich, du hast mir echt die Augen (und den Verstand) geöffnet!
Dann kann mein Traum vom Emby Server mit ZFS Storage ja echt noch wahr werden!
 
Ich mache bei mir meist einen Kompromiss mit 3,5" Hardware-Raid-1 (ICY Dock etc) für 2x2,5" Sata Platten. Ich nutze die aber nicht für Echtzeit-Mirror sondern um immer wieder mal eine zweite Platte zu syncronisieren um sie dann als Cold-Backup zi ziehen.
 
Wie sieht es eigentlich mittlerweile mit FreeNAS aus?
Die sind ja recht stark durch ihr letztes großes Release in die Kritik geraten.
Ich würde es gerne wieder einsetzen, da ich es zuvor immer ohne Probleme genutzt habe.
 
Die haben doch ihr "Corral" schnell fallengelassen und FreeNAS 11 hinterhergeschoben. Das soll soweit auch brauchbar sein, wenn ich das noch richtig im Kopf habe ...
 
FreeBSD, da kann ich ja den Emby Server aus den Packages und den Ports installieren. Ist auch ein offiziell supportetes OS! Da frage ich mich nur, ob die Administration von ZFS in den Desktop integriert ist (ich würde dann KDE nutzen!).
Schau dir mal TrueOS | FreeBSD Desktop Operating System with ZFS - TrueOS an (Nachfolger von PCBSD) und ein FreeBSD Fork - ist von vornherein stärker auf ZFS ausgelegt. Das OS selbst wird bereits auf ZFS installiert inkl. der Möglichkeit hierfür Mirror / Raidzx VDEVs für den rPool (root-Pool) zu definieren und das ganze wunderbar Menugeführt.
Das ZFS Verwaltungsintrumentarium ist leider nicht mit Gea's Napp-IT zu vergleichen (oder auch den Verwaltungsoberflächen von FreeNAS, NAS4free, ZFS-Guru - andere NAS Distros mit ZFS Support habe ich mir nicht angeschaut, OMV soll da noch Katastrophal sein)

Edit:
Die Entscheidung für Napp-It ist sicherlich nicht die schlechtere :)
 
Zuletzt bearbeitet:
Ich habe seit gestern ein merkwürdiges Problem - das System müsste erneut installiert werden. Dabei habe ich alle 3 Pools exportiert und nach der Installation des Systems (OpenIndiana, fertiges System-Abbild für ESXi von napp-it.org) wieder importiert.
Soweit so gut, aber seitdem sind die Festplatten immer aktiv - die Status LEDs leuchten ab und zu, und die Festplatten gehen nicht ins stand-by, obwohl ich die power-config-Einstellungen angepasst habe.
zpool status zeigt auch, dass es alles gut ist - https://i.imgur.com/ytWCIo2.png

Was kann das sein? :)
 
Zuletzt bearbeitet:
Hallo Leute, ich stelle gerade fest, dass ich in der Serverwelt gar nichts weiss. Anscheinend wird alles anders gemacht...
Ich würde gern die Temps meines LSI Chips auslesen. Das geht evtl. mit dem megacli tool.
Dieses erhalte ich von Freshports. Dachte ich zumindest. Aber ich kann da wohl kein Paket herunterladen sondern muss das vom Server aus anfordern.
Das geht mit cvsup. Anscheinend muss das aber auch erst installiert werden. Bis hierhin hab ich mich gegoogelt, aber nun wollt ich fragen, ob das obige so richtig ist oder obs einen anderen Weg gibt.

Das das Package in einem Jail installiert werden soll/muss hab ich auch schon gelesen...
 
Ich habe seit gestern ein merkwürdiges Problem - das System müsste erneut installiert werden. Dabei habe ich alle 3 Pools exportiert und nach der Installation des Systems (OpenIndiana, fertiges System-Abbild für ESXi von napp-it.org) wieder importiert.
Soweit so gut, aber seitdem sind die Festplatten immer aktiv - die Status LEDs leuchten ab und zu, und die Festplatten gehen nicht ins stand-by, obwohl ich die power-config-Einstellungen angepasst habe.
zpool status zeigt auch, dass es alles gut ist - https://i.imgur.com/ytWCIo2.png

Was kann das sein? :)

Vermutlich ein Dienst der regelmäßig auf die Platten zugreift, z.B. napp-it Alerts, napp-it Monitoring oder der FMD Service (Solaris fault management daemon). Einfach mal testweise napp-it deakltivieren (/etc/init.d/napp-it stop -wieder starten mit start statt stop) oder svcadm disable fmd
 
Vermutlich ein Dienst der regelmäßig auf die Platten zugreift, z.B. napp-it Alerts, napp-it Monitoring oder der FMD Service (Solaris fault management daemon). Einfach mal testweise napp-it deakltivieren (/etc/init.d/napp-it stop -wieder starten mit start statt stop) oder svcadm disable fmd

Vielen Dank, gea! Tatsächlich - als ich napp-it deaktiviert habe, gingen die Platten in den Standby. Was kann ich in der Web-Oberfläche deaktivieren/die Check-Zeiten zu vergrößern, damit die Platten nicht ständig angesprochen werden?
 
Wenn ein Alert definiert ist, denn von z.B. alle 5 Minuten auf einmal täglich setzen.
Dann Monitoring und Acceleration ausschalten (Toplevel-Menü neben Logout)

Unter About sollten dann keine laufenden Background Agents und GUI acceleration Agents mehr angezeigt werden.
 
gea, hast du eigentlich schon mal napp-it als Hyper-V-Gast ausgetestet?

Ich frage, weil ich mit VMware nicht so richtig warm werde, mir aber das All-in-One-Konzept an sich zusagt. Und mit dem neuesten Hyper-V ist wohl jetzt auch das zuverlässige Durchreichen von PCIe Devices (und damit auch RAID Controllern oder HBAs) möglich, was mir eine Bearbeitungsmaschine mit Windows und napp-it als Gast mit ZFS ermöglichen könnte.

Hast du da Erfahrungen und / oder zuverlässige Informationen?
 
Du bekommst kein Solarish vernünftig unter Hyper-V zum Laufen, drum macht das nicht so wirklich Sinn. Das war der Hauptgrund, warum ich von Hyper-V zu ESXi gewechselt bin. Mag gehen mit Debian/Ubuntu und ZFSoL - dann verlierst Du aber eben wieder viel vom Napp-it+Solarish Charme.

FreeBSD scheint wohl größtenteils zu gehen.

Aber PCIe-Passthrough unter Hyper-V ist definitiv kein Spaziergang (hatte mal ein HowTo gebaut), schon von den Hardwareanforderungen her (Bios/Mainboard Karte). Von 4 Kisten (HP Gen8, Dell T20, Eigenbau, Dell T130) ging das bei mir nur auf dem T130. Wär mal interessant, ob das auch auf anderen neueren Plattformen (T30, ML10 Gen9 usw.) läuft.
 
Zuletzt bearbeitet:
Hast du denn ne Ahnung, an was es bei den anderen gelegen haben könnte?

Für mich selbst wäre eine Windows-Maschine mit nem virtuellen ZFS Storage das allerbeste, dann brauche ich nicht meine ganzen Enclosures umsetzen und erspare mir sogar noch ne extra Maschine!
 
Hiho..

Ich bin auch dabei mir ZFS an zu gucken, vor allem in Hinsicht von Ausfallsicherheit und Hochverfügbarkeit.

Gegeben sind 2Headnodes und 2jbods, jeweils über Kreuz verbunden. Wie kann ich nun es nun bewerkstelligen das ich ein jbod ausfall abfangen kann, irgendwie sollte es möglich sein, siehe hier: Open-E JovianDSS Advanced Metro HA Cluster Feature Pack | Open-E dort wird es dual-storage genannt und die jbods gespiegelt, so kann man mal an einem ne Wartung ohne ausfallzeit durchführen. Danke für infos!
 
Hallo zusammen,

ich bin gerade am überlegen wie ich ein Dataset (Solaris) an meinen Backupserver für Clients (Server 08) anbinden soll.

Dataset über NFS durch ESXi als VHDD im Server (Dürfte am meisten Overhead haben)
Dataset über CIFS/SMB an den Server
Dataset als zvol/iscsi an den Server (Geht das überhaupt - Zpool VS ZVOL)

Soweit ich weiß, muss ich mich ja entscheiden ob zpool oder zvol, jetz habe ich aber gesehen, dass man zB. in FreeNAS ein Zvol/ISCSI Ziel auch auf einen zpool/Dataset machen kann - hat zumindest in dem Video für mich so ausgesehen.

Das Dataset wird nur als Speicher für die Backups genutzt.Was ist hier das Sinnvollste ?
 
Zuletzt bearbeitet:
gea, hast du eigentlich schon mal napp-it als Hyper-V-Gast ausgetestet?

Ich frage, weil ich mit VMware nicht so richtig warm werde, mir aber das All-in-One-Konzept an sich zusagt. Und mit dem neuesten Hyper-V ist wohl jetzt auch das zuverlässige Durchreichen von PCIe Devices (und damit auch RAID Controllern oder HBAs) möglich, was mir eine Bearbeitungsmaschine mit Windows und napp-it als Gast mit ZFS ermöglichen könnte.

Hast du da Erfahrungen und / oder zuverlässige Informationen?

Es gibt für mich mehrere Gründe ESXi zu nehmen
- Es hast die deutlich bessere Unterstützung für pass-through (tut einfach ohne Nachdenken)
- Es hat die bessere Unterstützung für beliebige Gäste (BSD, OSX, Linux, Solaris, Windows)
je mit angepassten Treibern, vor allem die schneller vmxnet3 vnics
- Es ist schlanker/ schneller
- Recovery nach Totalcrash/ Bootplatte defekt. Neuaufsetzen von ESXi mit VM Import ist unschlagbar einfach und schnell
- Man muss nicht alle zwei Wochen ein "kritisches Sicherheitsupdate" mit Reboot aufspielen

- Die lokale html-5 Konsole ist seit ESXi 6.5U1 ganz brauchbar. Man braucht also nur noch einen Browser für ESXi Management

Eine Bearbeitungsmaschine/VM mit Windows ist ja kein Thema.
Wenn es nur um Storage Management geht, ist auch OpenIndiana mit lokaler GUI/ Browser eine Option

Ich habe ja ursprünglich mit Hyper-V angefangen (2008) bin dann aber zu ESXi gewechselt und sehe nach wie vor keinen Grund zurückzugehen, selbst dann nicht wenn AiO Storage Virtualisierung mit Hyper-V sauber laufen würde.

- - - Updated - - -

Hiho..

Ich bin auch dabei mir ZFS an zu gucken, vor allem in Hinsicht von Ausfallsicherheit und Hochverfügbarkeit.

Gegeben sind 2Headnodes und 2jbods, jeweils über Kreuz verbunden. Wie kann ich nun es nun bewerkstelligen das ich ein jbod ausfall abfangen kann, irgendwie sollte es möglich sein, siehe hier: Open-E JovianDSS Advanced Metro HA Cluster Feature Pack | Open-E dort wird es dual-storage genannt und die jbods gespiegelt, so kann man mal an einem ne Wartung ohne ausfallzeit durchführen. Danke für infos!

Die gängigsten Ansätze sind
- MPIO SAS Storage mit je eine Datenpfad zu zwei Headnodes. (Dual Head, Single MPIO Jbod, Cluster in a Box)
Die sehen beide das Jbod. Eine Clustersoftware schaltet Services und Pools um

Vorteil: unschlagbar schnell, Nachteil: Ein Node Ausfall ist ok, Jbod is single point of failure.
Erweiterung: Man kann zwei Jbod nehmen und die Datenpools so anlegen dass eine Jbod Spiegelung entsteht. Die Clustermanagementsoftware braucht man immer.

Software: PaceMaker (Linux) bzw RSF-1 (HA Plugin for ZFS Open Storage Appliance )

Alternative
2 Storageserver die einen Pool basierend auf einem Netzwerkmirror über iSCSI aufbauen.
Für NFS und SMB kann man dann ZFS selbst als Clustermanager für Service-Failover nutzen, Es wird nur noch Software für IP Failover und Pool-Switch benötigt. Experimentell habe ich sowas in mein napp-it 17.06dev integriert.

- - - Updated - - -

Hallo zusammen,

ich bin gerade am überlegen wie ich ein Dataset (Solaris) an meinen Backupserver für Clients (Server 08) anbinden soll.

Dataset über NFS durch ESXi als VHDD im Server (Dürfte am meisten Overhead haben)
Dataset über CIFS/SMB an den Server
Dataset als zvol/iscsi an den Server (Geht das überhaupt - Zpool VS ZVOL)

Soweit ich weiß, muss ich mich ja entscheiden ob zpool oder zvol, jetz habe ich aber gesehen, dass man zB. in FreeNAS ein Zvol/ISCSI Ziel auch auf einen zpool/Dataset machen kann - hat zumindest in dem Video für mich so ausgesehen.

Das Dataset wird nur als Speicher für die Backups genutzt.Was ist hier das Sinnvollste ?


Am einfachsten ein ZFS Dateisystem auf Solaris per NFS oder SMB freigeben und Backups darauf als Ziel laufen lassen.

iSCSI Targets sind Blockdevices wie Festplatten die man Remote ansprechen kann und mit dem Gast-Dateisystem formatieren kann. Das kann ein ZFS Server mit Initiator sein, aber auch z.B. eine OSX oder Windows Gast der die wie eine lokale Festplatte nutzt. Configuring Storage Devices With COMSTAR - Oracle Solaris Administration: Devices and File Systems
 
Zuletzt bearbeitet:
Die gängigsten Ansätze sind
- MPIO SAS Storage mit je eine Datenpfad zu zwei Headnodes. (Dual Head, Single MPIO Jbod, Cluster in a Box)
Die sehen beide das Jbod. Eine Clustersoftware schaltet Services und Pools um

Vorteil: unschlagbar schnell, Nachteil: Ein Node Ausfall ist ok, Jbod is single point of failure.
Erweiterung: Man kann zwei Jbod nehmen und die Datenpools so anlegen dass eine Jbod Spiegelung entsteht. Die Clustermanagementsoftware braucht man immer.

Software: PaceMaker (Linux) bzw RSF-1 (HA Plugin for ZFS Open Storage Appliance )

Alternative
2 Storageserver die einen Pool basierend auf einem Netzwerkmirror über iSCSI aufbauen.
Für NFS und SMB kann man dann ZFS selbst als Clustermanager für Service-Failover nutzen, Es wird nur noch Software für IP Failover und Pool-Switch benötigt. Experimentell habe ich sowas in mein napp-it 17.06dev integriert.
Ok teil 1 versteh ich, also raid1 über die beiden jbods, richtig? Das hatte ich mir schon fast gedacht, wollte das nur nochmal verifizieren..

Teil2 mit dem iSCSI versteh ich gerade nicht, kannst du das bitte mal etwas näher erläutern?
 
Nicht ganz
Lösung 1 basiert darauf dass eine SAS Platte zwei Anschlüsse hat. Jeder Anschluss wird im Jbod auf einen eigenen SAS Expander (=Dual Expander) geführt und einem der beiden Heads zugeführt. Beide dürfen aber nicht gleichzeitig auf die Platte zugreifen. Daher die Cluster Managementsoftware. Da der Jbod aber keine eigene Raid-Intelligenz hat wird das Raid egal ob Raid-1/5/6/Z1-3 im Storagehead gebildet und nicht im Jbod. Mit ZFS also ein ganz normaler Pool bei dem alle PLatten von beiden Heads angesprochen werden können. Der Master hat den Pool importiert, der Slave importiert den Pool beim Umswitchen.

Nachteil:
Sehr komplexer Aufbau, sehr teure Komponenten, max 10m Distanz (SAS Kabel)


Lösung 2 basiert darauf dass man zwei identische Storageserver je mit eigenem ZFS Pool hat. Jeder stellt seinen kompletten ZFS Pool als iSCSI Target auf einer speziellen ip bereit. Einer der beiden, der Master baut über einen Initiator ein Raid-1 über die beiden Targets und stellt diesen per NFS oder SMB auf einer speziellen ip bereit. Beim manuellen oder automatischen Failover wird nach Möglichkeit der Pool exportiert (muss nicht sein), die Target ip umgeswitcht dann der Pool auf dem zweiten head importiert, bei manuellem Failover als mirror im Fehlerfall als degraded Mirror basierend auf dem eigenen Target. Dann werden die Dienste über die umgeswitchte spezielle IP bereitgestellt. Dies ist wie bei Lösung1. Da aber mit Solaris NFS und SMB Shares strikte Eigenschaften von ZFS sind übernimmt hier ZFS selbst das Servicemanagement. Auch arbeitet diese Lösung mit zwei normalen Servern auch mit Sata Platten und über beliebige Distanzen.

Nachteil: Schreib-Performance ist netzabhängig und die Initiatoren zicken etwas beim unerwarteten Ausfall eines Targets. Auch bereiten Slog Probleme (zu langsam als Netz Mirror). Für High-Performanceansprüche also eher was für 10/40G Netze und SSD Pools.


Beides relativ aufwändig.
Wenn man nicht unbedingt Echtzeit-Redundanz braucht sondern 1 Minute oder mehr Unterschied akzeptieren kann, so ist einfache minütliche ZFS Replikation zwischen Filer und Backup System mit Service Recovery/ Failover viel einfacher, billiger und unkritischer. Da muss man nur die Replikation anhalten, eventuell den Pool umbenennen und NFS/SMB über eine umgeswitchte ip vom Backupsystem bereitstellen. Kann man per script oder manuell machen und ist relativ idiotensicher (wichtig damit man bei Panik damit klarkommt nichts kaputtmacht)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh