[Sammelthread] ZFS Stammtisch

Hallo Ihr,

möchte von meinem Intel SASUC8i auf einen m1015 umsteigen (wegen Platten > 2TB). Welche Firmware benutze ich am besten für den Betrieb unter OI (AllinOne)?
Original, 9240-8i oder 9211? Bin beim Lesen leider noch nicht so ganz schlau geworden.

Gruß Millenniumpilot
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@bluesunset

In Hardware würde ein solcher Cluster aus 2 Rechnern mit redundantem Netzteil, je einem SAS Controller (Expander) und einem gemeinsamen SAS Storage bestehen. z.B. Supermicro | Products | SuperServer | 3U | 6036ST-6LR

Ein Cluster-Dateisystem wird nicht benötigt, da ja nur der active Node auf den Speicher zugreift.
Aktuell soll aber alles in Software (virtuell unter ESXi) aufgebaut und dokumentiert werden.
Das geht aber nur, wenn sich genügend Leute finden, die das schonmal gemacht haben und diese
virtuelle Testumgebung auch aufbauen. Die PaceMaker/ Heartbeat Dokumentation alleine ist zum Davonlaufen.

(Da ist es schon nachvollziehbar, dass unter 10000 Euro nur für Software (z.B.Storage-Software + RSF-1) unter ZFS derzeit nichts zu haben ist, das möchte ich aber gerne ändern)
 
Zuletzt bearbeitet:
Hallo Ihr,

möchte von meinem Intel SASUC8i auf einen m1015 umsteigen (wegen Platten > 2TB). Welche Firmware benutze ich am besten für den Betrieb unter OI (AllinOne)?
Original, 9240-8i oder 9211? Bin beim Lesen leider noch nicht so ganz schlau geworden.

Gruß Millenniumpilot
Original bzw. 9240 sind komplette MegaRAID-Stacks, beim M1015 allerdings ohne RAID5, wenn kein Hardware-Key eingesteckt ist. Benötigt meist Treiber, die erst extra installiert werden müssen.

9211 ist abgespeckt und gibt's einmal als IR-Mode mit einfachen RAID0/1/10-Fähigkeiten und IT-Mode, wo er nur noch als HBA fungiert. Treibermäßig ist 9211 besser, weil mehr Systeme den Controller out-of-the-box erkennen. Für ZFS am besten ist IT-Mode.
 
@gea:

Wenn Du noch Grundlagenwissen über HA-Cluster brauchst, könnte Dir das hier etwas helfen (falls Du die PDFs nicht schon selbst im Netz gefunden hast):
- Portierung OpenHACluster nach OpenSolaris
- Hochverfügbarkeit mit minimalem Cluster

ZFS als Cluster Dateisystem wäre nett, aber selbst Oracle ist noch nicht soweit, wie ein Blick in die FAQs zu ZFS zeigt. Du hast Dir also echt was vorgenommen. Viel Erfolg!

Sofern Dir hier im Forum keiner weiterhelfen kann (meine Schulung für SunCluster 3 ist schon Jahre her), lohnt sich evtl. ein Blick unter die Sonnenblende oder fragst mal die Systemhelden.
 
Ich bin übrigens auf der Suche nach Personen, die etwas Erfahrung mit Clustering
(PaceMaker/Heartbeat) haben oder sich darin versuchen wollen.

Projekt: Ein OpenSource ZFS Cluster mit shared storage (Dual path SAS)
bzw zum Ausprobieren/Evaluation als komplett virtualisierte Lösung.


Hintergrund: Diese OpenSource Clustering Lösung wurde nach OpenIndiana portiert, und ich bin in Kontakt mit dem Entwickler, um eine Testinstallation zu dokumentieren und in napp-it als ready to use Lösung zu integrieren. Leider ist das für mich Neuland, ich bin aber gerade am Lernen, brauche aber Hilfe beim Aufbau eines Muster-Clusters

...die Jungs von ProxmoxVE schwören auf CoroSync ... soll es auch für Solaris geben...http://www.corosync.org/
 
...die Jungs von ProxmoxVE schwören auf CoroSync ... soll es auch für Solaris geben...http://www.corosync.org/

Code:
Die Software die jetzt nach OpenIndiana portiert wurde, besteht aus
Clustersoftware:    Pacemaker (Cluster Resource Manager, CRM)
Heartbeat:            messaging layer
Resource Agents:  Scripts um die services zu kontrollieren
Cluster Clue:         Bibliotheken und tools für den Rest, z.B. Resource manager, Stonith 
                           (Shot the other node in the ghead)

CoroSync ist eine Alternative zu Heartbeat.

Das Problem insgesamt: Jeder würde gerne Hochverfügbarkeit ausprobieren, es gibt aber nur
teure Lösungen und schlecht dokumentierte OpenSource Sachen.

Was fehlt, ist eine einfaches Kochbuch für eine default-Lösung zum Nachbauen z. B. Hochverfügbarer Storage Cluster. Ich würde das gerne umsetzen. Ich möchte aber auch nicht wochenlang Fehlversuche starten. Ich denke, es geht nur, wenn Leute, die das schon mit Linux gemacht haben, dabei helfen.
(Auf Basis einer gemeinsamen ESXi VM Lösung)
 
Zuletzt bearbeitet:
Ist es bei Urs ohne Probleme möglich einen zpool zu erweitern?

Ich werde meinen Storage Server am nächsten Wochenende aufbauen, aber erstmal nur 8x2TB als raidz2 einbauen. Mein derzeitiger Plan ist es danach die Daten meines derzeitigen 8x2TB raid6 zu übertragen und die Platten dann in den gleichen zpool als zusätzliches raidz2 vdev einzubinden.

Soweit ich gelesen habe soll das gehen, ich möchte aber mal wissen ob das in der Praxis dann auch sauber geht oder ob eine andere Variante dann besser ist.

Gesendet von meinem HTC Desire HD A9191 mit der Hardwareluxx App
 
Startpost

Hallo Leute,
nachdem ich jetzt schon seit Jahren im Forum mitlese und mich ZFS auch schon seit einiger Zeit nicht mehr loslässt, bin ich nun endlich auch mit dabei. In letzter Zeit interessiert mich vor allem folgendes:
Ein RaidZ würde ja ausfallen, wenn beim Rebuild ein festplattenseitiger URE aufträte. Was passiert denn mit dem Pool, wenn dieser Block gerade ein dittoblock wäre?
Welchen Health-Status würde der Pool dann einnehmen?
 
Ist es bei Urs ohne Probleme möglich einen zpool zu erweitern?

Ich werde meinen Storage Server am nächsten Wochenende aufbauen, aber erstmal nur 8x2TB als raidz2 einbauen. Mein derzeitiger Plan ist es danach die Daten meines derzeitigen 8x2TB raid6 zu übertragen und die Platten dann in den gleichen zpool als zusätzliches raidz2 vdev einzubinden.

Soweit ich gelesen habe soll das gehen, ich möchte aber mal wissen ob das in der Praxis dann auch sauber geht oder ob eine andere Variante dann besser ist.

Gesendet von meinem HTC Desire HD A9191 mit der Hardwareluxx App

Kein Problem. Nach dem Übertragen der Daten einfach den weiteren Raid-Z2 vdev an den Pool anhängen um die Kapazität zu erhöhen. Die Performance ist anfangs wie ein vdev, mit der Zeit werden aber alle geänderten Daten auf allen Platten gestript so dass nach einiger Zeit von alleine die Performance aller Platten genutzt wird.

---------- Post added at 22:43 ---------- Previous post was at 22:39 ----------

Hallo Leute,
nachdem ich jetzt schon seit Jahren im Forum mitlese und mich ZFS auch schon seit einiger Zeit nicht mehr loslässt, bin ich nun endlich auch mit dabei. In letzter Zeit interessiert mich vor allem folgendes:
Ein RaidZ würde ja ausfallen, wenn beim Rebuild ein festplattenseitiger URE aufträte. Was passiert denn mit dem Pool, wenn dieser Block gerade ein dittoblock wäre?
Welchen Health-Status würde der Pool dann einnehmen?

Die Details sind egal. Wenn bei einem Raid-Z eine Platte ausfällt, ist noch alles ok. Wenn dann eine zweite Platte ausfällt, sind Daten verloren, entweder alle (bei einem Totalausfall) oder teilweise wenn die Platte noch teilweise lesbar ist.

In jedem Fall, und das ist das Einzigartige bei ZFS: Es sagt einem, welche Daten fehlerhaft sind (wg. der Daten-Prüfsummen) und welche Dateien noch gut sind.
 
Ich habe eine Frage zu ZFS und early disk failure, siehe auch: Quick-Take: ZFS and Early Disk Failure « SolutionOriented Blog

Meine ZFS-Storage mit 64 TB und Solaris Express läuft seit Oktober 2010 ohne Probleme. Es werden mehre Systemparameter regelmäßig überwacht unter anderem auch die Pools und Filesysteme, die keine Auffälligkeiten haben. Nun kenne ich die Diskussion in internationalen Foren zum Thema SATA Platten versus SAS Platten. Viele sind der Meinung, dass man Storagesysteme nicht mit SATA Platten aufbauen sollte. Unter anderem werden dabei die schleichende und frühen Plattenfehler bei SATA Platten angesprochen. Dazu habe ich in der letzten Zeit verstärkt recherchiert und vor einiger Zeit erstmals den Befehl iostat -exn ausgeführt. Das Ergebnis war eine auffallende Anzahl von Hard- und Transfer Errors bei 3 Platten. Täglich erhöht sich diese Anzahl. Der ZFS-Pool läuft fehlerfrei und es werden auch keine Fehler gemeldet. Scrubs melden auch keine Fehler. Ich habe mich nun trotzdem entschieden vorsorglich die 3 Platten zu tauschen. Hat jemand Erfahrung mit solchen Problemen? Ist ein Tausch zu empfehlen oder sollte man warten bis ZFS Probleme erkennt. Falls solche Platten höhere Waits erzeugen würde auch die Performance von RAIDZ-Pools einbrechen. Viele Fragen ...
extended device statistics ---- errors ---
r/s w/s kr/s kw/s wait actv wsvc_t asvc_t %w %b s/w h/w trn tot device
0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0 0 0 5 0 5 c8t0d0
0.3 9.4 1.9 61.6 0.0 0.1 0.0 13.7 0 5 0 0 0 0 c7t0d0
2.2 1.8 48.2 214.4 0.0 0.0 0.0 7.4 0 0 0 0 0 0 c7t1d0
0.0 6.4 0.1 170.4 0.0 0.0 0.0 2.1 0 0 0 0 0 0 c7t2d0
1.2 9.1 13.7 26.1 0.0 0.0 0.0 1.3 0 0 0 0 0 0 c0t50014EE0AD084300d0
1.2 9.1 13.7 26.1 0.0 0.0 0.0 1.3 0 0 0 0 0 0 c0t50014EE0ACFBD6C0d0
1.2 8.6 13.7 26.1 0.0 0.0 0.0 3.6 0 1 0 531 729 1260 c0t50014EE6006103B1d0
1.2 9.1 13.7 26.1 0.0 0.0 0.0 1.3 0 0 0 0 0 0 c0t50014EE057B1DE40d0
1.2 9.1 13.7 26.1 0.0 0.0 0.0 1.3 0 0 0 0 0 0 c0t50014EE6005FC470d0
1.2 9.1 13.7 26.1 0.0 0.0 0.0 1.3 0 0 0 0 0 0 c0t50014EE655B752D5d0
0.0 0.0 0.1 0.0 0.0 0.0 0.0 0.0 0 0 0 0 0 0 c0t50014EE600619215d0
1.2 9.1 13.7 26.1 0.0 0.0 0.0 1.3 0 0 0 0 0 0 c0t50014EE655B54205d0
1.2 9.1 13.7 26.1 0.0 0.0 0.0 1.3 0 0 0 0 0 0 c0t50014EE60061D906d0
1.2 8.6 13.7 26.1 0.0 0.0 0.0 3.8 0 1 0 60 84 144 c0t50014EE0025CE877d0
1.2 9.1 13.7 26.1 0.0 0.0 0.0 1.3 0 0 0 0 0 0 c0t50014EE655B4030Ad0
1.2 9.1 13.7 26.1 0.0 0.0 0.0 1.3 0 0 0 0 0 0 c0t50014EE0025EB1EAd0
1.2 9.1 13.7 26.1 0.0 0.0 0.0 1.3 0 0 0 0 0 0 c0t50014EE057B3140Bd0
1.2 9.1 13.7 26.1 0.0 0.0 0.0 1.3 0 0 0 0 0 0 c0t50014EE655B571BCd0
1.2 9.1 13.7 26.1 0.0 0.0 0.0 1.3 0 0 0 0 0 0 c0t50014EE0AD087E2Cd0
1.2 9.1 13.7 26.1 0.0 0.0 0.0 1.3 0 0 0 0 0 0 c0t50014EE600612A5Cd0
1.2 9.1 13.7 26.1 0.0 0.0 0.0 1.3 0 0 0 0 0 0 c0t50014EE057B3FD8Cd0
1.2 9.1 13.7 26.1 0.0 0.0 0.0 1.3 0 0 0 0 0 0 c0t50014EE6AAC0AA52d0
1.2 9.1 13.7 26.1 0.0 0.0 0.0 1.3 0 0 0 0 0 0 c0t50014EE0AD0858E5d0
1.2 9.1 13.7 26.1 0.0 0.0 0.0 1.3 0 0 0 0 0 0 c0t50014EE655B53E25d0
1.2 9.1 13.7 26.1 0.0 0.0 0.0 1.3 0 0 0 0 0 0 c0t50014EE655B632A7d0
1.2 9.1 13.7 26.1 0.0 0.0 0.0 1.3 0 0 0 0 0 0 c0t50014EE057B2F158d0
1.2 9.1 13.7 26.1 0.0 0.0 0.0 1.3 0 0 0 0 0 0 c0t50014EE655B38D18d0
1.2 9.1 13.7 26.1 0.0 0.0 0.0 1.3 0 0 0 0 0 0 c0t50014EE655B71EE8d0
1.2 9.1 13.7 26.1 0.0 0.0 0.0 1.3 0 0 0 0 0 0 c0t50014EE6005FA53Ad0
1.2 9.1 13.7 26.1 0.0 0.0 0.0 1.3 0 0 0 0 0 0 c0t50014EE0025D2F2Bd0
0.0 0.0 0.1 0.0 0.0 0.0 0.0 0.0 0 0 0 0 0 0 c0t50014EE00250EF2Bd0
1.2 9.1 13.7 26.1 0.0 0.0 0.0 1.3 0 0 0 0 0 0 c0t50014EE655B2590Cd0
1.2 9.1 13.7 26.1 0.0 0.0 0.0 1.3 0 0 0 0 0 0 c0t50014EE057B2F6FCd0
1.2 9.1 13.7 26.1 0.0 0.0 0.0 1.3 0 0 0 0 0 0 c0t50014EE0AD0796FFd0
1.2 8.8 13.7 26.1 0.0 0.0 0.0 2.7 0 1 0 389 441 830 c0t50014EE655B5508Dd0
1.2 9.1 13.7 26.1 0.0 0.0 0.0 1.3 0 0 0 0 0 0 c0t50014EE0AD08948Ed0
 
Ich habe eine Frage zu ZFS und early disk failure, siehe auch: Quick-Take: ZFS and Early Disk Failure « SolutionOriented Blog

Meine ZFS-Storage mit 64 TB und Solaris Express läuft seit Oktober 2010 ohne Probleme. Es werden mehre Systemparameter regelmäßig überwacht unter anderem auch die Pools und Filesysteme, die keine Auffälligkeiten haben. Nun kenne ich die Diskussion in internationalen Foren zum Thema SATA Platten versus SAS Platten. Viele sind der Meinung, dass man Storagesysteme nicht mit SATA Platten aufbauen sollte. Unter anderem werden dabei die schleichende und frühen Plattenfehler bei SATA Platten angesprochen. Dazu habe ich in der letzten Zeit verstärkt recherchiert und vor einiger Zeit erstmals den Befehl iostat -exn ausgeführt. Das Ergebnis war eine auffallende Anzahl von Hard- und Transfer Errors bei 3 Platten. Täglich erhöht sich diese Anzahl. Der ZFS-Pool läuft fehlerfrei und es werden auch keine Fehler gemeldet. Scrubs melden auch keine Fehler. Ich habe mich nun trotzdem entschieden vorsorglich die 3 Platten zu tauschen. Hat jemand Erfahrung mit solchen Problemen? Ist ein Tausch zu empfehlen oder sollte man warten bis ZFS Probleme erkennt.

http://www.hardwareluxx.de/communit...ormalen-und-enterprise-grade-hdds-874465.html

64TB = 16x4TB HDDs? Ich hoffe einmal, du hast genug Redundanz.
Ein "scrub" hilft nicht viel, da nicht die Zeit gemessen wird, die ein auslesen eines Sektors dauert. HDDs sind auf den höchst möglichen Wert per default eingestellt. Bei SAS-Festplatten könntest du diesen Wert verringern und würdest deutlich früher/öfter Lesefehler haben. Oder einfach dem BMS (Background Media Scan) von SCSI und SAS HDDs vertrauen, dass der Hersteller diesen mit entsprechend niedrigeren Werten durchlaufen lässt um schlecht lesbare Sektoren frühzeitig um zu kopieren.
 
Danke für die Antwort. Ich habe 64TB = 32x2TB mit ausreichend Redundanz. Die Frage ist, ob eine erhöhte Anzahl von Soft-, Hard- und Transfererrors einen vorzeitigen Austausch solcher Platten nach sich zieht bzw. dringend empfohlen wird.
 
4x 8 HDD Raid6 (raidz2)? Sofern deine "problematischen" HDDs über die vier Raidsets verteilt sind, sollte es kein Problem sein. Bei Raid5 (raidz) würde ich mir Gedanken um ein Backup machen.
Zumindest ich hatte damals die Samsung HDD vom Hersteller austauschen lassen. Wobei die Transferfehler auch in den Smartdaten mit gespeichert waren.
 
Besten Dank für diese Info, damit kann ich etwas anfangen. Dummerweise habe ich damals nur 4 x 8 HDD mit spare und raidz1 gebaut und 2 der problematischen HDDs sind in einem Raidset. Vorsorglich hatte ich vor einiger Zeit schon ein Backup gemacht. Nun werde ich zügig die Platten tauschen.
 
Hallo,

Ich habe eine Frage zu ZFS und early disk failure, siehe auch: Quick-Take: ZFS and Early Disk Failure « SolutionOriented Blog

vielen Dank für den Link. Die Möglichkeiten des Monitoring und der ensprechenden Einflussnahme sind bei Solaris/OI + ZFS anscheinend wirklich fast unerschöpflich. Noch ein weiterer Pluspunkt für dieses Doppel.
Im Job würde ich einem Windowsserver mit NTFS nie solch eine Datenmenge anvertrauen.Wir waren noch im unteren einstelligen Terrabytebereich und hier gab es schon Probleme mit dem Filesystem (WindowsCluster, Platten gespiegelt im SAN auf 2x HP EVA). Mach da mal einen Checkdisk....:motz:
 
Hey, danke für die Antwort, aber ist URE == ausgefallene Festplatte?
Ist dann nicht einfach nur dieser eine Block nicht mehr lesbar?
 
In die Cloud! :fresse:

Enthält OpenIndiana eigentlich den SunSMB-Server oder verwendet man dort Samba als SMB-Server?
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
wollte eben bei einigen Verzeichnissen Rechte vergeben und es kommt folgende Meldung sobal ich "everyone" rausnehme. Ich dachte napp-it wäre kostenlos!?

Wie kann ich den sonst Verzeichnisse für einige Benutzer freigeben für andere sperren?

Habe zwei Benutzer angelegt und möchte schlicht ein Ordner nur für einen Benutzer freigeben. Mache ich das über ACL?

Bitte um Hilfe
 

Anhänge

  • Unbenannt.PNG
    Unbenannt.PNG
    9,7 KB · Aufrufe: 90
  • 1.PNG
    1.PNG
    9,3 KB · Aufrufe: 89
Zuletzt bearbeitet:
wollte eben bei einigen Verzeichnissen Rechte vergeben und es kommt folgende Meldung sobal ich "everyone" rausnehme. Ich dachte napp-it wäre kostenlos!?

Wie kann ich den sonst Verzeichnisse für einige Benutzer freigeben für andere sperren?

Habe zwei Benutzer angelegt und möchte schlicht ein Ordner nur für einen Benutzer freigeben. Mache ich das über ACL?

Bitte um Hilfe


napp-it selber ist kostenlos. napp-it ist aber auch Basis für kostenpflichtige Erweiterungen/ extensions die nicht kostenlos sind. Eines davon ist die ACL extension. Die Grundfunktionen die zu Hause benötigt werden, sind aber auch da frei: triviale ACL setzen (das sind die Pendants zu Unix permissions), allow-ACL für einzelne user setzen sowie Rechte z.B. auf modify=everyone rekursiv zurücksetzen.

Einfach für den Order alle ACL außer root=full löschen und zusätzlich den gewünschten Usern full oder modify Rechte geben. Keine User sperren, sondern gewünschte erlauben - ohne Erlaubnis geht nichts
 
Hallo gea,

danke für deine aufschlußreiche Erklärung zu ACL und napp-it. Ich bin jetzt so vorgegangen wie du beschrieben hast, jedoch komme ich leider nicht in den Ordner.
 

Anhänge

  • 2.PNG
    2.PNG
    17,4 KB · Aufrufe: 107
was mich stutzig macht sind die Unix permissions 700 (owner only)

Ich würde erstmal die Unix-Rechte komplett rekursiv aufmachen (extension: reset ACL auf files unnd folders recursiv oder chmod -R 777 /volume) und dann die Finger von den Unix permissions lassen und alles per ACL neu einstellen. (OI CIFS Server ist wie Windows: ACL only)

ansonst: Windows und OI testhalber neu starten, als root versuchen (nicht vergessen, einmal passwd root nach der Installation von napp-it ausführen) bzw es mit der ip versuchen (wg opt. DNS Problem, \\ip\share)
 
Sobald ich alle Benutzerrechte außer dem root lösche, springen die permissions von 777 auf 700.

Gesendet von meinem Galaxy Nexus mit der Hardwareluxx App
 
Sobald ich alle Benutzerrechte außer dem root lösche, springen die permissions von 777 auf 700.

Gesendet von meinem Galaxy Nexus mit der Hardwareluxx App

ACL root only = Unix 700 ist ja auch ok

Frage:
-geht der SMB-Zugriff ohne login mit Shareeinstellung guest=ok
-geht der SMB-Zugriff als user root bei deaktiviertem guestok?
 
Hallo,

was mich stutzig macht sind die Unix permissions 700 (owner only)

alle meine Shares, bei denen ich von Windows aus die ACLs gesetzt habe, hier also Windowsuser und -groups verrechtet habe, weisen eine Unix permission von 700 auf.

btw:

was ist den ein von Euch praktizierter Weg um die spätere kostengünstige Erweiterung eines ZFS-Pools sicherstellen zu können. Es gibt ja bestimmte Regeln, die VDEVs auszusehen haben, wenn ein Pool erweitert wird. Bisher habe ich ein RAIDZ2 aus 8x 2TB Platten, eine Erweiterung müsste dann eigendlich durch ein vdev der gleichen Art geschehen, leider nicht sehr preiswert.
Macht es Sinn, die Devices kleiner zu machen, in meinem Fall z.B. 2x ein RAIDZ1 aus 4 Platten, bei einer Erweiterung müssen dann nur 4 weitere Platten gekauft werden, nicht gleich 8. Am feinsten lässt sich eine Erweiterung bei einem Pool aus Mirrors graduieren, hier stört mich aber, das im Ernstfall genau beide Platten eines vdevs ausfallen könnten und der Pool dann hin ist (oder sind dann nur die Daten weg, die gerade auf diesem Mirror lagen?), vom Plattenverbrauch mal ganz abgesehen.
Wie groß bildet Ihr so Eure einzelnen vdevs? RaidZ2 aus 6 Platten? Oder viele kleine RaidZ1 mit ein oder zwei Hotspare für den ganzen Pool?
Das alles natürlich unter dem Aspekt des Privatusers, kein Firmeneinsatz.

@gea: Du bietest für die nichtkommerzielle Heim-Nutzung eigene Preise für Deine Extensions an. Finde ich toll. Gibt es hier auch die Möglichkeit einenen zeitlich nicht beschränkten key zu erhalten, wenn man z.B. gleich für 4 oder 5 Jahre bezahlt?



Gruß Millenniumpilot
 
Wenn ACL gesetzt werden springen die Unix permissions immer auf einen Wert, der nicht mehr Rechte hat, als die ACL erlauben. Umgekehrt lassen die Unix permissions aber keinen Rückschluß auf die tatsächlichen Rechte zu. ACL und Unix permissions stehen in Abhängigkeit.

Bei der Erweiterung eines Pool gibt es keine technische Limitierung auf bestimmte vdevs. Es geht alles. Es ist immer nur die Frage, wie effektiv die Platten insgesamt genutzt werden (bezüglich Kapazität und Performance). Außerdem sollte die statistische Redundanz des Pools durch ein neues vdev nicht schlechter werden. Auch sollte man immer beachten, dass nur vdevs hinzugefügt werden können -nicht entfernt.

Unter diesem Aspekt könnte man schon ein Raid-Z1 aus vier Platten an eine Raid-Z2 vdev aus 8 Platten anfügen. (würde ich aber nicht wirklich so machen). Insgesamt sollte man sich vorab überlegen, ob eher Performance oder Platz gewünscht wird. Im ersten Fall nur mirrors machen, im zweiten Fall möglichst viel Platten in einem Raid-Z (1-3), am Besten Z3 wegen der langen Rebuild-Zeiten.

Aber: Egal welche Art von vdev: Wenn ein vdev ausfällt ist der Pool verloren, da Daten über alle vdevs gestriped werden. Statistisch ist bei mehreren mirrors der Ausfall zweier Platten im gleichen vdev zwar unwahrscheinlich, ich hatte das aber schon. Allerdings geht der Rebuild bei mirrors sehr schnell. Mit einem Hotfix hält sich das Risiko in Grenzen. Bei meinen kritischen High-Performance ESXi pools mache ich aber vdevs als 3 x mirrors.

Für Backupserver mache ich Pools aus einem Raid-Z3 aus meist 15 Platten. Das sind wohl die extremen Gegensätze.

Wegen der Extensions at home:
Ich habe das angeboten, weil ich mehrfach danach gefragt wurde, haben wollte es aber noch keiner. napp-it bietet ja auch bereits fast alles was zu Hause benötigt wird. Ich hätte aber kein Problem damit, wenn statt der angebotenen 2/4 Jahre im Voraus für 8 Jahre bezahlt wird und dafür der Key unlimited ist z.B. eine extension=200 Euro bzw 400 Euro für alle.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh