[Sammelthread] ZFS Stammtisch

Das wären ja dann noch 3 6tb und quasi nen mirror. das ist definitiv nicht im budget

Gesendet von meinem SM-N9005 mit Tapatalk
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nein, sondern von raid-z1 aus 4 Platten auf ein raid-z2 mit 6 Platten gehen.
Nutzbare Kapazität steigt um eine Platte aber zwei dürfen ausfallen, ohne dass Daten verloren gehen.
 
Wie soll das denn mit meinen beschriebenen Möglichkeiten gehen?

Gesendet von meinem SM-N9005 mit Tapatalk
 
Also bisher hattest Du dann ja netto ~9TB (4x3TB RaidZ), richtig?

Du könntest jetzt einen Pool aus 2 vdevs bauen: Nr. 1 mit 3x3TB im RaidZ (=6TB netto) plus Nr. 2 mit 2x6TB im Mirror (=6TB netto) und würdest damit netto 3TB im Gesamtpool (=12TB) gewinnen und es dürfte dir nach wie vor jeweils eine Platte pro vdev ausfallen ... und zusätzlich anschaffen müsstest Du jetzt nur noch eine weitere 6TB-HDD.

Allerdings würde ich wahrscheinlich zusätzlich zu der weiteren 6TB-Platte auch noch eine weitere 3TB kaufen und das alte vdev wieder auf 4x3TB bringen. Denn mit dieser einen weiteren Platte bekommst Du dann auch genau das an Netto-Kapazität dazu (wärst dann also bei 15TB)!

Ob die aber noch ins Budget passt, hängt dann von der gewünschten Platte ab.
 
Zuletzt bearbeitet:
Das war auch mein Gedankengang und ich war schnell los ne 3tb platte zu besorgen. Leider war keine 6tb mehr verfügbar.

Gesendet von meinem SM-N9005 mit Tapatalk
 
Wie soll das denn mit meinen beschriebenen Möglichkeiten gehen?

Gesendet von meinem SM-N9005 mit Tapatalk

Jetzt muss ich fragen ob ich etwas falsch verstehe
Bisher: ein Raid-Z1 aus 4 Platten (nutzbare Kapazität ca 9TB)
geplant: eine weitere Platte, also ein Raid-Z1 aus 5 Platten (nutzbare Kapazität ca 12TB)

Problem:
Bei so großen Arrays wäre mir ein Raid-Z1 zu unsicher, daher stattdessen
ein Raid-Z2 bauen aus 6 Platten (nutzbare Kapazität auch ca 12TB aber erheblich sicherer)

oder soll es komplett auf 6TB Platten gehen?
Dann würde ich es aber trotzdem so machen und 6 TB neu kaufen.

Dann irgendwann die alten 3 TB durch 6TB ersetzen um die Kapazität zu verdoppeln.
 
Zuletzt bearbeitet:
gea: das bisherige 4x3er RaidZ ist ja geschwächt durch eine defekte Platte. Davon gibt es also nur noch 3 und zusätzlich wurde jetzt ad hoc eine 6TB angeschafft. Und jetzt ist die Frage, was macht man aus 3x3TB und 1x6TB sinnvollerweise, also aus dem jetzigen Ist-Bestand mit möglichst wenig zusätzlichem Invest. Zumindest wenn ich das richtig verstanden habe. :d

Im Ergebnis ist wahrscheinlich eben doch das Günstige, 1x3TB "Ersatzbeschaffung" für die defekte und 1x6TB zusätzlich, um mit der anderen neuen 6TB mal wenigstens einen Mirror bauen zu können.
 
Allerdings würde ich wahrscheinlich zusätzlich zu der weiteren 6TB-Platte auch noch eine weitere 3TB kaufen und das alte vdev wieder auf 4x3TB bringen.
Für alle RAID (Zx/5/6) gilt: möglichst 2[SUP]n[/SUP] Datenplatten (also 2, 4, 8,... ) + Paritätsplatten entsprechend gewünschtem RAIDlevel nutzen!
Dies bringt aufgrund der besseren Datenverteilung mehr verfügbaren Platz und bessere Performance.

- - - Updated - - -

Da aber wohl schon wieder eine vierte 3TB eingetroffen ist, entweder aus vdev1 ein RAIDZ2 machen oder 2 Pools erstellen:

Pool1: vdev1: RAIDZ2 4x3TB oder 2 vdev Mirror 2x2x3TB
Pool2: vdev1: Mirror 2x6TB
Oder Variante 3: mit 4x3TB als RAIDZ1 weiterarbeiten und die 6TB mir schenken! :hail:
 
gea: das bisherige 4x3er RaidZ ist ja geschwächt durch eine defekte Platte. Davon gibt es also nur noch 3 und zusätzlich wurde jetzt ad hoc eine 6TB angeschafft. Und jetzt ist die Frage, was macht man aus 3x3TB und 1x6TB sinnvollerweise, also aus dem jetzigen Ist-Bestand mit möglichst wenig zusätzlichem Invest. Zumindest wenn ich das richtig verstanden habe. :d

Im Ergebnis ist wahrscheinlich eben doch das Günstige, 1x3TB "Ersatzbeschaffung" für die defekte und 1x6TB zusätzlich, um mit der anderen neuen 6TB mal wenigstens einen Mirror bauen zu können.

Nehmen was man hat und zukunftsicher erweitern
daher der Vorschlag ein Raid-Z2 aus 6 Platten mit den vorhandenen
3 x 3 TB
1 x 6 TB

neu kaufen:
2 x 6 TB

Ergibt dann nutzbar 12 TB
Irgendwann die restlichen 3 TB durch 6TB ersetzen.
Der Pool hat dann 24 TB durch autoexpand nachdem alle ersetzt sind

3 TB nachkaufen macht keinen Sinn.
 
Irgendwas musste ja jetzt passieren.

Deshalb hab ich es jetzt etwas anderes gemacht, 3tb gekauft, raidz1 wieder herstellen. Demnächst weitere 6tb kaufen, und dann Geas Plan umsetzen

Gesendet von meinem SM-N9005 mit Tapatalk
 
Zuletzt bearbeitet:
mache kaufen auch 4TB zu 89-99€ aus externen cases für sowas ^^
 
Ich würde erst mal vermuten, dass die idiotische portbasierte sda oder ada Diskerkennung das Problem ist. Wenn man da etwas umsteckt, ändern die sich und ZFS erkennt seinen Pool nicht mehr. Die Zuordnung per WWN (eindeutige Herstellerkennung) ist da ein Segen.

Beheben lässt sich ein Erkennungsproblem üblicherweise durch
- reboot
- zpool clear
- export/import

oder eine Kombination davon.
 
Beim Import bricht er mit Fehler ab.
Value too large for defined Data Type

und auf der Konsole:

state: FAULTED
status: One or more devices were being resilvered.
action: The pool cannot be imported due to damaged devices or data.
The pool may be active on another system, but can be imported using
the '-f' flag.

Das resilvern war aber abgeschlossen.
 
Zuletzt bearbeitet:
Um welches OS handelt es sich
Was zeigt zpool import
Wurde import mit dem Parameter -f versucht,
optional mit -F um einen etwas früheren Stand zu importieren.

Insgesamt läßt die Fehlermeldung vermuten, dass ein Device fehlt/ defekt ist mit einem Fehler auf einem weiteren Device. Bei Raid-5 oder Z1 wird das nicht abgedeckt da nur eine Platte ausfallen darf, daher bei großen Arrays oder vielen Platten der dringende Rat Raid-6 oder Z2/Z3 zu nehmen.

ps
wieso ist der Pool überhaupt dismounted
Ein disk replace macht man ja online, import brauchts ja nur nach export/destroy
 
Zuletzt bearbeitet:
Du hattest doch export/import gepostet.
Import -F hats gebracht.
Vielen Dank

Gesendet von meinem SM-N9005 mit Tapatalk
 
ZFS ist extrem robust, ein ZFS Z1 erlaubt aber nur eine fehlerhafte Platte.
Bei aktuellen Poolgrößen im Terabyte Bereich und vielen Platten ist ZFS Z2 angesagt.
 
Aber ab einem gewissen Volumen wird es schwer/teuer einen Pool ad hoc zu ersetzen. Und wenn man den Raidlevel ändern will bleibt einem ja fast nix anderes über.

Gesendet von meinem SM-N9005 mit Tapatalk
 
Große Platten kosten immer noch, das ist ja klar. Aber es gibt nicht viele Systeme, die flexibler sind als ZFS. Du kannst in jeden RAID Level die Platten einzeln gegen größere tauschen, du kannst zu jedem vdev ein weiteres dranhängen. Du kannst im Notfall sogar auf Redundanz verzichten und einzelne Platten dazuhängen. Und dank zfs send/recv ist Migration ein Kinderspiel.
BP rewrite (RAID Level Änderung on-the-fly) wird es wohl mit Festplatten nie geben, da ist jede Migration schneller und mit weniger Risiko behaftet. Mit SSD könnte es evtl. Sinn machen.

cu
 
Die einzelnen Platten kannst du dann aber nicht wieder entfernen oder einem anderen vdev zuweisen oder?
Wie verhält sich das eigentlich mit den daten wenn ich ein weiteres vdev einem pool hinzufüge. Grundsätzlich ist das dann ja ein stripeset. Aber werden denn auch daten umkopiert wie es ms beim ersten whs gemacht hat?

Gesendet von meinem SM-N9005 mit Tapatalk
 
hat schon jemand von euch MacOS Sierra mit OminOS und Co testen können ? Und kann vielleicht was zur SMB Performance im Vergleich zu 10.x sagen ?

thx

_xymos.
 
Ich hab kürzlich nach dem Update meiner MacPros auf Sierra einen schnellen Test gemacht.
Ich habe dazu signing ausgeschaltet (Google: OSX SMB Performance).

Ergebnis:
Vor OSX 10.11.5: 600-900 MB/s
Danach inkl. 10.12: 200-300 MB/s
 
Kannst du mir noch meine Fragen oben beantworten Gea?
Was passiert mit den Daten auf einem bestehenden vdev wenn ich ein weiteres vdev in den pool integriere bzw dieses wieder entferne?
 
Das ist ja unterirdisch ! Dann bleibe ich erstmal bei OSX 10.11.x

Danke Gea

Ich hab kürzlich nach dem Update meiner MacPros auf Sierra einen schnellen Test gemacht.
Ich habe dazu signing ausgeschaltet (Google: OSX SMB Performance).

Ergebnis:
Vor OSX 10.11.5: 600-900 MB/s
Danach inkl. 10.12: 200-300 MB/s
 
Kannst du mir noch meine Fragen oben beantworten Gea?
Was passiert mit den Daten auf einem bestehenden vdev wenn ich ein weiteres vdev in den pool integriere bzw dieses wieder entferne?

vdev entfernen geht bei ZFS noch nicht, ist aber geplant.
Ansonsten passiert gar nichts, die Daten bleiben wo sie sind.
Ein rebalancing geänderter Daten findet mit der Zeit automatisch statt.

Wenn man alte Daten über alles vdevs verteilen möchte (wegen besserer Performance) muss man umkopieren z.b: Dateisystem umbenennen und zfs send auf alten Namen.
 
Ich hab jetzt erstmal den pool zerstört und einen neuen mit 2x 1tb und 2x 3tb jeweils als mirror erstellt. Oder spricht etwas dagegen?

Gesendet von meinem SM-N9005 mit Tapatalk
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh