[Sammelthread] ZFS Stammtisch

Hallo Play,

die Kabel kann man immer mal gebrauchen (Boardsata an Backplane), so teuer waren sie auch nicht. Ich würde sie daher behalten.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Stimmt auch wieder und die Versandkosten müsste auch ich tragen.

Frech, in der Schweiz zahle ich für ein Kabel 20€.
 
Zuletzt bearbeitet:
@gea: Bei den benches hab ich grade n Problem, die Ergebnisse auch zu bekommen.

System hat 16 GB RAM, für den normalen dd Bench hab ich daher mal 2M * 20k ausgewählt. Bleibt dann irgendwann einfach stehen, ohne Rückmeldung. Load ist bis dahin erwartungsgemäß hoch, Belegung des Filesystems auch. Der dd rw-Bench gibt mir noch den Wert für write aus, aber den read verschluckt er auch wieder. Unten bleibt dann gern mal als letzter Eintrag stehen:
Vendor: ATA ,Product: ST2000DM001-9YN1 ,Revision: CC62 ,Serial No: 42²
Size: 2000.40GB <2000398934016 bytes>
,Media Error: 0 ,Device Not Ready: 0 ,No Device: 0 ,Recoverable: 0
Illegal Request: 93 ,Predictive Failure Analysis: 0exe: prtconf | grep MemoryMemory size: 16303 Megabytes
...was tun? Wenn ich wesentlich weniger schreiben lasse, cacht ers wieder im RAM :fresse:
Version ist die 0.9a9 nightly Mar.04.2013 auf Solaris

Beim sync-write ist übrigens die Berechnung der Größe falsch. Wenn ich dort reinkomm, werden mir 32K * 6250 angeboten. Erhöh ich die Blocksize z.B. auf 2M, wird der Count automatisch reduziert, in dem Fall auf 5. Als Size wird aber 12,8 GB angegeben, was sich wohl nur aus den ehemaligen 6250 errechnen lässt, bei nur 5x aber sicherlich weniger ist. Da bei weiterem Einstellen nicht mehr automatisch reduziert wird, sind die Zahlen bei allen künftigen Änderungen korrekt.


Mmh, nochwas. Beim Erstellen von nem Pool als Basic krieg ich das hier im hübschen roten Kästchen:
Could not proceed due to an error. Please try again later or ask your sysadmin.
Maybee a reboot after power-off may help.

'guttitest2' successfully created, but with no redundancy; failure of one
device will cause loss of the pool

Rot für den zweiten Teil find ich ja ok, aber was hats mit dem Error auf sich? Pool war danach dd'bar, also ganz schiefgelaufen kanns nicht sein.
Maybe schreibt man übrigens mit einem e ;)
 
Zuletzt bearbeitet:
1.
Im Gegensatz zu den genauer arbeitenden Benchmarks bonnie und iozone habe
ich dd nur als schnelles Tool für Übersichten als reiner CGI-Aufruf eingebaut.

CGI Programme können aber nur ein paar Minuten laufen bis sie automatisch beendet
werden. Der dd-Test eignet sich daher nicht für langlaufende Tests

workaround: auf console starten oder die anderen Tools nehmen.

2.
zpool create -> basic
Jeglicher Rückgabewert wird als Fehler interpretiert.
(Auch wenn es sich wie hier nur um eine Warnung handelt)
 
Iozone wird mir halt TB-weise angeboten, das wird ja nie fertig. bonnie++ trau ich mich bei nem Singlecore nicht :fresse:
Dann versuch ich dd mal per Hand. Benchmarkwerte sehen ganz vielversprechend aus für das angedachte Gigabit mit dem künftigen Prozi und @Raidz2. Realperformance über smb oder nfs auch auf nem Basic ist aber komischerweise unterirdisch (500 KB/s...). Werd ich nochn bisschen schrauben dürfen...
 
hallo zusammen,
ich will mir jetzt auch einen kleinen zfs fileserver hinstellen, aber irgendwie habe ich mehrere probleme. ich vermute das liegt teilweise an der hardware, und hab nun auch schon noch was anderes bestellt um das zu überprüfen, was mich aber grade am meisten stört ist, dass das die maschine nicht runterfährt.

gigabyte p35-dq6, xeon 3210, 8Gb non-ecc, 2,5 zoll systemplatte 80gb, zfs testplatte 3tb wd green.

omnios bloody:
nappit 09a9, ssh, pc : bleibt stehen nach sync file systems done
uadmin 2 6 funktioniert

openindiana 151 a7:
nappit 09a9, ssh, pc : bleibt stehen nach sync file systems done
uadmin 2 6 funktioniert nicht
direkt am desktop funktioniert

was nun? uadmin ist je ne ziehmlich harte variante, soll man ja eignetlich nicht machen oder?

ich hoffe ihr könnt helfen,
ciao,
david
 
Zuletzt bearbeitet:
Hallo brigadeleiter,

den gleichen Effekt kenne ich von meinem Asus P5Q. Habe es auch nicht hinbekommen. Sollte ein Backupserver werden, der nach den SIcherungen herunterfährt und sich abschaltet. Habe mir beholfen, indem ich den ESXi installiert habe und dann das OI in eine VM gepackt habe.
 
Da hast Du natürlich recht. habe hierfür alle Sataports fuer einzelne Datastores verwendet und der VM dann halt viele große vdmk zugeordnet. nicht schön, nicht praktisch und auch nicht schnell. Fuer das Backup hat es aber gelangt. Fuer Dich keine Lösung.
Wollte nur zeigen, das Du nicht alleine auf dieses Problem gestoßen bist. Wenn Du eine Lösung findest, egal ob als BIOS-Setting oder in den Tiefen vom OI. Immer her damit.
 
Hallo Ihr,

ich habe testweisehalber eine Samsung 840Pro 265GB als Basicpool eingerichtet. Dieser Pool wurde aber leider mit ashift9 erstellt. Irre ich mich wenn ich der Meinung bin, alle SSDs haben 4k Sektoren und sollten es als neues Modell aus dem Jahre 2013 auch so an das BS melden?
Hätte die SSD nicht automatisch mit ahift12 eingerichet sein müssen? Oder meldet die SSD keine physiche Sektorgröße zurück?
 
@millenniumpilot

Genau für die Frage habe ich echt lange rechechiert... Das Ende vom Lied, ich konnte selbst mit erzwungenem ashift=12 Pool bei den SSDs keinen Geschwindkeitsunterschied feststellen. SSDs melden 512 Bytes auf beiden Seiten (kann man ja prüfen im CLI), nur eine SATA Festplatte meldet auch 4096 Byte (bei neueren Modellen zumindest ohne Probleme). Wenn du z.B. eine SSD als ZIL oder L2ARC einsetzt ist die immer ashift=9. Wenn du einen normalen Mirror aus 2 SSDs anlegst wird es auch immer ein ashift=9 Pool sein, habe früher aus Testzwecken extra ashift=12 erzwungen beim erstellen (ging bei älterem Solaris + älterem napp-it), aber wie gesagt habe keinen Unterschied gemerkt vom Speed. Aber viellecht weiß gea oder jemand anders noch mehr zu dem Thema. :)
 
hallo zusammen,
ich will mir jetzt auch einen kleinen zfs fileserver hinstellen, aber irgendwie habe ich mehrere probleme. ich vermute das liegt teilweise an der hardware, und hab nun auch schon noch was anderes bestellt um das zu überprüfen, was mich aber grade am meisten stört ist, dass das die maschine nicht runterfährt.

gigabyte p35-dq6, xeon 3210, 8Gb non-ecc, 2,5 zoll systemplatte 80gb, zfs testplatte 3tb wd green.

omnios bloody:
nappit 09a9, ssh, pc : bleibt stehen nach sync file systems done
uadmin 2 6 funktioniert

openindiana 151 a7:
nappit 09a9, ssh, pc : bleibt stehen nach sync file systems done
uadmin 2 6 funktioniert nicht
direkt am desktop funktioniert

was nun? uadmin ist je ne ziehmlich harte variante, soll man ja eignetlich nicht machen oder?

ich hoffe ihr könnt helfen,
ciao,
david

Das gleiche Problem habe ich auch. Habe nur folgendes gefunden: can't shutdown, i need help! - comp.unix.solaris

Mir hat das nichts gebracht, vielleicht hilft es dir ja.
 
hallo zusammen,
ich will mir jetzt auch einen kleinen zfs fileserver hinstellen, aber irgendwie habe ich mehrere probleme. ich vermute das liegt teilweise an der hardware, und hab nun auch schon noch was anderes bestellt um das zu überprüfen, was mich aber grade am meisten stört ist, dass das die maschine nicht runterfährt.

gigabyte p35-dq6, xeon 3210, 8Gb non-ecc, 2,5 zoll systemplatte 80gb, zfs testplatte 3tb wd green.

omnios bloody:
nappit 09a9, ssh, pc : bleibt stehen nach sync file systems done
uadmin 2 6 funktioniert

openindiana 151 a7:
nappit 09a9, ssh, pc : bleibt stehen nach sync file systems done
uadmin 2 6 funktioniert nicht
direkt am desktop funktioniert

was nun? uadmin ist je ne ziehmlich harte variante, soll man ja eignetlich nicht machen oder?

ich hoffe ihr könnt helfen,
ciao,
david

Ich kann mich hier nur anschließen...
Hab ein Supermicro X7SPA-HF-D525. Nach meinen Recherchen liegt es vermutlich daran, dass diese Solaris-Basierten Systeme nicht die erwarteten ACPI-Befehle zum Ausschalten des PCs senden.
Manchmal, in seltenen Fällen, klappt es bei mir. Könnte also auch ein Timing-Problem sein (Ausschaltsignal wird vom System nicht lange genug gesendet)...

Hat jemand Anderes noch Erfahrung mit diesem Problem oder sogar eine Lösung?
 
Kann mir kurz jemand sagen, ob und wenn ja welche Nachteile bestehen wenn ein ZFS auf einem onbaord Sata Controller eingerichtet wird?

(esx mit passthrouh des Controllers an eine VM)

Danke !
 
tja bei mir ging das mit dem link oben auch nicht. ich hab grade zfsonlinux und freenas am wickel und beide schalten den rechner problemlos ab. kann mich nur noch nicht ganz entscheiden. freenas hat halt ne nette oberfläche, aber irgendwie wird nicht der komplette ram genutzt. die benches stimmen erstmal und fang mal eine testplatte zu kopieren, mal sehn obs klappt.

edit: mit dem supermicro x7sba keine probleme beim shutdown mit openindiana. allerdings hat das board keinen PEG slot und fällt für mich raus.
 
Zuletzt bearbeitet:
Kann mir kurz jemand sagen, ob und wenn ja welche Nachteile bestehen wenn ein ZFS auf einem onbaord Sata Controller eingerichtet wird?

(esx mit passthrouh des Controllers an eine VM)

Danke !

Wenn du ohnehin SATA-Platten nutzen willst und vorausgesetzt es gibt seitens Solaris vernünftige Treiber-Unterstüzung für den betreffenen Chisatz: Keine.
 
tja bei mir ging das mit dem link oben auch nicht. ich hab grade zfsonlinux und freenas am wickel und beide schalten den rechner problemlos ab. kann mich nur noch nicht ganz entscheiden. freenas hat halt ne nette oberfläche, aber irgendwie wird nicht der komplette ram genutzt. die benches stimmen erstmal und fang mal eine testplatte zu kopieren, mal sehn obs klappt.

Hi du musst bei FreeBSD immer etwas tweaken damit ZFS auch deinen RAM besser nutzt, schau mal in den Thread: http://www.hardwareluxx.de/community/f211/der-nas4free-anleitungen-tipps-hilfe-thread-935734.html ob nun FreeNAS oder NAS4Free, beides ist am Ende FreeBSD.
 
Hallo Ihr,

als ich letztens an meinem Pool eine ausgefallene Hitachi 7k3000 (512b) per Replace durch eine WD30EZRX (4k) ersetzen wollte ging das nicht. Der Grund ist mir jetzt klar.
Da ich später einmal vorhabe, die bisherigen 2TB- Platten durch 4TB mit Advanced File Format zu ersetzen frage ich mich, ob es nicht sinnvoll wäre,
auch bei den bisher verwendeten Platten den Pool mit einem ashift von 12 anzulegen. Ansonsten wird mir wohl das spätere einzelne Ersetzen der Platten und anschließende vergrössern des Pools per autoexpand verwehrt.
Gehts das und ist das sinnvoll oder handel ich mir damit Probleme ein?

Kann mir auch jemand die passenden Zeilen und Parameter schreiben, um einen kompletten Pool auf einen neuen Pool auf den gleichen Rechner umzukopieren? Es wird zwar immer geschrieben, zfs send | zfs receive, aber der Weg und die Parameter unterscheiden sich oft, je mehr man bei Google und Co auch die Suche geht.

@gea: könnte ich dafür Deine Remote Async Replication verwenden? Beide Pools sind auf EINEM Rechner.
 
Gehts das und ist das sinnvoll oder handel ich mir damit Probleme ein?

Ich hätt mal aufs OS getippt. Meine ST2000DM001 melden klar 4K-Sektoren (die HD204UI auch, afair), Solaris macht aber ashift=9-Pools draus. Mancher sagt ja, das sei hardgecodet* ;) Insofern fänd ichs komisch, wenn dann bei nem Replace gemeckert wird (werd ich aber noch ausprobieren). Bei den frei(er)en Betriebssystemen mit dem parallel entwickelten ZFS-Strang macht man ashift=12, wenn ne 4K bei Erstellung vorhanden ist, und falls nicht, gibts die Komplikationen, die du schon bemerkt hast.

Dahingehend würd ich @gea auch auf der "Best Use"-Seite ashift=12 generell empfehlen, nicht nur, wenn schon 4k-Laufwerke eingesetzt werden. Denn 512B wird langsam aussterben, ob man das möchte oder nicht. Bei Problemen hat man dann die Krätze mit neuem Pool erstellen (in voller Größe & Schönheit) und dann den ggf. schon degradedeten Pool darauf umzuziehen.


* Ich würd ja gern mit anderer Software (OI, FN, etc.) den Pool mit kleiner ZFS-Version erstellen, exportieren, in Solaris importieren und dann die Version upgraden. Aber nachträglich Verschlüsselung generell anknipsen is nich, oder? Wenn, dann müsste ich das für jedes Filesystem separat machen?
 
Hallo Bzzz,

ich verwende aktuell noch OI. Die bisherigen Platten sind native 512b-Platten, die WD30EZRX meldet korrekterweise ihre 4k. Soweit ist also alles richtig.
Das man diese nicht in einem vdev mit ashift 9 integrieren kann ist auch richtig. Beim Erstellen des Pools war keine einzige 4k-Platte beteiligt, also ashift 9. Somit macht OI also wirklich alles alles richtig.
Wenn ich jetzt einen Pool mit dieser WD30EZRX einrichte, zusätzlich noch ein paar alte 512er Platten, so wird dieser Pool mit ashift 12 eingerichtet. Auch richtig. Kann also nicht meckern ;-)

Also werde ich mal den bisherigen Pool umkopieren, auflösen und neu erstellen. Da bleibt also noch meine Frage mit den zfs send Parametern ;-)

edit: um die Sache mal zu konkretisieren: einen Snap eines einzelnen Filessystems anzulegen und auf den neuen Pool zu kopieren, das bekomme ich schon fast hin.
Dabei werden aber leider die Folder-ACLs und die SMB-Share-Permisions nicht mitkopiert. Unabhängig davon, möchte ich aber alle FS eines Pools mit einmal auf den neuen Pool kopieren. Das klappt erst recht noch nicht.
Meine bisherige Syntax:
zfs snapshot -r pool1name\filesystem@snapname
zfs send -R pool1name\filesystem@snapname | zfs receive -d pool2name
 
Zuletzt bearbeitet:
SnapRaid ist ja seit Anfang Feb. in napp-it integriert. Welche Version von SnapRaid ist in napp-it mit bei v2.1 oder v3.0?
Hat schon jemand Erfahrung damit gemacht und gibts ein HowTo.

Ich würde gerne SnapRaid für ein Backup-System verwenden, da ich hier noch einen bunten Strauß an allerlei HDD (von 500 GB bis 2 TB) rumliegen habe.
 
Zuletzt bearbeitet:
SnapRaid ist ja seit Anfang Feb. in napp-it integriert. Welche Version von SnapRaid ist in napp-it mit bei v2.1 oder v3.0?
Hat schon jemand Erfahrung damit gemacht und gibts ein HowTo.

Ich würde gerne SnapRaid für ein Backup-System verwenden, da ich hier noch einen bunten Strauß an allerlei HDD (von 500 GB bis 2 TB) rumliegen habe.

Snapraid ist ein Backupprogramm das mit /var/web-gui/data/tools/snapraid/snapraid (v 2.1) aufgerufen wird. Es zeigt dann alle Optionen an. Prinzipiell muss man nur das Configfile anpassen und kann denn entweder einen sync starten (auch per autojob) oder ein rebuild aufrufen.

Ich persönlich würde aber eher die kleinen, alten Platten erden und eine weitere große kaufen.

---------- Post added at 23:09 ---------- Previous post was at 23:07 ----------

Meine bisherige Syntax:
zfs snapshot -r pool1name\filesystem@snapname
zfs send -R pool1name\filesystem@snapname | zfs receive -d pool2name

das passt doch (pool/dateisystem > pool). Man muss halt die Dateisysteme einzeln kopieren oder der Pool landet in einem Dateisystem.

ps. Geht natürlich auch per napp-it replication (Quelle=127.0.0.1)

---------- Post added at 23:11 ---------- Previous post was at 23:09 ----------

Dahingehend würd ich @gea auch auf der "Best Use"-Seite ashift=12 generell empfehlen, nicht nur, wenn schon 4k-Laufwerke eingesetzt werden. Denn 512B wird langsam aussterben, ob man das möchte oder nicht. Bei Problemen hat man dann die Krätze mit neuem Pool erstellen (in voller Größe & Schönheit) und dann den ggf. schon degradedeten Pool darauf umzuziehen.


* Ich würd ja gern mit anderer Software (OI, FN, etc.) den Pool mit kleiner ZFS-Version erstellen, exportieren, in Solaris importieren und dann die Version upgraden. Aber nachträglich Verschlüsselung generell anknipsen is nich, oder? Wenn, dann müsste ich das für jedes Filesystem separat machen?

1. geschehen, sehe ich auch so

2. Nach Pool Update in Solaris gibt es keinen Weg zurück.
Verschlüssellung muss bereits beim Anlegen des Dateisystems angegeben werden.
 
Hallo gea,

ok, habs gerade alles mit Hand gemacht. Ich hatte gehofft, es gibt einen einfacheren Weg als alle Shares/FS einzeln zu senden. Die Rechte wurden nun doch alle wie sie vorher waren übernommen. Kann ich eigendlich auf dem Zielpool die Snaps wieder löschen? Ich dachte man macht auf der Quelle einen Snap um ein konsistentes FS zu senden, aber auf dem Zielpool dachte ich wird aus dem Snap das neue FS.
Zur Zwangserstellung der vdevs mit ashift 12 habe ich mir insofern helfen können, in dem ich immer die 3TB WD mit in das vdev eingebunden habe, später aber dann per disk replace wieder entfernt habe. So haben jetzt alle Pools und vdevs ein ashift von 12 und ich bin für später hoffentlich gut gerüstet.

btw: zur Erstellung eines temporären Backuppools hatten mir noch 2 Platten gefehlt. Also habe ich mir gedacht, ich entferne aus meinen raidz2-vdevs jeweils eine Platte.
Nur leider konnte ich mit diesen gewonnen Platten keinen neuen Pool anlegen, da immer geschimpft wurde, diese Platten gehören zu einem anderen Pool. Ein fdisk über die Platten hatte keinen Erfolg, anscheinend erkennt ZFS die Zugehörigkeit anhand der WWN oder der SN der Platten. Dabei hatte ich die Platten sogar extra vom LSI /WWNs) entfernt und an den OnBoard-Sata gehangen (c20t0d0 usw.).
Also habe ich den degradeten Pool exportiert, mit UNterstützung der entfernten 2 Platten (jetzt waren alle 14 Storageplatten wieder zur freien Verfügung)einen temporären Backuppool erstellt und dann den Storagepool mit den restlichen 12 Platten wieder inportiert. Puhhh, da hatte ich aber schon ein paar Schweissperlen auf der Stirn.
Alles in allem aber eine einfache und tolle Sache was hier so möglich ist. Mach das mal mit einem Windows-Storageserver ;-)
 
Da ich noch auf meine SFF8087 Kabel für den Server warten muss, habe ich mir bezüglich des Betriebssystemes nochmals Gedanken gemacht. OpenIndiana ist eigentlich soweit eingerichtet, aber ich bekomme pyLoad einfach nicht zum Laufen. Habe da auch schon im pyLoad-Forum nachgefragt, dort konnte man das Problem aber noch nicht lösen. Unter Ubuntu-Server ist das ganze kein Problem, weswegen ich euch fragen wollte, was die Nachteile von ZFSonLinux sind? Ich nehme mal an, dass es mit der nicht experimentellen Version noch nicht viel Erfahrung damit gibt?

Mich interessiert, was gegen ZFSonLinux spricht? Mir ist die Performance wichtig und natürlich die Stabilität. Falls ich mal ZFSonLinux nehmen würde und Probleme hätte, sollte es ja kein Problem sein auf OpenIndiana umzusteigen, da beide ZFS v28 sind?

Hier mal meine Überlegungen:

ZFSonLinux
Vorteile:
  • In Verbindung mit Ubuntu eine grössere Community
  • pyLoad läuft problemlos
Nachteile :
  • Kein napp-IT
  • Vielleicht nicht so performant und stabil wie OpenIndiana

OpenIndiana
Vorteile:
  • Mit napp-IT verwaltbar
  • Performanter und stabiler als ZFSonLinux?
Nachteile:
  • pyLoad läuft nicht
  • Kleinere Community
  • Es laufen nicht so viele Programme wie unter Linux
  • Computer kann mit meinem Mainbiard nicht komplett heruntergefahren werden

Habe ich hier noch was übersehen oder nicht bedacht? Würde mich über Anregungen und Antworten freuen.
 
Als Storageserver ist Solaris sicher etwas besonderes und in manchem schlichtweg neuer, stabiler oder überlegen. Ich denke da an besondere Sachen wie Solaris CIFS Server mit Windows SID, ACL und vorheige Version, Comstar (ISCSi) , Crossbow (Netzwervirtualisierung) aber auch Dinge wie Dtrace und Servicemanagement. Es kommt halt alles wie bei Apple oder Windows aus einer Hand. Eine runde Sache eben. ZFS 5000 mit LZ4 Compressor ist z.B. aktuell nur unter OmniOS verfügbar (ZFS 28 ist out)

ZFS als Dateisystem wird meiner Ansicht nach unter Linux bald die Nr. 1 sein. ZFS mit Linux ist ja auch ok wenn es um besondere Anwendungen geht. Ich denke da aber eher an HA und Clustering.

Eine Option ist noch All-In-One.
ESXi als Basis, darauf das Beste für den jeweiligen Fall. Solaris für Storage, Linux und Windows für den Rest.
 
Danke für deine ausführliche Antwort. ESXi hätte ich natürlich gerne, hatte allerdings noch ein Mainboard + CPU rumliegen, die kein VT-d können. Wenn ich jetzt aber nur im Heimnetzwerk Dateien bereitstellen will und die meisten Features nicht brauche, spricht wohl nichts gegen ZFSonLinux? Und falls es mir nicht zusagt, kann ich den Pool immer noch in einem anderen OS importieren.
 
Hallo,

ich habe mir für meinen Homeserver 2x Toshiba DT01ACA Series 2000GB, SATA 6Gb/s (DT01ACA200) Preisvergleich | Deutschland - Hardwareluxx - Preisvergleich bestellt und einen M1015 Controller.
Diese möchte ich als gemirrortes Vdev einrichten. Wenn ich später ein weiteres Paar als Mirror Vdev dem Pool hinzufüge für eine Raid 10 Konfiguration, werden die Daten dann über die 4 Laufwerke verteilt oder muss man das irgendwie manuell anstoßen?
Oder muss man die Daten neu von einem Backup aus kopieren?

edit: Genutztes OS: OpenIndiana + Napp-it
 
Zuletzt bearbeitet von einem Moderator:
Hallo,

das was schon auf dem ersten vdev drauf ist, wird nicht verteilt. Was liegt das liegt. Neue Schreibvorgänge werden dann auf beiden vdevs parallel durchgeführt.
Eine gleichmäßige Verteilung auf alle 4 Platten kann als nur durch Umkopieren oder Einspielung aus Backup erfolgen.
Bei meinem Pool aus 2 vdevs, das Zweite nach ca. 1 Jahr hinzugefügt, konnte ich es jetzt gut sehen. Das zweite vdev ist noch fast leer gewesen, brachte also performacemäßig nichts.
 
Hallo,

das was schon auf dem ersten vdev drauf ist, wird nicht verteilt. Was liegt das liegt. Neue Schreibvorgänge werden dann auf beiden vdevs parallel durchgeführt.
Eine gleichmäßige Verteilung auf alle 4 Platten kann als nur durch Umkopieren oder Einspielung aus Backup erfolgen.
Bei meinem Pool aus 2 vdevs, das Zweite nach ca. 1 Jahr hinzugefügt, konnte ich es jetzt gut sehen. Das zweite vdev ist noch fast leer gewesen, brachte also performacemäßig nichts.

Danke für die Antwort!
Dann werde ich nach der Erweiterung die Daten neu drauf kopieren.
 
Nun ist es bei mir auch an der Zeit, mein NAS Projekt zu starten.
Initial wollte ich eine Fertiglösung, aber die Preise von Systemen mit mehr als 5 Platten treiben einen zum Selbstbau ;)

Ziel ist nun ein möglichst sparsamer und bezahlbarer Server, der ordentlich Platz für künftige Erweiterungen hat.
Zunächst fiel die Wahl auf ein Xeon-Setup, aber durch Recherche fand ich eine (für mich vermutlich) bessere Lösung:
AMD Opteron 3350 mit Supermicro H8SML-7F.
Dazu noch 2 * 8 GB ECC-Speicher und ein gedämmtes Gehäuse mit vielen 3,5" Slots.
Durch den Onboard SAS-Controller kommt das Setup mit einem Netzteil auf gerade einmal 650€ ohne SSDs und HDDs.

Das Board hat mit dem SAS-Controller 14 SATA Ports.
Davon fallen max 5 durch folgende Geräte weg:
- System SSD
- ZIL/L2ARC SSDs
- Blu-ray Brenner

Das Speichersystem soll erweiterbar sein und bei der VDEV Konfiguration habe ich nun noch offene Fragen.
Ich wollte mit 6 WD RED Platten á 3 TB beginnen.
Aufrüstungen sollten in kleinen Schritten möglich sein.
Das spricht für einen Pool aus 2 VDEVs mit je 3 Platten in jeweils einem RAID-Z1.
Alternativ könnte man auch ein VDEV mit RAID-Z2 aus 6 Platten machen.

Beide Varianten haben 2 Paritätsplatten - nur was ist hier sinnvoller von der Ausfallsicherheit?
- Den Pool mit jeweils 3 Platten zu erweitern ist angenehmer und ich könnte später auf 9 oder 12 HDDs aufstocken (12 ohne ZIL/L2ARC bzw. Brenner).
- Die Initialen Platten würde ich bei 3 Läden kaufen um nicht aufeinander folgende Seriennummern zu erhalten.
Dies war bei den 6 Samsung Platten für ein Qnap Setup der Fall - und das ist für das gleichzeitige Ausfallrisiko in einem VDEV eher schlecht.
- Beim Ausfall einer Platte in einem VDEV genügt es doch, nur die eine Platte desVDEVs nach dem Austausch zu resilvern?
- Das sollte doch verhältnismäßig schnell gehen, und kürzer sein als der selbe Vorgang in einem Z2-Verbund?

Hier sind noch ein paar andere Fragen:
Kann man nur HDDs in einem VDEV ersetzen oder kann man auch ein komplettes VDEV in einem Pool mit einem neuen (größerem) VDEV ersetzen?
Gibt es Erfahrungen zur Dimensionierung von ZIL bzw. L2ARC?
Ich habe einiges zum Thema gelesen und frage mich, wie man beides mit wenig Aufwand umsetzen kann.
ZIL sollten gespiegelt sein, das macht aber beim L2RC keinen Sinn. Somit würde man 3 SSDs benötigen da Mirror bei teuren SSDs unnötig kostspielig wäre.
Jedoch dürfte für ZIL fast kein Platz nötig sein - Durchsatz der SSD * 2 * 5 -> keine 4 GB.
2 SSDs mit je 2 Partitionen haben allerdings den Nachteil, dass ich dann auch L2ARC spiegeln müsste.
Oder kann ich hier auch strippen und das Cache-System zerlegt bei einer kaputten SSD nicht meinen Pool?
Langen MLC SSDs oder muss für ZIL auf SLC SSDs zurückgegriffen werden?

Virtualisierung ist grundsätzlich mit der Hardware möglich, aber ich will eigentlich darauf verzichten.
Ich will allerdings Software verwenden, die es (derzeit noch) nicht auf Solaris gibt (Mediaserver, ...).
Gibt es Erfahrungen zu ZFS on Linux, denn mit Debian und Ubuntu habe ich Erfahrungen, mit Solaris und BSD nicht.

Langen für mein Setup die 16 GB RAM oder sollte ich gleich zu Beginn auf 32 GB aufstocken?

Edit:
Verschlüsselung ist auch ein Thema, hier dachte ich an TrueCrypt, da ich nicht alle Platten verschlüsseln möchte. Wichtige Daten sind per Container über eine Freigabe zu erreichen oder können am Server als unverschlüsselte Freigabe verfügbar gemacht werden.
Daher wird Caching sicher Sinn machen?
Ein weiterer Grund für Caching ist auch, dass ich Kataloge für Lightroom und co. auch auf das NAS legen will.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh