[Kaufberatung] Planung meines neuen FreeNAS-Servers

C

Cludch

Guest
Hallo zusammen,

ich plane aktuell einen neuen FreeNAS-Build. Optimal wäre ein 2U Rackmount, aber ansonsten ginge auch ein Tower-/NAS-Gehäuse. Wichtig ist mir, dass der Server nicht übermäßig viel Strom frisst und auch nicht gerade laut ist, was bei 2U Servern vermutlich schwierig wird.

Meine aktuelle Teilliste sieht wie folgt aus:

Mainboard: Supermicro X11SSH-F / ASRock Rack E3C232D2I
CPU: Intel Pentium G4560 / Xeon E3-1245 V5 / i5 7400
RAM: 8 GB DDR4-2133 ECC (TBD)
Netzteil: Abhängig davon, ob es ein Rack oder Desktop wird
Netzwerk: Gerne mit 10GBe (kann auch erst später per PCIe nachgerüstet werden)

Ich plane darauf ein RAID 5 / FreeNAS laufenzulassen und erstmal nur drei Festplatten reinzustecken (später dann vermutlich sechs).

P.S. Habe bisher noch keinen Server mit richtiger Server-Hardware gebaut, also entschuldigt bitte, falls das so doch keinen Sinn ergibt.

Vielleicht habt ihr paar Tipps oder kennt bessere Teile oder Gehäuse.
Vielen Grüße,
Cludch
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hi,

- keinen i5 oder i7 verbauen, die unterstützen kein ECC-Ram. Wenn nur Storage, dann reicht der G4560. Wenn Du bissi mehr machen willst, evtl. auch mit ein paar virtuellen Maschinen, eher Richtung des genannten E3.
- Bei 6 Platten eher schon Richtung Raid6/Raidz2 denken; während der Rebuild-Zeiten von großen (und bei ZFS vollen) Platten mit mehreren TB je Platte kann Dir evtl. schnell eine 2. aussteigen; und das wars dann mit Deinen Daten.
- Eher mehr RAM.
- eher das Supermicro als mATX. das Asrock Rack als miniITX ist arg beschränkt bzgl. Ausbau.
- wenn Du Richtung 10GBe denkst, dann die X11SSH-Varianten mit Intel 10Gbit onboard anschauen; das ist billiger als später ne teure 10Gbit-Karte rein. Wenn Du gar mit virtualisiertem Storage und ZFS überlegst, solltest das X11SSH-CTF als Komplettpaket inkl. onboard LSI-Hostbusadapter und 10Gbit anschauen.

Gehäuse? Mein Favorit: Fractal R4 falls Du das noch günstig bekommst. Nicht zu groß, passen ordentlich Platten rein, gutes Kabelmanagement, brauchbare Kühlung, leise, Staubfilter serienmässig.
 
Zuletzt bearbeitet:
- keinen i5 oder i7 verbauen, die unterstützen kein ECC-Ram. Wenn nur Storage, dann reicht der G4560. Wenn Du bissi mehr machen willst, evtl. auch mit ein paar virtuellen Maschinen, eher Richtung des genannten E3.

Ich würde noch paar Docker-Container laufen lassen, aber das kann ich auch auslagern. Bzgl. der i5/i7 CPUs: Ist mir gerade auch bei meiner Recherche aufgefallen, fallen also weg.

- Bei 6 Platten eher schon Richtung Raid6/Raidz2 denken; während der Rebuild-Zeiten von großen (und bei ZFS vollen) Platten mit mehreren TB je Platte kann Dir evtl. schnell eine 2. aussteigen; und das wars dann mit Deinen Daten.

Auch wenn ich anfangs nur drei zur Verfügung habe? Kenne mich mit ZFS, RAID 6/z2 noch nicht aus, bin aber gerade am Lesen.

Kostet nochmal mehr, würde doch dann mit den anderen drei Platten reichen, oder?

- eher das Supermicro als mATX. das Asrock Rack als miniITX ist arg beschränkt bzgl. Ausbau.
Stimmt

- wenn Du Richtung 10GBe denkst, dann die X11SSH-Varianten mit Intel 10Gbit onboard anschauen; das ist billiger als später ne teure 10Gbit-Karte rein. Wenn Du gar mit virtualisiertem Storage und ZFS überlegst, solltest das X11SSH-CTF als Komplettpaket inkl. onboard LSI-Hostbusadapter und 10Gbit anschauen.
10 GBe ist auch eher für später angedacht und die MBs mit sind auch nochmal teurer. Dauert auch noch bis ich den passenden Switch dafür besorge. Muss diesbezüglich nochmal schauen.

Gehäuse? Mein Favorit: Fractal R4 falls Du das noch günstig bekommst. Nicht zu groß, passen ordentlich Platten rein, gutes Kabelmanagement, brauchbare Kühlung, leise, Staubfilter serienmässig.
Habe aktuell ein R5 für mein PC in Benutzung und das ist auch top.
Da bräuchte ich auch noch Backplanes oder?
Fehlen ansonsten noch Teile?

Vielen Dank für deine Hilfe!
 
Interne Backplanes für die Fractals gibts ja leider nicht. Ich betreibe meine (6 Stück 7200er) einfach in den normalen HDD-Schlitten meines R4. Einzig den Plattenkäfig hab ich nicht direkt verschraubt, sondern nochmal auf Gummi gelagert, um eine höhere Lärmdämpfung zu bekommen.

Bzgl. Ram: Mehr hilft mehr. Insbesondere mit ZFS willst Du soviel Ram zu bekommen wie möglich bzw. Dir leisten kannst. ZFS bekommt ganz massiv Performance aus Hauptspeicher. ZFS und FreeNas laufen mit 8GB, aber die Performance wird Dir eher nicht gefallen. Nochdazu, wenn nochmal Ram für VMs/Container weggeht.

Zum Vergleich: Ich weise meiner ZFS-Storage-VM 12GB Ram zu. Und die macht nur Storage. Ich setze dafür Nas4free ein, das ist vom Eigenbedarf her schlanker als FreeNas weil weniger Gimmicks.
=> Ich würde Dir daher recht nachdrücklich 16GB empfehlen.

Ferner: auf keinen Fall Seagate Archive-Platten kaufen. Die sind billig, aber damit hast Du keinerlei Freude.
Und: Du brauchst noch eine eigene kleine Platte bzw. besser SSD fürs System. Dieses nicht auf den Datenplatten installieren. Da soweit ich weiß, FreeNas Logdateien schreibt, würden sonst Deine Datenplatten ggf. nicht schlafen gehen können bzw. ein USB-Stick eher sehr langsam sein oder bald kaputtgeschrieben. Eine kleine 64er oder 120er SSD reicht dafür, nimm aber was bewährtes.
 
Zuletzt bearbeitet:
Bzgl. RAM: Werde dann mal 16GB auf die Liste packen.

Ich hatte auch überlegt, Proxmox mit ZFS laufenzulassen anstelle von FreeNAS, weiß aber nicht, ob das so sinnvoll ist.

Bzgl. HDDs:
Geplant waren drei IronWolf oder WD Red Festplatten, um ein minimales RAID 5 zu erstellen.
 
Ich hatte auch überlegt, Proxmox mit ZFS laufenzulassen anstelle von FreeNAS, weiß aber nicht, ob das so sinnvoll ist.
.

Naja ein Unterschied besteht ja. FreeNAS virtualisiert wohl mit bhyve und Docker (dabei läuft Docker aber wohl in einer Linux-VM, weil FreeBSD nicht das aktuelle Docker unterstützt). Proxmox virtualisiert mit KVM und LXC. Bei Proxmox dürfte eine "Storage-VM" überflüssig sein. Bei FreeNAS auch sofern man denn mit bhyve/iohyve auskommt.
 
Zuletzt bearbeitet:
Naja ein Unterschied besteht ja. FreeNAS virtualisiert wohl mit bhyve und Docker (dabei läuft Docker aber wohl in einer Linux-VM, weil FreeBSD nicht das aktuelle Docker unterstützt). Proxmox virtualisiert mit KVM und LXC. Bei Proxmox dürfte eine "Storage-VM" überflüssig sein. Bei FreeNAS auch sofern man denn mit bhyve/iohyve auskommt.

Nur kann ich mit Proxmox auch so zuverlässig ZFS administrieren?

Habe mich jetzt auch für RaidZ2 entschieden. Werde dann anfangs vier Platten nehmen und später acht.

Edit: Habe mir das Netzteil jetzt rausgesucht,
 
Zuletzt bearbeitet:
Ich hatte früher Proxmox benutzt, noch bevor es dort ZFS gab. Wegen ZFS bin ich dann auf ESXi+FreeNAS umgestiegen, habe mich aber über die Jahre ständig über den Stand von ZoL und Proxmox informiert.
ZFS on Linux gilt als ausgereift und zuverlässig. Wenn ich heute ein System aufbauen würde, wäre meine Entscheidung klar wieder Proxmox, weil es einfach eindeutlich übersichtlicheres und besser bedienbares Interface bietet und Debian ja auch unter der Haube wesentlich flexibler ist als FreeBSD, vor Allem, in Bezug auf Virtualisierung (die ist bei FreeNAS IMHO bestenfalls rudimentär zu nennen). Die vermeintlich unschlagbare Stabilität von FreeNAS ist m. Meinung nach auch nur (noch) ein Gerücht, denn innerhalb der letzten Jahre sind den Entwicklern mehrmals kritische Fehler in die Updates durchgerutscht, die durchaus für Datenverlust hätten sorgen können. Allerdings muss man fairer Weise sage, dass diese auch schnell behoben werden.
 
Zuletzt bearbeitet:
ZoL unterstützt aber noch kein Trim für ZFS. Nicht unwichtig für SSD-Pools. Solange das nicht existiert, sehe ich bei mir keinen Weg an BSD vorbei (ich hätte lieber Original-Solaris, nur bleibt das bei NVME-Passthrough hängen) das und bleibe bei ESXI+Nas4free/BSD als Storage-VM mit durchgereichtem HBA.
 
Zuletzt bearbeitet:
Dann setze ich vielleicht doch auf Proxmox und verbinde damit meinen Storage- und VM-Host. Dann brauche ich auch definitiv 16 GB RAM.
Nur würde ich dann auch direkt zwei SSDs im RAID 1 noch laufen lassen für paar VMs selbst.
Ist die Trim-Funktion wichtig? (Werde nebenbei mal selber schauen).

Ist das Netzteil aus meinem letzten Post ok?
 
Das kommt auf die SSDs und die Verwendung an.
Wenn die SSDs als Storage dienen (im Sinne von viel Schreibvorgängen), dann ist TRIM schon sinnvoll. Wenn sie hingegen hauptsächlich für Systemzwecke genutzt werden, also vorwiegend nur gelesen werden, dann reicht es auch, wenn du SSDs mit einer guten Garbage-Collection nutzt.
 
Zuletzt bearbeitet:
Wenn die VMs nicht viel schreibende I/O auf den SSD ausführen, kann man ohne Trim leben. Wenn Du viel schreibenden und löschenden zugriff hast, willst Du Trim. Insbesondere auch, da ZFS ein Copy-on-write Dateisystem ist.

Edit: Jetzt war Elmario nen Tick schneller.

Bzgl. des Netzteils: sicher nicht falsch. Ich persönlich mag im Serverbereich keine modularen NTs, damit da keine Kontaktprobleme an den Steckverbindern die Kiste crashen lassen. Ich setze da im Selbstbau derzeit BeQuiet Straight Power 10 (400W) ein, meine Dell T20 haben ihr originales drin.
 
Zuletzt bearbeitet:
Ok, die SSDs sollen nur das System beinhalten und alles andere kommt auf die NAS-Platten.
Persönlich bin auch ein ein BeQuiet Fan. Werde mir dann einfach ein passendes 400-450W Gold Netzteil aussuchen.

Denke mal, dass alle meine Fragen bereits geklärt sind. Vielen Dank!

System: Proxmox
Raid: RaidZ2
CPU: Suche mir noch einen passenden Xeon, da der oben genannte doch etwas teuer ist.

Viele Grüße,
Cludch

Edit: Nochmal zwei kurze Fragen. Reicht der Stock-Kühler für den Prozessor oder sollte ich da noch einen anderen draufpacken?
Und was wäre der Vorteil von dem X11SSH-CTF gegenüber dem -TF? Doch eigentlich nur der LSI SAS Controller, den ich nicht benötige, oder doch?
 
Zuletzt bearbeitet:
Ja, der LSI-Controller ist der Unterschied. Beachte aber dabei: Solltest Du so einen z.B. später mal nachrüsten wollen, ist der einzige 8x Slot weg und Du hast nur noch einen x2-Slot zur Verfügung. Beim CTF bleibt der 8x Slot zusätzlich verfügbar, z.B. für weitere NVMe-SSDs.

Beim Xeon kannst auf den 1230v5 runter gehen, Du verlierst nur ein paar Mhz und die Grafikeinheit der xxx5-Xeons brauchst beim Supermicro eh nicht weil der den AST-Chip für die IPMI drauf hat; der liefert auch einfaches VGA.

Das X11SSH-* kann AFAIK auch die Kabylake Xeons, aber dafür muss ein aktuelles Bios drauf sein.
 
Zuletzt bearbeitet:
Werde mal schauen, ob ich das CTF dann nehme. Lese mich da später weiter ein.

Beim Xeon hatte ich mir jetzt auch den 1230v5 oder v6 angeschaut.
 
Das BIOS kann man doch auch relativ einfach selber updaten? Kann schief gehen, ja, aber das ist auch seehr selten. Oder ist das anders als bei normalen Desktop-Mainboards?

Nochmal eine Frage zum LSI-Controller. Der bietet ja nur SAS3-Ports an und kein RAID 5/6, aber das wird ja dann eh software-seitig geregelt, oder?

Wäre es sinnvol ein Gehäuse mit passenden SAS-Backplanes zu suchen, so dass ich meine 4 bis später 8 HDDs daran anschließe und zwei SSDs, die später im RAID 1 laufen sollen, normal per SATA. So könnte ich die HDDs Hot-Swap fähig machen, richtig?
Mir schwirren bei dem Thema noch paar Fragezeichen im Kopf herum.
 
Das BIOS flashen ist halt schwierig, wenn das BIOS deine CPU schon nicht erkennt. Das kann eben ein Thema sein, wenn später CPUs für einen Sockel dazu kommen, die bei Release des Boards noch nicht vorhanden waren. Also wenn Du zum Beispiel bei Sockel 1151 direkt mit einem E3-v6 starten willst.
 
Ja, der LSI-Chipsatz 3008 kann kein Raid5/6 in Hardware. Er stellt im sogenannten IR-Modus Raid0/1/10 zur Verfügung und im IT-Modus reine SAS/Sata-Ports. In diesem letzteren Fall musst Du dann eine entsprechendes Betriebssystem einsetzen, welches daraus ein-Volume erstellt. Das kann ZFS sein, oder auch die entsprechenden Linux- oder Windows-Softraids.
An die SAS-Ports kannst Du auch ganz normale Sata3-HDD/SSD hängen, nicht nur SAS-Geräte.

Der IT-Modus bietet dabei (wie auch die üblichen Sata-Ports) vollen Hardwarezugriff auf die Platten/SSDs ohne dazwischenliegende Schicht für das entsprechende System; sehr wichtig für ZFS.

Es gibt natürlich Varianten, der LSI-Chipsätze, die auch Raid5+6 in Hardware können. Nur sind die dann eben wenig bis nicht für ZFS-Storage geeignet.

Diese kleinen Supermicro und Asrock Rack mATX-Boards mit SAS drauf sind im Prinzip genau auf Storageanwendungen und kleine Virtualisierungslösungen designed: Relativ kleine und sparsame CPUs bis maximal Xeon E3, gute bis sehr gute Netzwerkanbindung und optional neben den Intel-Sata-Ports auch noch einen SAS-Hostbusadapter für weitere Ports.
 
Zuletzt bearbeitet:
Hallo,

ich bin mir nicht sicher ob ihr bedacht habt, dass ihr ein ZVol nicht erweitern könnt.
Falls du jetzt ein RaidZ2 auf 4 HDD's erstellst, hast du 2 Paritäts-Platten und 2 Daten-Platten.
Wenn du nochmal 4 Festplatten in dein ZPool hinzufügen möchtest, musst du erneut ein ZPool mit einem RaidZ1 oder Z2 erstellen -> wieder nur 2 Datenplatten.
D.H. du hast selbst bei 8 Festplatten dann nur 50% an nutzbarem Speicher.
Da kannst du genauso Mirroring benutzen, was bei einem Rebuild wesentlich schneller ist.

Falls möglich würde ich deshalb 2x RaidZ1 mit je 4 HDD's erstellen (also 2x ein Raid5 mit 4 Platten) oder alle 6/8 Festplatten, die du in Zukunft kaufen willst/würdest, direkt am Anfang kaufen und dann ein RaidZ2 daraus bauen -> 6 HDD's nur für Daten und 2 für die Paritäten.
 
Das BIOS flashen ist halt schwierig, wenn das BIOS deine CPU schon nicht erkennt. Das kann eben ein Thema sein, wenn später CPUs für einen Sockel dazu kommen, die bei Release des Boards noch nicht vorhanden waren. Also wenn Du zum Beispiel bei Sockel 1151 direkt mit einem E3-v6 starten willst.

Stimmt. Werde darauf mal achten und die Händler fragen.

Ja, der LSI-Chipsatz 3008 kann kein Raid5/6 in Hardware. Er stellt im sogenannten IR-Modus Raid0/1/10 zur Verfügung und im IT-Modus reine SAS/Sata-Ports. In diesem letzteren Fall musst Du dann eine entsprechendes Betriebssystem einsetzen, welches daraus ein-Volume erstellt. Das kann ZFS sein, oder auch die entsprechenden Linux- oder Windows-Softraids.
An die SAS-Ports kannst Du auch ganz normale Sata3-HDD/SSD hängen, nicht nur SAS-Geräte.

Der IT-Modus bietet dabei (wie auch die üblichen Sata-Ports) vollen Hardwarezugriff auf die Platten/SSDs ohne dazwischenliegende Schicht für das entsprechende System; sehr wichtig für ZFS.

Es gibt natürlich Varianten, der LSI-Chipsätze, die auch Raid5+6 in Hardware können. Nur sind die dann eben wenig bis nicht für ZFS-Storage geeignet.

Diese kleinen Supermicro und Asrock Rack mATX-Boards mit SAS drauf sind im Prinzip genau auf Storageanwendungen und kleine Virtualisierungslösungen designed: Relativ kleine und sparsame CPUs bis maximal Xeon E3, gute bis sehr gute Netzwerkanbindung und optional neben den Intel-Sata-Ports auch noch einen SAS-Hostbusadapter für weitere Ports.

Ok. Dann wird es wohl das CTF. Werde mir mal anschauen, wie ich den Controller in den IT-Modus flashe.

Hallo,

ich bin mir nicht sicher ob ihr bedacht habt, dass ihr ein ZVol nicht erweitern könnt.
Falls du jetzt ein RaidZ2 auf 4 HDD's erstellst, hast du 2 Paritäts-Platten und 2 Daten-Platten.
Wenn du nochmal 4 Festplatten in dein ZPool hinzufügen möchtest, musst du erneut ein ZPool mit einem RaidZ1 oder Z2 erstellen -> wieder nur 2 Datenplatten.
D.H. du hast selbst bei 8 Festplatten dann nur 50% an nutzbarem Speicher.
Da kannst du genauso Mirroring benutzen, was bei einem Rebuild wesentlich schneller ist.

Falls möglich würde ich deshalb 2x RaidZ1 mit je 4 HDD's erstellen (also 2x ein Raid5 mit 4 Platten) oder alle 6/8 Festplatten, die du in Zukunft kaufen willst/würdest, direkt am Anfang kaufen und dann ein RaidZ2 daraus bauen -> 6 HDD's nur für Daten und 2 für die Paritäten.

Tatsächlich nicht. Mist. Gibt es irgendeine Alternative, um mit 4 HDDs und 2 SSDs anzufangen und später auf 8 HDDs zu weitern, außer vielleicht 2x RaidZ1 oder kann man das ruhig machen?


Habe nun bzgl. eines Cases nochmal überlegt und entschlossen, dass es doch ein 2U Rack mit 8x3.5 Bays + 2x2.5 internal Slots werden soll. Ich habe gelesen, dass man leise Netzteile finden kann und auch die internen Lüfter notfalls austauschen kann. Der Grund hierfür ist einfach, dass ich später alles in ein Rack packen will und nicht Tetris mit Desktops spielen will.
 
Klar gibts da ne Alternative. Jetzt mit nem Raidz1/2 anfangen und wenn neue Platten dazu kommen das vdev Auflösen, neu anlegen und die Daten aus dem Backup zurückspielen. Dies hat zwar eine kurze Downtime des Datenservers zur Folge. Wäre aber eine saubere Lösung.
 
Klar gibts da ne Alternative. Jetzt mit nem Raidz1/2 anfangen und wenn neue Platten dazu kommen das vdev Auflösen, neu anlegen und die Daten aus dem Backup zurückspielen. Dies hat zwar eine kurze Downtime des Datenservers zur Folge. Wäre aber eine saubere Lösung.

Dafür bräuchte ich doch noch mehr Festplatten, um die Daten kurzzeitig zu sichern oder irre ich mich?
Werde trotzdem erstmal mit RaidZ1 und 4 Platten dann anfangen.
 
Du brauchst aber eh mehr Platten: für eine Backup-Strategie nämlich.
Warte mal, bis sich da 10 TB und mehr an Daten gesammelt haben. :fresse:

Nicht nur wg. Hardwarefehlener und Malware, sondern auch wegen sich selbst. Gerade wenn man da in die Materie erst einsteigt, macht man Fehler.
Und ein einziger falscher Befehl in der Shell, und alles kann weg sein. In Sekunden. Ohne "Möchten Sie wirklich wirklich?"-Dialog.
Bedenke das bei Deiner Storage-Strategie.

Daher hab ich 3 Maschinen: eine produktive, eine Backup (die auch für nix anderes genutzt wird) und eine zum Rumspielen/Ausprobieren/Lernen.

Ich hatte schon 2 Situationen, wo ich unachtsam war und mir das Blut in den Kopf schoss und ich froh war, ein vorher gezogenes Backup zu haben.
 
Zuletzt bearbeitet:
Du brauchst aber eh mehr Platten: für eine Backup-Strategie nämlich.
Warte mal, bis sich da 10 TB und mehr an Daten gesammelt haben. :fresse:

Nicht nur wg. Hardwarefehlener und Malware, sondern auch wegen sich selbst. Gerade wenn man da in die Materie erst einsteigt, macht man Fehler.
Und ein einziger falscher Befehl in der Shell, und alles kann weg sein. In Sekunden. Ohne "Möchten Sie wirklich wirklich?"-Dialog.
Bedenke das bei Deiner Storage-Strategie.

Daher hab ich 3 Maschinen: eine produktive, eine Backup (die auch für nix anderes genutzt wird) und eine zum Rumspielen/Ausprobieren/Lernen.

Ich hatte schon 2 Situationen, wo ich unachtsam war und mir das Blut in den Kopf schoss und ich froh war, ein vorher gezogenes Backup zu haben.

Dafür habe ich das Geld anfangs definitiv nicht. Vielleicht später, was dann aber auch wieder die Stromkosten steigert.
Alle wichtigen Daten werden bereits extern gespeichert, würde aber nicht für eine Datenmigration funktionieren.
Habe mich mit ZFS noch nicht auseinandergesetzt, aber eigentliche habe ich nicht vor daran etwas zu ändern, sobald es läuft.
 
Habe mich mit ZFS noch nicht auseinandergesetzt, aber eigentliche habe ich nicht vor daran etwas zu ändern, sobald es läuft.

Und trotzdem kann es zu Fehlern kommen. Systemupdates, HDD Ausfall, Schreibfehler, ... die Liste kann man unendlich fortsetzen. Ich habe auch jahrelang meine "wichtigsten" Daten noch anderweitig (in meinem Fall via nextcloud) gesichert und bin ohne RAID gut gefahren. Am Anfang ist das sicherlich eine Option, wenn die Daten nicht so wichtig sind und im Notfall eben alles neu aufgesetzt werden kann. Wenn einem dann die Daten irgendwann mal wichtiger werden sollten, werden sich hier die Prioritäten von alleine verschieben. :)

Gruß
 
Und trotzdem kann es zu Fehlern kommen. Systemupdates, HDD Ausfall, Schreibfehler, ... die Liste kann man unendlich fortsetzen. Ich habe auch jahrelang meine "wichtigsten" Daten noch anderweitig (in meinem Fall via nextcloud) gesichert und bin ohne RAID gut gefahren. Am Anfang ist das sicherlich eine Option, wenn die Daten nicht so wichtig sind und im Notfall eben alles neu aufgesetzt werden kann. Wenn einem dann die Daten irgendwann mal wichtiger werden sollten, werden sich hier die Prioritäten von alleine verschieben. :)

Gruß

Ich denke mal, dass ich mit RAID 5 und Offsite-Backups erstmal gehen werden. Gibt immer Fehlerquellen, ja, aber wenn ich anfange ein Staging-System etc. noch hinzustellen, um mich vor solchen Fehlern teils zu schützen, kann ich mir das Essen auch erstmal sparen :d

Wird scheinbar doch ein Desktop-Gehäuse. 2HE sind vermutlich zu laut und 4HE sind auch einfach zu teuer.
Ein Gehäuse finde ich schon selber. Oder kennt jemand ein Gehäuse mit 8x3.5" Bays mit Backplate? Ansonsten nehme ich wohl das Define R4 oder R5.

Nun meine abschließenden Fragen:
Wie läuft das mit dem Anschließen von SATA-Platten am LSI-Controller? Gibt es extra SAS-Ports? SATA auf SAS Adapter oder wie würde das laufen?
 
Zuletzt bearbeitet:
Zwecks Sicherung etc:
Eine Datensicherung wird nötig sein, definitiv. Da reicht es aber normalerweise alle paar Wochen/Monate ein Backup zu erstellen, die wichtigsten Daten natürlich öfters.
ZFS kann Snapshots erstellen, d.H. du erstellst read only kopien davon, ohne dass diese zusätzlichen Speicher brauchen. Wenn dann Daten/Dateien durch Malware/löschen/wasauchimmer vernichtet werden, kannst du diese durch die Snapshots in wenigen Sekunden wiederherstellen.
Deshalb ist "nur" ein Backup nötig, falls eine/mehrere Festplatten sterben und das ZRAID hinüber ist.
Automatische Snapshots lassen sich natürlich auch konfigurieren.

Und leider kann man ein ZRaid nicht anders erweitern außer ein vdev hinzuzufügen - das ist auch der Grund, warum ich selber ZFS nur zum testen/spielen benutze, nicht aber auf meinen Hauptsystemen. Wenn ich einmal eine einzige Festplatte hinzufügen möchte zu einem (Z)RAID5 hab ich hald ein großes Problem.
 
Naja ein Unterschied besteht ja. FreeNAS virtualisiert wohl mit bhyve und Docker (dabei läuft Docker aber wohl in einer Linux-VM, weil FreeBSD nicht das aktuelle Docker unterstützt). Proxmox virtualisiert mit KVM und LXC. Bei Proxmox dürfte eine "Storage-VM" überflüssig sein. Bei FreeNAS auch sofern man denn mit bhyve/iohyve auskommt.

Bin grade nicht sicher, aber ich glaube bei Freenas11(FreeBSD11) wurde einiges an den VMs und Docker verbessert.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh