flowershop
Neuling
Thread Starter
- Mitglied seit
- 27.05.2023
- Beiträge
- 4
Hallo zusammen,
derzeit betreibe ich einen Freebsd Server mit zwei ZFS data pools. In erster Linie Plex, ein paar kleinere Datenbanken, Dinge wie Solaranzeige, Fotoarchiv, Unifi etc.. Ich liebe ZFS aber sehe ein, dass mein Use-Case mittlerweile schlicht ein anderer ist. Bei vielen TB an Daten, die eher im Archiv liegen und ggf. alle paar Monate mal genutzt werden, denke ich über einen Switch zu unraid nach. Klar ist es kein FreeBSD mit ZFS, aber für meinen Use-Case könnte ich damit erreichen, dass ich viel leichter einzelne Platten nachstecken kann und die Platten 99% der Zeit im Spindown/Idle sind, was ja bzgl. Umwelt auch netter ist.
Aktuell ist es ein Supermicro Gehäuse mit 12*3,5“ Platten und einem X9DRD-7LN4F. Dazu ein LSI für die internen Platten. 2*E5-2650 v2 2.6Ghz und 64GB ECC RAM (4* Samsung M393B2G70DB0-YK0). Auf dem FreeBSD laufen einige JAILs (Nextcloud, Plex, Datenbanken). Und eine vm-bhyve mit Ubuntu für ein paar Docker.
Dazu noch ein Supermicro JBOD mit 16 bays über SAS angeschlossen.
Plan wäre das ganze wie folgt zu verschlanken:
Meine Hoffnung: Durch den Wegfall des externen (extrem lauten) JBODs spare ich schon einmal 2 Netzteile und den dadurch gezogenen Strom. Der Wechsel von ZFS (und derzeit 8-17 Spinning Disks) auf unraid (mit nahezu immer idling disks) sollte ebenfalls helfen. Mit 2TB NVMes kriege ich schon einiges in den VMs und Docker abgefackelt und bin zumindest bzgl. IOPS deutlich fixer als bisher (bisheriges ZROOT 2 TB Spinning SATA).
Habt ihr eine gute Empfehlung für Gehäuse und Board? Meine Schraubmotivation ist nicht gerade wahnsinnig hoch. Daher dachte ich an etwas von serverschmiede. Z.B.
Setzt hier jemand etwas ansatzweise Ähnliches mit Unraid (bin Unraid Neuling) ein? Gibts Pferdefüße? Dinge wie Performanceunterschiede zwischen UnRaid und ZFS sind mir klar. Aber 95% von dem, was ich auf dem Server mach eist long-time-storage von großen Dateien. Write Once, Read seldom.
Nach dem was ich gelesen habe, kann ich ja zahlreiche VLANs in Unraid nutzen und an die Docker Container oder die VMs geben. Damit sollte ich alle Szenarien hinbekommen. Falls ich dann noch ein Plex Transcoding Thema haben sollte, kann ich ja noch eine Nvidia GPU für Hardware Transcoding reinwerfen.
Das Board hat laut Webseite:
Wenn ich mich nicht verzählt habe würde der LSI einen (x16?) belegen. Der NVMe zweifach Adapter (der hoffentlich die beiden NVMes als zwei Devices auswirft) den zweiten. Bliebe noch einer für z.B. die GPU.
Bin gespannt auf Eure Meinungen und auf was ich nicht geachtet habe.
derzeit betreibe ich einen Freebsd Server mit zwei ZFS data pools. In erster Linie Plex, ein paar kleinere Datenbanken, Dinge wie Solaranzeige, Fotoarchiv, Unifi etc.. Ich liebe ZFS aber sehe ein, dass mein Use-Case mittlerweile schlicht ein anderer ist. Bei vielen TB an Daten, die eher im Archiv liegen und ggf. alle paar Monate mal genutzt werden, denke ich über einen Switch zu unraid nach. Klar ist es kein FreeBSD mit ZFS, aber für meinen Use-Case könnte ich damit erreichen, dass ich viel leichter einzelne Platten nachstecken kann und die Platten 99% der Zeit im Spindown/Idle sind, was ja bzgl. Umwelt auch netter ist.
Aktuell ist es ein Supermicro Gehäuse mit 12*3,5“ Platten und einem X9DRD-7LN4F. Dazu ein LSI für die internen Platten. 2*E5-2650 v2 2.6Ghz und 64GB ECC RAM (4* Samsung M393B2G70DB0-YK0). Auf dem FreeBSD laufen einige JAILs (Nextcloud, Plex, Datenbanken). Und eine vm-bhyve mit Ubuntu für ein paar Docker.
Dazu noch ein Supermicro JBOD mit 16 bays über SAS angeschlossen.
Plan wäre das ganze wie folgt zu verschlanken:
- 1 Gehäuse mit 24-36 bays (um in den nächsten Jahren wenn notwendig nach und nach einzelne Platten nachzustecken)
- 2 CPUs mit gutem Preis/Leistungsverhältnis
- 2 NVMe als Unraid Cache-Pool
- 8*20 TB (6*Data + 2 * parity)
- 64GB+ Memory
- 10 GB Ethernet Anbindung (plus VLANs)
Meine Hoffnung: Durch den Wegfall des externen (extrem lauten) JBODs spare ich schon einmal 2 Netzteile und den dadurch gezogenen Strom. Der Wechsel von ZFS (und derzeit 8-17 Spinning Disks) auf unraid (mit nahezu immer idling disks) sollte ebenfalls helfen. Mit 2TB NVMes kriege ich schon einiges in den VMs und Docker abgefackelt und bin zumindest bzgl. IOPS deutlich fixer als bisher (bisheriges ZROOT 2 TB Spinning SATA).
Habt ihr eine gute Empfehlung für Gehäuse und Board? Meine Schraubmotivation ist nicht gerade wahnsinnig hoch. Daher dachte ich an etwas von serverschmiede. Z.B.
- Supermicro CSE-847 X10DRI-T4+.
- 2 * Intel E5-2667V3
- 4*16 GB ECC RAM (in der Hoffnung, dass ich dann die 4*16GB aus dem alten Server nach der Migration rüberziehen kann)
- LSI SAS9300-8i mit IT Firmware (Frage: Bringt mir der 16i hier etwas)?
- 4*X540 10GB ist ja onboard
- 2*Supermicro 1280W 80 Platinum PSU
Setzt hier jemand etwas ansatzweise Ähnliches mit Unraid (bin Unraid Neuling) ein? Gibts Pferdefüße? Dinge wie Performanceunterschiede zwischen UnRaid und ZFS sind mir klar. Aber 95% von dem, was ich auf dem Server mach eist long-time-storage von großen Dateien. Write Once, Read seldom.
Nach dem was ich gelesen habe, kann ich ja zahlreiche VLANs in Unraid nutzen und an die Docker Container oder die VMs geben. Damit sollte ich alle Szenarien hinbekommen. Falls ich dann noch ein Plex Transcoding Thema haben sollte, kann ich ja noch eine Nvidia GPU für Hardware Transcoding reinwerfen.
Das Board hat laut Webseite:
- 2x PCIe 3.0 (x16) Low Profile
- 3x PCIe 3.0 (x8) Low Profile
Wenn ich mich nicht verzählt habe würde der LSI einen (x16?) belegen. Der NVMe zweifach Adapter (der hoffentlich die beiden NVMes als zwei Devices auswirft) den zweiten. Bliebe noch einer für z.B. die GPU.
Bin gespannt auf Eure Meinungen und auf was ich nicht geachtet habe.