Unraid Server für Plex und Datengrab 24 Bays

remiel

Enthusiast
Thread Starter
Mitglied seit
29.09.2009
Beiträge
25
Hallo zusammen,

ich möchte mir einen Homeserver für Plex und Datengrab zusammenbauen auf Unraid-Basis. Der auch im Verbrauch noch vernünftig ist. Bin noch unschlüssig ob ich darauf ein paar Docker/VM laufen lassen will oder die doch lieber auf dem Raspberry lasse. Damit ich den Sleepmode beim Server nutzen kann.

Hab hier einiges im Forum gelesen und hab aktuell diese Komponenten im Auge.

Bei der HBA, hab ich aber gar keinen Plan was ich brauche möchte ein 24-Bay Gehäuse nutzen damit ich in Zukunft einfach aufrüsten kann ohne viel Aufwand.

4 Western Digital WD Gold 16TB, 512e, SATA 6Gb/s (WD161KRYZ)
2 Samsung SSD 860 EVO 1TB, SATA (MZ-76E1T0B)
1 Intel Core i3-9100, 4C/4T, 3.60-4.20GHz, boxed (BX80684I39100)
2 Samsung DIMM 16GB, DDR4-2666, CL19-19-19, ECC (M391A2K43BB1-CTD)
1 Fujitsu D3644-B (S26361-F5110-V162)
3 Noctua NF-F12 PWM, 120mm
1 Noctua NH-L12S
1 Fantec SRC-4240X07, 4HE (1873)
1 Fantec SRC-SR20 Teleskopschienen (1671)
1 Broadcom SAS 9300-8i, PCIe 3.0 x8 (LSI00344)

Würde mich über ein paar Tipps von euch freuen, möchte es spätestens zum Black-Friday kaufen^^.

Gehäuse-Vorschlag Inter-Tech https://geizhals.de/inter-tech-4u-4424-88887122-a1178972.html?hloc=de

EDIT: (Vollständigkeitshalber nicht gelöscht)
Supermicro hat sich erledigt, da der Stromverbrauch viel zu hoch ist, siehe Kommentar von @underclocker2k4

Beim Gehäuse bin ich auch total unschlüssig, das Fantec oder doch lieber ein gebrauchtes Supermicro E846. (Bewertungen vom Fantec sind nicht so der hit)

Das Supermicro hätte dann eine BPN-SAS2-846EL1 SAS Expander Backplane oder BPN-SAS3-846EL1 Backplane, womit wir wieder zur HBA kommen und ich nicht weiß was man braucht. Thema Backplane und HBA ist ein schwarzes Loch für mich, komm da auf keinen grünen Zweig.

Beim Supermicro würde ich dann ein 960W SQ-Servernetzteil dazu kaufen, da diese wesentlich leiser sind als die 1200 Watt Netzteile die bei Ebay immer dabei sind.

Es gibt Online auch einen Shop Serverschmiede dort kann man sich ein generalüberholten Supermicro E846 zusammenstellen. Aber ich vermute die brauchen wesentlich mehr Strom und haben weniger Leistung. Hat jemand dazu Erfahrung?

Hab mir dort mal folgendes zusammengestellt, auf der Basis eines Users von hier:

  • Supermicro CSE-846 X9DRi-F BPN-SAS2-846EL1 19" 4U 24x 3,5" LFF 2x Intel XEON E5-2600 v1 v2 DDR3 ECC Raid 2x PSU vmware Storage Server -CTO-
  • Konfigurierte Optionen:
  • Prozessoren - CPU: 2 x Intel Xeon E5-2650LV2 SR19Y 10C Server Prozessor 10x 1,70 GHz 25MB 2011 CPU (+178,00 €)
  • Arbeitsspeicher - RAM: 64GB Registered ECC DDR3 RAM (2x 32GB DIMM) (+164,00 €)
  • Main Storage Adapter - SAS SATA NVMe Controller: LSI SAS9300-8i 9300-8i PCIe x8 2x SFF-8643 12G SAS3 S-ATA HBA for HDD SSD JBOD Controller (ZFS, Ceph, MS Storage Spaces) (+145,00 €)
  • Einbaurahmen ohne Datenträger - Einbaurahmen Dummy: 24 x Supermicro 3,5" LFF HotSwap HDD Tray caddy MCP-220-00075-0B (+114,72 €)
  • Server-Einbauschienen - Rack Rails: Supermicro 4U-5U Rail Kit MCP-290-00057-0N für CSE-417 CSE-418 CSE-842 CSE-846 CSE-847 CSE-848 19" Rackschienen Rails (+126,00 €)
Würde sich dann auf ca 1120,- € belaufen für den fertigen ohne Festplatten. Beim oberen System wäre der Preis ähnlich aber alles wäre neu.

Gibt auch noch folgende HBAs zur Auswahl beim zusammenstellen:

  • LSI SAS9300-8i 9300-8i PCIe x8 2x SFF-8643 12G SAS3 S-ATA HBA for HDD SSD JBOD Controller (ZFS, Ceph, MS Storage Spaces) 145,-€
  • LSI SAS 9400-16i PCIe x8 4x SFF-8643 12G SAS3 NVMe HBA HDD SSD NVMe JBOD Tri-Mode Controller (ZFS, Ceph, MS Storage Spaces) 299,-€
  • LSI 92xx-8i PCIe x8 2x SFF-8087 8-port 6G SAS2 SATA3 IT-Mode HBA for HDD JBOD Controller (FreeNAS, ZFS, Ceph, vSAN) 97,-€
Würde mich über ein paar Tipps von euch freuen, möchte es spätestens zum Black-Friday kaufen^^.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Du hast Dir ein Board ohne IPMI ausgesucht.
Da gäbe es dann auch diese Alternative: https://geizhals.de/gigabyte-c246m-wu4-a2019282.html
Vorteil: statt 2x SATA für die SSDs auf 2x NVMe (M2.PCIe) wechseln. Da ist noch ein Bumms in der Cache-Performance drin (zB für Plex), mit sowas: https://geizhals.de/patriot-viper-vpn100-nvme-ssd-1tb-vpn100-1tbm28h-a2013725.html oder auch https://geizhals.de/kingston-a2000-nvme-pcie-ssd-1tb-sa2000m8-1000g-a2112846.html?hloc=de (weniger IOPS, ca. 1/3 TWB aber auch schon deutlich schneller als eine 6Gbps-SATA-SSD).

Wenn Du bei Plex transcoden musst, prüfen ob die IGP des i3-9xxx schon unterstützt wird...die vom i3-8100 geht, aber die ist evtl. eine Generation drunter.

Das Supermicro hat eine Backplane für 24 Disks und in der wohl verbauten Version 1 den Anschluss für einen HBA (mit dem passenden Stecker, 2x8087 oder 2x8643).
Das heisst, der Expander Chip für 24 Disks ist auf der Backplane...für unraid mit 6Gb/s Disks reicht mMn aber auch der kleinste HBA (LSI 92xx-8i / 8087).

Das fantec hat je Reihe eine SAS backplane, keinen Expander. Da brauchst Du also einen externen Expander oder mehr als einen HBA um 24 Disks zu beglücken (6xSFF8087, also 1x16i + 1x8i oder 3x8i).

Edit: ansonsten das Intetech: https://geizhals.de/inter-tech-4u-4424-88887122-a1178972.html?hloc=de ... habe das Vorgänger-Modell seit Jahren am Start...passt ein ATX-NT rein.
 
Zuletzt bearbeitet:
Der ausgesuchte Server zieht auf jeden Fall deutlich mehr Strom, auch im IDLE. Geh man von ~100W nur für das Grundsystem aus. Allein die Netzteile brauchen schon 30W.

Ich habe hier einen Stapel an SC836 Cases. Mit den verbauten normalen Netzteilen, die auch im Aus-Zustand je ~15W brauchen, hat man auf jeden Fall ein Hintergrundrauschen, da diese, ja, im Auszustand, schon Lüfterdrehen haben und dabei schon relativ laut sind.
Unter Last, geht es da erst richtig ab.
Daher habe ich mit -SQ-Netzteil gekauft. Die sind deutlich leiser, brauchen aber immernoch gut je 8W. Ergo, nicht nur leiser, auch effizienter.

Auch sollte man nicht vergessen, dass diese Server vom Luftstrom leben. Lüfterumbauen geht daher auch nur bedingt.
Ich bin gerade dabei, mein auf originale SM PWM-Fans umzubauen. Flüsterleise wird es nicht, aber wenn jeder Lüfter ungeregelt 10W durchzieht und du davon 5 hast, dann merkst du das auch in der Stromrechnung. Mal vom Föneffekt abgesehen...

Ich würde mir daher nochmal Gedanken dazu machen.

PS: Wenn du den Fertigserver dann noch umbaust, dann kommen weitere Kosten hinzu. Dann biste, je nachdem, relativ schnell bei 1,5k, wo dann beim Bauserver z.B. eine stärkere CPU nehmen könntest.
 
Zuletzt bearbeitet:
Schon mal Danke für die beiden Antworten.

@hominidae
IPMI wollte ich eigentlich nicht, da es doch mehr Strom verbraucht und der Server eh bei mir im Keller steht und ich notfalls mal einen Bildschirm anstecken kann. Las mich da aber gern etwas besseren belehren.

Das Inter-tech Gehäuse hab ich mir auch angeschaut, aber dazu keine Infos gefunden oder Bewertungen. Sieht aber eigentlich gut aus. Hab es aussortiert, da ich nicht verstanden habe, wie das mit den Festplatten funktionieren soll, da jede Reihe eine eigene Backplane hat^^

Was bräuchte ich den genau für eine HBA für das Inter-Tech Gehäuse. Wenn würde ich gern nur einen PCI-Platz brauchen also eine mit Expander, da ich evtl. eine 10 GBE Karte einbauen will oder ggf. wenn benötigt noch eine Grafikkarte, möchte mir die Optionen offen halten.

M2 SSDs habe ich auch überlegt, aber irgendwo gelesen, dass es dann eng werden kann mit den PCI-Lanes. Plan war eigentlich 1x SSD für Plex und VMs und 1x für Cache-Drive.

Laut Reddit läuft der IGP beim i3- 9100, ob ich das Transcoding überhaupt brauche ist noch unsicher.

@underclocker2k4
Vielen Dank für den Input, somit fällt der Fertig-Server schon komplett weg. Stromverbrauch ist dann jenseits von gut und böse.
 
Nein, brauchen tut man IPMI nicht, vor allem wenn man noch Monitor usw, dran haben kann....es braucht Strom, aber mit dem Dual E5er macht das auch nix mehr ;-)

unraid cache ist bei zwei Disks/SSD immer standardmässig ein pool aus Raid1-BTRFS...aufteilen macht da keinen Sinn, von daher immer zwei gleiche nach Schnittstellen und Performance-Klassen wählen.
Unraid 6.9 wird wohl da mehr Optionen bieten, aber sicher weiss man nix.

Die Backplanes im Intertech und fantec sind eigentlich gleich/ähnlich.
Das Intertech hat je eine physische "Backplane" pro 4 Disks, mit 1xSFF8087
Das Fantech hat zwei physische Backplanes, eine je 12 Disks, mit 3x SFF8087....zumindest sieht es auf den Fotos so aus.

Mal vereinfacht ausgedrückt:
Also, so ein SAS HBA hat in 8i-Ausführung zwei interne SFF-Ports.​
Wenn Du da direkt Disks anschliessen willst, kannst Du pro Port 4 einzelne Disks SAS/SATA ansteuern (8 Disk, interne Ports auf dem HBA)​
Entweder mit einem Kabel 1xSFF auf 4xSATA oder mit einen 1xSSF zu 1xSSF, für einen SFF Backplane-Port.​
Mit einem umgedreht konfektionierten Kabel (4xSATA auf 1xSFF - das ist noicht das Gleiche, wie das SSF-> 4xSATA kabel umgedeht verwenden) kannst Du auch 4 SATA-Ports des MB an einen Backplane-Port anschliessen.​
Bessere Backplanes haben mehr als einen SFF...das dient aber nur der Redundanz (zB angesteuert von zwei HBAs, jeder einen Port)​
Ein SAS-Expander ist sowas wie ein Switch, nur nicht für Ethernet, sondern für SAS.​
Davon kannst Du 1 oder 2(Redundanz, oder noch mehr) als "Input" und die anderen als "Output" verwenden.​
Eine Backplane mit Expander drauf, wie im Supermicro Gehäuse, hat das also schon fertig drin und benötigt mindestens 1x SFF Input...ein zweiter SFF wäre als Redundanz da (wofür man nicht den zweiten Port des ersten HBA, sondern einen zweiten HBA nimmt, ist ja klar)....im Prinzip kann man das auch noch vervielfältigen, zb mit 3 Expander Chips, 3x2-SFF Input und Quer-Verbindungen der Expander-Chips untereinander (immer dran denken, dass es eigentlich nur ein Switch ist).​
Ein externer 24-Port Expander hat also zum Beispiel (4 Ports pro SFF) 6x SFF Ports.​
Davon schliesst Du dann 1xSFF aus dem HBA an und damit hat er 5xSFF frei für Belegung an Backplanes (also 20 Disks).​
Die letzte der 6 Backplanes schliesst Du dann direkt an den 2ten SFF des HBA .... damit sind 24 Disks versorgt.​

Zu Deinem "Problem":
Wann gedenkst Du denn 24 Disks wirklich zu "füllen"?​
Die Technologie ist evtl. viel schneller und eine grössere Disk (OK, Du startest gleich mit 16TB) ist schneller eingebaut als Ports aufgerüstet.​
Wenn Dir also 20-22Disks reichen, würde ich so vorgehen (günstigste Variante):​
Mit einen HBA mit 4xSFF (16i) - der hat "Platz" für 4 Backplanes, zu je 4 Disks versorgst Du die ersten 16 Disks.​
Mit einem 4xSATA->SFF vom MB versorgst Du weitere 4 Disks.​
Noch so ein Kabel, an dem 2xSATA unbelegt bleiben, versorgen mit SATA #5 und #6 des MB die letzte Backplane...zwei Slots bleiben leer (Cache als PCIe-NVMe...wenn SSD, dann bleibt eine ganze Backplane leer)​
Ich habe einen LSI-92xx HBA (8i) mit den Intel RES2CV240 (24 Port Expander) am Start in meinem Intertech....habe aber immer noch "erst" 12 Disks drin.​
 
@hominidae
IPMI wollte ich eigentlich nicht, da es doch mehr Strom verbraucht und der Server eh bei mir im Keller steht und ich notfalls mal einen Bildschirm anstecken kann. Las mich da aber gern etwas besseren belehren.
Wenn der Filer Probleme hat rennst du als lieber in den Keller, um Monitor & Tatstaur (& evtl Maus) anzuschließen, um dich dann vor dem Geraffel hinzuknien und eine Fehlersuche zu machen.
Steckt der Server dann noch in einem geschlossenem 19" Schrank kommst du auch nur mit viel Würgen an die Anschlüsse hinten ran - auch mit Auszugschienen. (Die Auszugschienen für richtigen "Vollauszug" sind i.d.R. nicht für die Großen und schweren Gehäuse geeignet.)

Mit IPMI bleibst du ganz gemütlich an deinem Schreibtisch sitzen und machst die Fehlersuche!

Strom sparen ist schön und gut, aber man sollte es sinnvoll machen.
 
Wenn der Filer Probleme hat rennst du als lieber in den Keller, um Monitor & Tatstaur (& evtl Maus) anzuschließen, um dich dann vor dem Geraffel hinzuknien und eine Fehlersuche zu machen.
Steckt der Server dann noch in einem geschlossenem 19" Schrank kommst du auch nur mit viel Würgen an die Anschlüsse hinten ran - auch mit Auszugschienen. (Die Auszugschienen für richtigen "Vollauszug" sind i.d.R. nicht für die Großen und schweren Gehäuse geeignet.)

Mit IPMI bleibst du ganz gemütlich an deinem Schreibtisch sitzen und machst die Fehlersuche!

Strom sparen ist schön und gut, aber man sollte es sinnvoll machen.
Eben. Never ever wieder ohne IPMI.
So kann man auch im Urlaub mal schnell einen Blick drauf werfen, wenn beim Filmeabend plötzlich Plex nicht mehr läuft oder der Host abgeschmiert ist. Reboot und fertig. Ohne IPMI? Keine Chance.
 
...das MB mit IPMI, 2xM.2(PCIE) wäre dann das X11SCH-F (Dual-NIC) oder X11SCH-LN4F (Quad-NIC), zB https://geizhals.de/supermicro-x11sch-f-retail-mbd-x11sch-f-o-a1975434.html
Das Gute ist, dass es auch 8x SATA hat...mit einem HBA (16i) und zwei SFF-> 4xSATA Reverse Kabeln kannst Du 24 Disks anschliessen.

Problematisch für Plex könnte der IGP werden. Das IPMI Remote View und aktivierter IGP beisst sich.
Also eine CPU ohne IGP und eine GraKa nachrüsten, später -> https://geizhals.de/intel-core-i3-9100f-bx80684i39100f-a2056671.html?hloc=de
 
Zuletzt bearbeitet:
@hominidae
Danke für die ausführliche Erklärung. Die Erklärung ist super, ich versteh es auch grob mit ein paar lücken^^ Vermute ist ganz einfach wenn man das mal live gesehen hat.

Zu deiner Frage wie ich es füllen will.
Kann es nicht abschätzen ob ich jemals die 24 Bays brauche. Ist für mich eher eine Zukunftsinvestition, haben jetzt in 2 Jahren so 30 TB Datenzuwachs gehabt. Sind aber auch echte Daten-Messies heben alles auf^^

Plan war es mit 16 TB zu starten wegen Parity-Disk und dann zu schauen wie sich die Preise entwickeln und Platten kaufen zwischen 10-16 TB.

Dein Vorschlag mit der HBA 16i finde ich sehr gut, da zum Start 16 Platten mehr als reichen und man dann immer noch erweitern kann.

Wäre, dass dann die richtige HBA?
Broadcom SAS 9201-16i, SAS 6Gb/s, PCIe 2.0 x8 (LSI00244)

Ich habe das Supermicro X11SCH-F mal ein meine Wunschliste aufgenommen. Ihr habt natürlich recht IPMI macht Sinn, was mich daran einfach stört ist der hohe Stromverbrauch einige Schreiben 5-10 Watt und das es Probleme mit der IGP gibt.

Im Unraid Forum, habe ich ein Thema gefunden, das bei ASRock E3C246D4U IPMI und IGP zusammen funktionieren sollen mit dem aktuellen BIOS. Hab aber noch nicht alles gelesen, ob das generell gilt oder nur für dieses eine Board. Weil dann würde ich eher ein ASRock nehmen, hätte schon gerne Intel Hardware Transcoding ohne zusätzliche Grafikkarte. (Zitat Unraid-Forum: With a C242 chipset, IPMI means no iGPU. WIth a C246 chipset, at least in SuperMicro and ASRock implementations, you can have both.)

Hab das Netzteil ganz vergessen, wieviel Watt sollte das den haben? Würde mich da für ein be quiet entscheiden, mit denen war ich bisher immer zufrieden.

EDIT: Da das Supermicro auch C246 Chipset hat sollte IGP wohl funktionieren mit IPMI zusammen in Plex Supermicro X11SCH-F retail (MBD-X11SCH-F-O)
Anstatt das Supermicro X11SCH-F gibts auch die ATX Bauform supermicro-x11sca-f-retail dort steht auch IPMI und Igpu Grafikeinheit.
 
Zuletzt bearbeitet:
Ja, das X11SCA-F ist auch eine Option, hat aber das gleiche Problem...kann gutgehen, muss aber nicht: https://forums.unraid.net/topic/76529-notes-about-supermicro-x11sca-f/
Also transkodieren mit IGP wird gehen, aber dann eben kein remote-KVM-View mit IPMI.....kein Bild, aber die rstlichen IPMI Funkztionen (weil Web-Interface).

Der Broadcom/LSI HBA sollte passen, aber der ist "echt" alt und teuer...davon gibt es evtl. gebrauchte in der Bucht.
Neue, aus China sind zu 90% Fakes...daher eher Finger weg...ich würde gebrauchte aus einer guten Quelle kaufen.
Ich finde gerade keinen, also evtl. erstmal mit 8-16 Disks starten:
Mit 8x On-Board-SATA und reverse-Kabeln kannst Du ja erstmal 8 Disks fahren (2x https://geizhals.de/lsi-3ware-4x-sa...kabel-cbl-sff8087ocr-06m-a297746.html?hloc=de ) ...0,6m könnten etwas zu wenig sein, aber das muss man mal genauer anschauen.​
 
Also IPMI WEB-Interface sollte reichen um den Server neu zu starten, wenn doch mal was hängen sollte. Muss auch testen ob ich das Transcoding wirklich so oft brauche. Hätte nur gern die Option offen.

Das mit den 8 Sata Anschlüssen ist eine gute Idee, dann kann ich alles mal zum laufen bringen und wenn dann immer noch erweitern. So schnell brauch ich nicht mehr wenn ich wirklich direkt 16 TB Platten kaufe.

Werd mir das später mal nochmal anschauen und hier noch mal meine Endconfig reinstellen.

Aber vielen Dank für deine Mühe.
 
klaro....zum Thema Netzteil: Strom auf der 12V Schiene beim Anlauf (staggered spinup is nicht garantiert immer aktiv/möglich) würde ich mal etwas Sicherheitsabstand geben. 1A pro DIsks sollten es auch bei einer modernen HDD schon sein.
Achte darauf, dass das NT nur eine 12V Schiene hat und genügend Strom-Anschlüsse für die Backplanes (mind. 6x).
 
So hab jetzt mal etwas rum gesucht. Bin mir unsicher wie viel Watt ich brauch, die WD Gold Platten sind im Datenblatt mit 6,6-10 Watt angegeben. Daher denk ich es sollten 650 W reichen, oder doch lieber mehr?

Beim Mainboard X11SCA-F gibt es einen Punkt im Bios, das nicht alle Festplatten beim Starten direkt anlaufen. Zumindest versteh ich das so, aber beim X11 SCH-F finde ich diesen Punkt nicht so beschrieben.

Zitat aus Manual:
X11SCA-F
"Spin Up Device: When this feature is disabled, all drives will spin up at boot. When this feature is enabled, it will perform Staggered Spin Up on any drive this option is activated. The options are Disabled and Enabled."

X11SCH-F
Spin Up Device: On an edge detect from 0 to 1, set this feature to allow the PCH to initialize the device. The options are Disabled and Enabled.

Ist das jetzt, dass selbe oder etwas anderes? Würde sagen es wäre ganz praktisch, wenn die nacheinander starten.^^

Meine Config sieht jetzt so aus:

4 Western Digital WD Gold 16TB, 512e, SATA 6Gb/s (WD161KRYZ)
2 Samsung SSD 970 EVO 1TB, M.2 (MZ-V7E1T0BW)
1 Intel Core i3-9100, 4C/4T, 3.60-4.20GHz, boxed (BX80684I39100)
2 Samsung DIMM 16GB, DDR4-2666, CL19-19-19, ECC (M391A2K43BB1-CTD)
3 Noctua NF-F12 PWM, 120mm
1 Noctua NH-L12S
1 Inter-Tech 4U-4424, 4HE (88887122)
1 Inter-Tech 2HE Teleskopschienen 455mm für 50-80cm Einbautiefen (88887221)
1 be quiet! Dark Power Pro 11 650W ATX 2.4 (BN251)

1 Supermicro X11SCH-F retail (MBD-X11SCH-F-O)
1 Supermicro X11SCA-F retail (MBD-X11SCA-F-O)

Bei den Mainboards bin ich mir unsicher welches ich nehmen soll, tendiere eher zum X11SCH-F, da ich dazu im unraid Forum nichts gefunden habe. Andererseits hat das X11SCA-F mehr PCI Anschlüsse, das würde flexibler machen, PCI Slot 4 fällt aber glaub weg wegen m.2 SSD.
 
Warum willst du die 16TB WD Gold nehmen, aktuell sind die Western Digital Ultrastar DC HC550 18TB fast 3 Euro pro TB günstiger das sind dann bei 4 HDD auch schon fast 200€ Unterschied.

Dazu halt 2 TB pro HDD mehr sprich weniger benötigte Slots und dadurch auch weniger Stromverbrauch, und die HC550 hat halt auch alle Enterprise Features incl. 5 Jahre Garantie.
(Ich selber habe die wD Gold in 12 TB und die HC550 in 18 TB und kann zwischen den beiden HDD's weder in der Geschwindigkeit noch in der abwärme oderLautstärke feststellen.

Einzigstes Problem ist das wohl nur ein Händler diese HDD seit Wochen so günstig listet aber bei mir hat die Bestellung und Lieferung problemlos geklappt und auch die Garantie ist in Ordnung also keine OEM oder für Asien bestimmte HDD wo es hier keine Herrsteller Garantie gibt.
Bei der 1. WD Gold 12TB die MF mir geschickt hat gab es keine Herrsteller Garantie weil die HDD nicht für Europa bestimmt war, erst mach Reklamation bekam ich eine 'richtige' Gold.
Deswegen ganz wichtig vor den Einbau den Garantiecheck machen !!!

Ich würde maximal die 650 Watt nehmen eher sogar deutlich weniger wenn eine zusätzliche GPU unwahrscheinlich ist.

Zu den MB weil du ja sicherlich zusätzliche Controller brauchst würde ich bei geplanten 24 Bays auf jeden Fall das nehmen mit mehr verwendbaren PCIE Slots.
Weil du wohl bei einen Vollausbau noch 2 zusätzliche Sata Controller gebrauchen wird weil Controller mit mehr als 8 Ports selten/teuer sind.

Edit:
Vergiß den letzten Satz inzwischen sind auch die 16 Port Controller gut bezahlbar.
 
...das NT hat 4 getrennte 12V Schienen. nur 5xIDE für Stromversorgung in die Backplanes.
Das ist meiner Meinung nach nicht fit für den Zweck.
Mit nur einer Schiene kannst Du die Gesamtleistung besser nutzen, musst Dir keine Sorgen um die Aufteilung der Kabel machen und damit von der Dimensionierung her runter gehen, was dann die Effizienz auch bei geringer Leistung erhöht.
Mit 6x IDE kannst Du die Backplanes versorgen, ohne Adapter nutzen zu müssen. SATA-Stecker brauchst Du gar nicht, bei Einsatz von M2.PCIe.
Das "beste" was Geizhals da ausspuckt, ist dieses: https://geizhals.de/silverstone-str...-2-4-sst-st55f-pt-30277-a1336720.html?hloc=de

Der i3-9100 ist "boxed" und hat schon im Paket einen Kühler und der wird auch reichen. In dem Case brauchst Du nix leiseres ;-)

Das X11SCH-F hat, wie ich sehe, wohl gar keine Anschlüsse für einen Monitor des IGP.
Das X11SCA-F ist gröser und hat daher mehr Platz...mehr Steckplätze (was wie schon gesagt wichtig werden kann) und es gibt positive Erfahrung damit in der unRaid Community.
-> ich würde daher das X11SCA-F empfehlen.

Um die SATA-Ports mit der Backplane zu verbinden brauchst Du noch Reverse-Kabel, wie oben schon gesagt, zB: https://geizhals.de/lsi-3ware-4x-sa...kabel-cbl-sff8087ocr-06m-a297746.html?hloc=de

Die Lüfter im Gehäuse sind sehr wahrscheinlich keine PWM. An das MB sind die in der regel nicht angeschlossen.
Wenn Du die 120er austauschen willst, warum nicht auch die beiden 80er?
Steht das Ding im Keller würde ich mal prüfen, wie störend die eingebauten wirklich sind.
Für die 120er brauchst Du welche mit gutem Druck, die 80er müssen viel transportieren.

Wenn Du nicht alle 24-Slots belegst, ziehen die unbelegten die Luft rein und die gefüllten kommen zu kurz.
Da gibt es evtl Blind-Caddies....für mein Intertech gab es keine und ich habe seinerzeit Dummy-HDDs aus Schaumstoff anfertigen lassen und eingesetzt ;-)
Edit: siehe https://www.hardwareluxx.de/communi...-inter-tech-ipc-4u-4324l.889631/post-20103840
 
Zuletzt bearbeitet:
Zu den Boards:

Du willst das SCH nicht das SCA, letzteres ist ein Workstation Board. Mit Klickbunti Bios bei dem meines wissens nach die Luefterregelung via IPMI (Thresholds setzen) nicht richtig funktioniert.

Ich hab sowohl das SCH-LN4F und SCL-F hier, Fan Thresholds sind np. Das staggered Spinup benoetigt sowohl kompatible HDDs und Backplane, sonst geht es nicht.

Falls du Fragen zu den Boards hast, frag ruhig.

Zum Thema Ctrl: https://docs.google.com/spreadsheets/u/0/d/1yxAzfiNVbPUUStjsYsZ0yFnmQBmolbs4XFyDj_JIx6E/htmlview#
 
@Falo999
Ich bin ganz ehrlich hab mir nicht wirklich andere Festplatten angeschaut, nutz aktuell WD Gold und die liefen bisher alle einfach super. Auch in meinem Freundeskreis hatte noch niemand ein Problem mit den WD Gold Platten.
Du hast natürlich recht, werde die 18 TB Ultrastar reinnehmen, sehe auch keinen Unterschied zu den WD Gold Platten und mit 5 Jahren Garantie macht man da auch nichts falsch.


@hominidae
Werde das von dir vorgeschlagene Netzteil nehmen, Silverstone sagt mir jetzt nichts hatte ich noch nie. Habe aber auch nichts zu negatives im Netz gefunden auf die Schnelle. Ich habe auf etwas anders geachtet und nicht auf IDE.^^
Hab nur fix mal gesucht mit mindestens 6x IDE und nur dieses Corsair https://geizhals.de/corsair-rmi-ser...020081-eu-cp-9020081-uk-a1279304.html?hloc=de gefunden, hat aber mehr Watt und ist nur 80 Gold. Daher Test ist mal Silverstone^^ (bin so ein Gewohnheitstier und wechsle so ungern den Hersteller)

Bei den Lüftern werde ich es ausprobieren, hab online bisschen gesucht und die sollen schon recht laut sein. Serverschrank steht im Bastelkeller und da möchte ich es wenn möglich schon leise haben.

Hab mir überlegt die Lüfter am Mainboard anzuhängen muss ich halt schauen mit dem Kabelmanagement, dann könnte ich die direkt Steuern. Bei Unraid laufen die Festplatten nur wenn Sie gebraucht werden, daher würde ich es erst mal Testen ob die so warm werden. Hab glaub auch noch 2 von den Noctua NF-F12 rumliegen und bei den 80er muss ich schauen ob ich da nicht noch von be quiet welche habe. Habs nur mal geplant, wegen den Kosten.

Die Änderungen:
4 Western Digital Ultrastar DC HC550 18TB, SE, 512e, SATA 6Gb/s (WUH721818ALE6L4/0F38459)
6 LSI 3ware 4x SATA auf mini SAS x4 [SFF-8087] Kabel, 0.6m (CBL-SFF8087OCR-06M)
2 Samsung DIMM 16GB, DDR4-2666, CL19-19-19, ECC (M391A2K43BB1-CTD)
2 Noctua NF-A8 PWM, 80mm
1 SilverStone Strider Platinum PT Series 550W ATX 2.4 (SST-ST55F-PT/30277)

Diese SAS auf Sata sollten auch gehen? Bei denen von dir gibts nur 2 Händler und sonst irgendwie schwer das mit dem reserve zu finden.
1 Inter-Tech mini SAS x4 [SFF-8087] auf 4x SATA Kabel, 0.65m (88885237)


Beim Mainboard muss ich mich voll auf euch verlassen, hab da keine Ahnung. Aktuell find ich nur 2x M.2 PCI SSD und 8x SATA wichtig. Weil damit könnte ich super starten.
Hätte mich jetzt eigentlich für das X11SCA-F entschieden. Aber wenn da das mit den Lüftern nicht richtig funktioniert wäre das recht nervig.

Das SCL-F nicht da nur 1x M.2 und C242
Beim X11SCH-LN4F such ich gerade die Unterschiede zum SCH-F. Das LN4F hat nur 4x LAN, wenn der Rest gleich ist, das würde ich nicht brauchen, da ich später eh eine 10GBE-Karte reinbauen will.
 
Zuletzt bearbeitet:
Wenn die Lüfter auf dem MB angeschlossen werden, gibt es keinen direkten Bezug des Luftstroms zu der Versorgung der Platten.
Ist es dem MB und der CPU kalt genug, laufen die Lüfter halt nur lahm....dafür gehen aber PWM. Dann solltest Du im IPMI eine Mindestleistung/Umdrehungen festlegen und beobachten.
Für PWM wirst Du aber noch Kabel/Verlängerungen brauchen, wenn die Originalen 2- oder 3-pin sind.

Warum gleich 6Stück der 4x SATA auf SFF Kabel? Wie willst Du die 8 Disks auf die Backplanes verteilen? Es würden sicher 2 Backplanes, also 2 Kabel auch ausreichen.
Die Intertech Kabel sind laut (eingedeutschter) Beschreibung wohl auch "reversed", also richtig für den Anwendungs-Fall; ich hatte eben nach der angelsächsischen Bezeichnung gesucht.

Zum NT: Da scheint es viel Philosophie hinter zu geben. Ich denke unter 550W wäre nicht "gut", denn NT altern auch.
Aktive PFC und effizient sollte es sein...der Hersteller und die Marke sind oft nicht identisch. Im Zweifel einen Vergleichstest suchen.
Das hier würde auch passen, denke ich: https://geizhals.de/lc-power-lc550-v2-31-platinum-serie-550w-atx-2-31-a1739870.html

Edit: Wenn nicht Palatinum, dann auch noch zwei: https://geizhals.de/?cat=gehps&xf=1...Low-Power+States%7E397_6%7E4174_ATX%7E5780_30
Edit2: Das Silverstone ist aber als einziges in der Liste semi-passiv, also potentiell leise, solange solange die 24-Bays noch nicht voll gefüllt sind.
Beitrag automatisch zusammengeführt:

Du willst das SCH nicht das SCA, letzteres ist ein Workstation Board. Mit Klickbunti Bios bei dem meines wissens nach die Luefterregelung via IPMI (Thresholds setzen) nicht richtig funktioniert.

Läuft eine CPU mit IGP überhaupt auf dem SCH?
Transkodirene mit Plex brauct den halt, wenn man keine externe Graka nehmen will.
 
Zuletzt bearbeitet:
Netzteil bleib ich mal beim Silverstone, LC-Power will ich nicht haben^^ Aber ich schau mal meine Hersteller durch, ob es da noch was gibt bei Geizhals leider nix dabei. Würde Corsair, Seasonic oder be quiet bevozugen beim Netzteil. Aber die sind dann alle 650 Watt und mehr.

Kabel bestell ich gleich alle, ich kenne mich, wenn ich erweitern will, weiß ich nimmer welche oder hab dann die HDDs da und keine Kabel gekauft.^^

Mainboard bin ich jetzt natürlich etwas unschlüssig^^ Werd mich da aber noch etwas einlesen, will erst zu Black Friday kaufen evtl gibts ja einen Rabatt.
 
ne du hast absolute Recht. Von dem Reserve SFF, brauch ich nur 2 ist ja sff auf 4x SATA. hab noch voll ein Kabel pro Platte im Kopf.

Und die anderen hol ich erst wenn ich die HBA kaufe. Will erstmal mit 4 Platten starten und schauen wie voll es wird.

werd mich morgen mal durchs unraid Forum lesen, wegen Mainboard.
 
...das NT hat 4 getrennte 12V Schienen. nur 5xIDE für Stromversorgung in die Backplanes.
NO
" Der Overclocking-Key ermöglicht komplette Kontrolle während der Übertaktung, indem manuell zwischen den vier unabhängigen 12V-Leitungen und einer massiven 12V-Leitung gewechselt werden kann. "

Zum Thema IDE Anschlüsse, selbst 4 IDE Stecker können ausreichen, es kommt darauf an, ob es sich um 6x4 oder 2x12er Backplanes handelt - pro 12er Backplane reichen dann auch 2 IDE-Stecker

Beitrag automatisch zusammengeführt:

Das staggered Spinup benoetigt sowohl kompatible HDDs und Backplane, sonst geht es nicht.
NO
staggerde Spinup ist seit Jahren Bestandteil der SATA Spezifikation.
Pin11 der Stromversorgung muß unbeschaltet oder auf High Level beschaltet sein - z.B. über die Ansteuerung einer Aktivitäts-LED = Doppelfunktion von Pin 11.
Bislang gibt es allerdings keine Netzteile, bei denen der PIN11 unbeschalltet ist, diese liegt dann nach wie vor auf Masse, wie auch von den älteren SATA Spezifikationen vorgesehen.
Da die Backplanes in den 19" Gehäusen üblicherweise über eine Aktivitäts-LED für jeden einzelnen Schacht verfügen, wird hiefür der PIN 11 verwendet.
Enscheidend ist des weiteren, ob der Controller staggered Spinup unterstüzt, in dem dieser jeden SATA/SAS-Port einzeln nacheinander initialisiert (oder auch in Gruppen).
Die großen HBAs/Raidcontroller von z.B. LSI/Broadcom können das alle und wie es aussieht wohl auch die den PCHs von Intel , zumindest bei den Serverchipsätzen. Die entsprechnde Funktion muß natürlich im BIOS Konfigurierbar sein.
 
Zuletzt bearbeitet:
NO
" Der Overclocking-Key ermöglicht komplette Kontrolle während der Übertaktung, indem manuell zwischen den vier unabhängigen 12V-Leitungen und einer massiven 12V-Leitung gewechselt werden kann. "

Zum Thema IDE Anschlüsse, selbst 4 IDE Stecker können ausreichen, es kommt darauf an, ob es sich um 6x4 oder 2x12er Backplanes handelt - pro 12er Backplane reichen dann auch 2 IDE-Stecker

Das InterTech hat 6x4er Backplanes mit je 1xSFF-8087 und 1xIDE, soweit auf den Fotos ersichtlich.

Overklocking-Key scheint aber etwas spezifisches von Be-Quiet NZs zu sein?
@TE: ins Manual schauen ob das gewünschte NT das auch wirklich hat,
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh