Stromsparendes Mediendatengrab mit WakeOnLan und AutoShutdown

tar

Enthusiast
Thread Starter
Mitglied seit
30.11.2013
Beiträge
538
Hallo,

angedacht ist ein Datengrab-Server für mehr als 70 GB (wachsend), der mittels WakeOnLan aktiviert und nach ca. 30 Minuten Idle heruntergefahren werden soll.

Standort wäre in Abstellkammer (Geräuschkulisse interessiert daher nicht).

Zugriff wäre rein im LAN:
- Workstation (läuft eh dauernd und dient daher als Ablage-Cache für sonstige Geräte wie Scanner und Smartphone - von hier aus werden die Daten dann regelmäßig auf den Server geschoben)
- Medienstreamer (TVs, NVidia Shield Pro, ...), hierbei wäre die Ablage einer zentralen Kodi-Datenbank auf dem Server angedacht

Dafür würde ich vorläufig Teile meiner aktuellen Workstation vorsehen, solange sie noch laufen:
- Board: Gigabyte GA-Z87X-UD3H
- CPU: Intel Xeon E3-1245 v3 (hat eine iGPU) + Kühler: Noctua NH-U9B SE2
- RAM: Crucial Ballistix Tactical DIMM Kit 16GB, DDR3-1600, CL8-8-8-24 (kein ECC, aber die Dateien sollen mittels .md5-Files 1x monatlich geprüft werden)
- OS-SSD: Samsung SSD 840 EVO 500GB
- HDDs: vorläufig mehrere Western Digital WD Red Plus 2TB & 4TB und Western Digital Ultrastar DC HC520 12TB
- Netzteil: be quiet! Straight Power E9-CM 580W ATX 2.4 (overpowered?)

Ich bräuchte
- ein 19"-Gehäuse mit 8-12 Wechselplatten (ggf. Inter-Tech 4U-4410), wird vorerst aber nicht im Serverschrank stehen, sondern offen auf einem Schreibtisch liegen
- Controller-Karte(n ) zur Ansteuerung der Festplatten und passende Kabel (keine Ahnung)
- optional zusätzlich eine 10G-Netzwerkkarte (zur Direktverbindung zwischen Server und Workstation)
- Fehlt etwas?

OS ist noch unklar. Ich dachte an ESXi als Host, in dem Unraid läuft. Las aber auch von ZFS und anderen Geschichten. Es soll letztlich einfach handlebar sein - insb. bzgl. Plattentod und Plattenaustausch. Performance und Verfügbarkeit sind nebensächlich.

Was schlagt ihr vor?

Vielen Dank schonmal!
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo,

angedacht ist ein Datengrab-Server für mehr als 70 GB (wachsend), der mittels WakeOnLan aktiviert und nach ca. 30 Minuten Idle heruntergefahren werden soll.

...denke Du meinst TB, nicht GB, hmmm :giggle:
[...], aber die Dateien sollen mittels .md5-Files 1x monatlich geprüft werden)

das macht das OS aber i.d.R. nicht von allein...da musst Du Dir was bauen.

- OS-SSD: Samsung SSD 840 EVO 500GB
...unraid hat keine OS-Disk, läuft im RAM...Du brauchst einen passenden USB mit einer echten GUID....kostet ca. 5EUR....die SSD verwendest Du als Write-Cache und für Docker/VMs, falss benötigt.

- HDDs: vorläufig mehrere Western Digital WD Red Plus 2TB & 4TB und Western Digital Ultrastar DC HC520 12TB
- Netzteil: be quiet! Straight Power E9-CM 580W ATX 2.4 (overpowered?)
..das reicht locker für 10-24 Disks ;-)

Ich bräuchte
- ein 19"-Gehäuse mit 8-12 Wechselplatten (ggf. Inter-Tech 4U-4410), wird vorerst aber nicht im Serverschrank stehen, sondern offen auf einem Schreibtisch liegen
Wechselrahmen sind reiner Komfort. Hot-Swap ist was anderes.....just saying. :rolleyes2:

- Controller-Karte(n ) zur Ansteuerung der Festplatten und passende Kabel (keine Ahnung)
...wenn Du unRaid nativ nimmst, brauchst Du erstmal sowas nicht, bis die SATA-Ports aufgebraucht sind.

OS ist noch unklar. Ich dachte an ESXi als Host, in dem Unraid läuft. Las aber auch von ZFS und anderen Geschichten. Es soll letztlich einfach handlebar sein - insb. bzgl. Plattentod und Plattenaustausch. Performance und Verfügbarkeit sind nebensächlich.
....wenn Du so viele unterschiedliche Plattengrössen und Anzahl mischen willst, ist unraid sicher eine gute Möglichkeit...insbesondere für grosse Medien, zum abspielen/hosten
Aber ESXi brauchst Du da nicht wirklich...unRaid hat direkt Docker und KVM/Quemu für VMs im Bauch....dann ist es aber aus mit WoL, wenn Du da was baust, was 24x7 spielen muss. :giggle:
 
...denke Du meinst TB, nicht GB, hmmm :giggle:
Äh, joa TB :LOL:
das macht das OS aber i.d.R. nicht von allein...da musst Du Dir was bauen.
Ich denke da an irgendein Skript, was ich wrsl. von der Workstation aus laufen lasse, wenn sowas in ESXi oder Unraid nicht so einfach geht (hab keine Erfahrung mit Linux-Shell-Scripts).
..das reicht locker für 10-24 Disks ;-)
Wäre ein kleineres sinnvoller - oder ist der Stromverbrauch letztlich gleich, egal wieviel Nennleistung?
Wechselrahmen sind reiner Komfort. Hot-Swap ist was anderes.....just saying. :rolleyes2:
Das Inter-Tech hat wohl "nur" Hot-Swap, aber ist mir letztlich Wurst, solange ich die Platten wechseln kann, ohne erst das Gehäuse aufschrauben zu müssen. Also von daher ausreichend (y) - zeigt mir das Inter-Tech aber auch mittels LED an, welche Platte defekt ist?
...wenn Du unRaid nativ nimmst, brauchst Du erstmal sowas nicht, bis die SATA-Ports aufgebraucht sind.
Da hätt ich erstmal 8x SATA 6 Gb/s (mit der SSD für ESXi usw. nur noch 7). Wie ist das dann, wenn ich mehr anschließen möchte? Was bräuchte ich da genau für eine Controller-Card? Wäre es dann auch sinnvoll, gleich alle Platten über die Card laufen zu lassen?

Was muss ich eigentlich bzgl. der Daten auf den Platten generell bei einem Hardware-Wechsel beachten? Also wenn ich
1) auf Controller-Card wechsle oder
2) mal den ganzen Unterbau wechsle (Board, CPU, usw.) oder
3) mal der Unraid-USB-Stick erneuert werden müsste?

Bestehen da Gefahren des totalen Datenverlustes? Merkt "der" sich automatisch die bestehenden (Unraid-)Partitionen und welche Platte(n ) Parities sind, usw.?
....wenn Du so viele unterschiedliche Plattengrössen und Anzahl mischen willst, ist unraid sicher eine gute Möglichkeit...insbesondere für grosse Medien, zum abspielen/hosten
Aber ESXi brauchst Du da nicht wirklich...unRaid hat direkt Docker und KVM/Quemu für VMs im Bauch....dann ist es aber aus mit WoL, wenn Du da was baust, was 24x7 spielen muss. :giggle:
Joa, wegen des Plattenmixes und der Erweiterbarkeit tendiere ich zu Unraid. ESXi als Unterbau nur, weil ich damit flexibler bin - kann da halt auch mal mit separaten VMs usw. rumspielen, ohne mir das eigentliche Unraid-Datengrab zu zerschießen (beim Tüfteln mit Unraid-Plugins und -VMs hab ich da Bugs festgestellt, d.h. das ganze Unraid lief plötzlich nicht mehr und die Testdaten waren pfutsch).

Mal nochwas: Ist es an sich besser, WoL mit AutoShutdown zu nutzen (wobei halt jedesmal alle Platten hoch-/runterfahren) oder das Ding 24/7 laufen zu lassen und hierbei die ungenutzten Platten in den Tiefschlaf zu versetzen? Bzgl. der Haltbarkeit der Platten soll es wohl besser sein, die nicht länger ungenutzt zu lassen, aber welche Vorgehensweise da besser ist, ist mir unklar.

... und wie richte ich das jeweilige dann ein?
 
Und der ESXI soll dauerhaft laufen und nur die Unraid-VM herunterfahren?

ESXI braucht, auch auf SSD, ewig zum hochfahren. Das nur mal am Rande bemerkt.
Gibt dort keinen Standby-Modus, wo alles im Arbeitsspeicher landet und der Host -wie ein Windows Laptop- nach einer Sekunde wieder hochgefahren ist und direkt läuft wie ein Rennpferd.
 
Und der ESXI soll dauerhaft laufen und nur die Unraid-VM herunterfahren?
Es würde reichen, wenn bei WoL alles in 1-2 Minuten hochgefahren ist. Also ESXi und darin dann Unraid.

Alternativ halt alles 24/7 laufen lassen, falls das vernünftiger wäre. Evtl. könnte ich den Server dann mit Netzwerkgeschichten betrauen (als Router? Firewall? Whatever?), damit er nicht völlig sinnfrei läuft.

Wenn ich aber ESXi laufen lassen würde, brauch ich ja Unraid nicht herunterfahren - da gehts dann nur darum, die HDDs in Leerlauf/Tiefschlaf zu versetzen.
 
Ich denke da an irgendein Skript, was ich wrsl. von der Workstation aus laufen lasse, wenn sowas in ESXi oder Unraid nicht so einfach geht (hab keine Erfahrung mit Linux-Shell-Scripts).
kann man machen...kann ich aber nix zu sagen...auch ob es da Tools gibt.

Wäre ein kleineres sinnvoller - oder ist der Stromverbrauch letztlich gleich, egal wieviel Nennleistung?
Je höher die Nennleistung, desto schlechter der Wirkungsgrad im Bereich unterhalb der Nennleistung, insbesondere wenn es an die unteren 10-50% geht.
Sprich, wenn die Nennleistung zum Starten (die dicken Platten drehen an) ausreichend ist (zB 200W), im idle aber nur 25, im Normalbetrien 50-100W gebraucht werden...ist ein 300W NT effizienter als ein 500W oder 1000W NT.
Im besonderen müsste man das mal bewerten.

Das Inter-Tech hat wohl "nur" Hot-Swap, aber ist mir letztlich Wurst, solange ich die Platten wechseln kann, ohne erst das Gehäuse aufschrauben zu müssen. Also von daher ausreichend (y) - zeigt mir das Inter-Tech aber auch mittels LED an, welche Platte defekt ist?
Äh, eine Error LED gibt es nicht.
Wenn Du die HDDS da einbaust machst Du Dir einen Plan, den Du ins Rack hängst ;-)
Wenn eine Disks einen Defekt hat, kannst Du die Position wiederfinden.
Da gibt es auch Dokumentations-Tools für (HDD aus Liste auswählen, LED mal "blinken" lassen, Gehäuseposition in der Tabelle eintragen) aber ein Tabellenblatt reicht.

Da hätt ich erstmal 8x SATA 6 Gb/s (mit der SSD für ESXi usw. nur noch 7). Wie ist das dann, wenn ich mehr anschließen möchte? Was bräuchte ich da genau für eine Controller-Card? Wäre es dann auch sinnvoll, gleich alle Platten über die Card laufen zu lassen?
Nein, ich sagte "unraid nativ"...also ohne ESXi.
Den onboard SATA Controler durchreichen, zumal noch nur teilweise ist keine gute Idee. Wenn unraid als VM, dann mit extra HBA.

Was muss ich eigentlich bzgl. der Daten auf den Platten generell bei einem Hardware-Wechsel beachten? Also wenn ich
1) auf Controller-Card wechsle oder
2) mal den ganzen Unterbau wechsle (Board, CPU, usw.) oder
3) mal der Unraid-USB-Stick erneuert werden müsste?

Bestehen da Gefahren des totalen Datenverlustes? Merkt "der" sich automatisch die bestehenden (Unraid-)Partitionen und welche Platte(n ) Parities sind, usw.?
1) bei einem korrekten, guten HBA oder SATA Controller nix.
Unraid merkt sich die UID der Disk und packt diese an gleiche logische Position im Array wieder rein, auch wen der neue Controller die physische Position umnummerriert (sda, sdb, sdc, ...)
Aber eine solche Aktion macht man nicht mit automatischem Array-Start...man guckt also vorher drauf und startet das Array manuell.
Also auch die Position der physischen Platte (Modell und S/N) im Array kommt mit auf die Liste für die Belegung im Gehäuse.
...you never know, sollte der neue Controller die Disks mit ihrer UID anders melden als der alte...

2) nix wirklich Besonderes...
...siehe 1 bei anderem/neuen Controller des MB
Bei anderer Anzahl Cores und falls voher dedizierte Cores einer VM zugeweisen wurden, sollte man das kontrollieren...aber kein Beinbruch.
Bei anderer Netzwerk Karte evtl. die Netzwerk Konfig neu einrichten, wenn die nicht per DHCP vom Router kommt oder VLANs und Bonding Interfaces im Speil sind...zumindest aber kontrollieren

3) Backup des alten Stick drauf einspielen....als Testversion/Lizenz aktivieren und die bestehende, alte Lizenz auf den Neuen umziehen lassen (Mail an LT...dauert i.d.R. keinen Tag).

Joa, wegen des Plattenmixes und der Erweiterbarkeit tendiere ich zu Unraid. ESXi als Unterbau nur, weil ich damit flexibler bin - kann da halt auch mal mit separaten VMs usw. rumspielen, ohne mir das eigentliche Unraid-Datengrab zu zerschießen (beim Tüfteln mit Unraid-Plugins und -VMs hab ich da Bugs festgestellt, d.h. das ganze Unraid lief plötzlich nicht mehr und die Testdaten waren pfutsch).
....dann hast Du wohl mit Raw-Devices und Zugriff aus der VM auf physische Hardware rumgespielt...eine VM mit virtuellen Disks macht da garnix kaputt.
Da gibt es auch keine "Bugs" die zu sowas führen in unraid...eher solche die vor der Tastatur liegen :LOL:

Mal nochwas: Ist es an sich besser, WoL mit AutoShutdown zu nutzen (wobei halt jedesmal alle Platten hoch-/runterfahren) oder das Ding 24/7 laufen zu lassen und hierbei die ungenutzten Platten in den Tiefschlaf zu versetzen? Bzgl. der Haltbarkeit der Platten soll es wohl besser sein, die nicht länger ungenutzt zu lassen, aber welche Vorgehensweise da besser ist, ist mir unklar.
S3-Sleep/WoL ist zum vermehrten Stromsparen gut, bei der Haltbarkeit sehe ich keinen nennenswerten Unterschied gegenüber 24x7.
Gerade bei Desktop-Platten gibt es i.d.R. keine Probleme mit häufigeren Starts, aber auch Enterprise Platten machen das mit....daher macht es unRaid ja so, mit dem spin-down der HDDs..

... und wie richte ich das jeweilige dann ein?

:coffee2:
 
  • Danke
Reaktionen: tar
Okay, also wenn ich Unraid in ESXi laufen lasse, brauche ich ein HBA und muss das ans Unraid durchschleifen.

Kurz geschaut, finde ich diese beiden:
- Broadcom MegaRAID SAS 9271-8i (bei mehr als 8 Platten, wäre eine weitere notwendig)
- Microchip Adaptec HBA 1100 1100-16e

Aktuell tendiere ich vorerst zu maximal 8 HDDs und daher zu Broadcom und wenn ich richtig schaue, brauche ich da 2 dieser Kabel. Passt das?

Wegen der LEDs überlege ich grade, ob ich nich auch dieses Gehäuse holen könnte. Das wäre ein qualitativ hochwertigeres Supermicro und solange ich kein Rack habe, könnte ich es ja als "normales" Gehäuse hinstellen. Da gibt es Status-LED, die aber nur bei RAID aktiv wären (siehe Seiten 10 und 26) - wobei Unraid zwar eine besondere RAID-Variante ist, aber ja kein richtiges RAID. Ob die LEDs da aktiv wären? Ansonsten müsste ich auch da deine Vorgehensweise mit manuellen Belegungsnotizen vornehmen. Ist ja kein Beinbruch.

Rest habe ich erstmal zur Kenntnis genommen :coffee: - insb. beim Netzteil werd ich wohl nochmal genauer schauen (ob die Stromanschlüsse für die HDDs reichen, muss ich dann auch checken, wenns soweit ist).
 
UnRaid ist halt leider ne lahme Ente. Warum nicht TrueNas oder Openmediavault? Bedenke auch das du keine Checksummen hast bei UnRaid.
 
UnRaid ist halt leider ne lahme Ente. Warum nicht TrueNas oder Openmediavault? Bedenke auch das du keine Checksummen hast bei UnRaid.
Unterstützen diese unterschiedliche HDD-Größen, 1-2 Parity-Drives sowie spin-down bei Nichtnutzung? Gibts bei ZFS Zugriffsprobleme von Windows aus, was meine Workstation wäre?
 
Okay, also wenn ich Unraid in ESXi laufen lasse, brauche ich ein HBA und muss das ans Unraid durchschleifen.

Kurz geschaut, finde ich diese beiden:
- Broadcom MegaRAID SAS 9271-8i (bei mehr als 8 Platten, wäre eine weitere notwendig)
Das ist kein HBA...MegaRAIDs sind RaidController.
Es muss auch kein SAS Controller sein, eine SATA Karte tut es auch....bei einem SAS und mehr als 8 Platten brauchst Du keinen weiteren Controller, sondern einen Expander/Storage.
Der Controller kann logisch 1024 Platten.
Wenn Du also einen HBA suchst, nimm einen SAS 9300-8i mit Firmware im IT-Mode

Aktuell tendiere ich vorerst zu maximal 8 HDDs und daher zu Broadcom und wenn ich richtig schaue, brauche ich da 2 dieser Kabel. Passt das?
Im Prinzip ja...achte genau auf die ANgaben der Specs beim Kauf....diese Kabel funktionieren nur in eine Richtung.

Wegen der LEDs überlege ich grade, ob ich nich auch dieses Gehäuse holen könnte. Das wäre ein qualitativ hochwertigeres Supermicro und solange ich kein Rack habe, könnte ich es ja als "normales" Gehäuse hinstellen. Da gibt es Status-LED, die aber nur bei RAID aktiv wären (siehe Seiten 10 und 26) - wobei Unraid zwar eine besondere RAID-Variante ist, aber ja kein richtiges RAID. Ob die LEDs da aktiv wären? Ansonsten müsste ich auch da deine Vorgehensweise mit manuellen Belegungsnotizen vornehmen. Ist ja kein Beinbruch.
Diese LEDs werden so mit unRaid nicht funktionieren.

Rest habe ich erstmal zur Kenntnis genommen :coffee: - insb. beim Netzteil werd ich wohl nochmal genauer schauen (ob die Stromanschlüsse für die HDDs reichen, muss ich dann auch checken, wenns soweit ist).
Du brauchst noch einen USB Stick: https://geizhals.de/sandisk-cruzer-fit-16gb-sdcz33-016g-g35-a1961910.html?hloc=de
 
Mit SATA Cache ist unRAID im GbE genauso schnell wie jedes andere OS...

Aber nur solange bis der Cache voll ist. Und wozu Limitieren ? 1 GbE ist schon heute nicht mehr Up to Date. Jetzt kommt 2,5 GbE 300 MB's und 5 GbE 500/600 MB's pro Sekunde. Und 10 GbE gibt es auch schon lange und kostet nicht mehr die Welt.

Unterstützen diese unterschiedliche HDD-Größen, 1-2 Parity-Drives sowie spin-down bei Nichtnutzung? Gibts bei ZFS Zugriffsprobleme von Windows aus, was meine Workstation wäre?

Das leider nicht, kannst dir aber auch testweise Xpenology anschauen. Ist in 5 Minuten aufgesetzt und du kannst unterschiedliche HDD-Größen einbauen ohne Speicherplatz zu verlieren. Im Speed ist es um welten schneller als UnRaid. Nutze ich selber so in auf zwei ESXI Storage Server. Bei Xpenology hast du auch wie bei ZFS Checksummen und Datei-Selbstheilung.
 
Das ist kein HBA...MegaRAIDs sind RaidController.
Es muss auch kein SAS Controller sein, eine SATA Karte tut es auch....bei einem SAS und mehr als 8 Platten brauchst Du keinen weiteren Controller, sondern einen Expander/Storage.
Der Controller kann logisch 1024 Platten.
Wenn Du also einen HBA suchst, nimm einen SAS 9300-8i mit Firmware im IT-Mode
Gut, dass ich nochmal nachgehakt habe. Habe ich das so richtig verstanden:
- es gibt HBA Controller Cards, die immer 1024 HDDs unterstützen, aber selbst nur eine begrenzte Anzahl an Anschlüssen bieten
- dann gibt es RAID Controller Cards, die zusätzlich zum HBA noch RAID-Funktionalitäten bieten
- und dann gibt es noch Expander Cards, falls ich mehr als die vorhandenen Anschlüsse der Controller nutzen möchte und zwischen Controller und HDDs schalte

Falls ja, brauche ich also a) eine HBA Controller mit 16 Anschlüssen oder b) einen HBA Controller mit 8 Anschlüssen und später einen Expander zur Erweiterung, wie diesen?

Ich schau mir da grad eine Anleitung so eines Expanders an und da steht was von "interner Backplane" (Seite 18 des PDF = Seite 10 in der Anleitung). Hängen dort dran dann die HDDs oder wie ist das? Ich dachte, die HDDs verbinde ich direkt mit dem Controller bzw. Expander (wie in Seite 20 der PDF = Seite 12 der Anleitung beschrieben: "For an expander card with internal ports, connect serial cables between the expander card and internal disk drives").

Mit den externen Anschlüssen könnte ich dann wohl später bei Bedarf ein weiteres reines 19"-HDD-Gehäuse daneben bauen und anschließen, oder wie setzt man sowas dann um?

Sorry für die vielleicht dummen Fragen, aber ich habe noch nie sowas aufgebaut, nur "gewöhnliche" PCs. Ich frage auch deshalb, weil ich eigentlich ein eigenes, reines 19"-HDD-Gehäuse bevorzugen würde (wäre ja geil, das HDD-Datengrab von Vornherein physisch getrennt zu halten), das ich dann an den (dann kleinen) Server oder sogar ohne Server direkt an die Workstation sinnvoll anbinden könnte, die ja eh fast immer läuft, wenn ich zu Hause bin. Da finde ich aber nur solche Teile mit eSATA bzw. USB 3.0 (was ich ggf. damit im Netzwerk anbinden kann) - mir scheint das aber nicht wirklich eine saubere Lösung zu sein, denn WoL oder dergleichen nur bei Bedarf ist damit wahrscheinlich nicht möglich.
Das leider nicht, kannst dir aber auch testweise Xpenology anschauen.
Joa, mal gucken. Es soll einfach handle- und erweiterbar sein - mir geht es da weniger um die Performance, da ich zur Verarbeitung die Daten direkt auf der Workstation halte und den Server nur als Archiv nutze und halt zum späteren Lesen (bspw. parallel zwei 4K-Filme und ne .flac-Datei ohne Transcoding abspielen... dafür braucht man ja keine Mega-Performance).

Dabei ist mir zuvorderst wichtig, 1-2 Parity-HDDs zu haben und ich mitbekomme, bei welcher HDD sich ein Ausfall abzeichnet und wenn sie ausfällt, ich sie einfach austauschen kann (heißt mit einer HDD derselben Größe oder größer) und nach dem Austausch alles ohne große Eingriffe weiterläuft - er also automatisch durch die 1-2 Parity-HDDs die Daten auf der neuen HDD (und nicht ewiglich ein Gesamtarray) wiederherstellt und das wars. Dabei darf es auch keine Volumen-Limits geben, da ich das ja beliebig erweitern können möchte (mir ist klar, dass bei Unraid die Parity-Disks den maximalen Einzel-HDD-Speicherplatz vorgeben).
 
Gut, dass ich nochmal nachgehakt habe. Habe ich das so richtig verstanden:
- es gibt HBA Controller Cards, die immer 1024 HDDs unterstützen, aber selbst nur eine begrenzte Anzahl an Anschlüssen bieten
- dann gibt es RAID Controller Cards, die zusätzlich zum HBA noch RAID-Funktionalitäten bieten
- und dann gibt es noch Expander Cards, falls ich mehr als die vorhandenen Anschlüsse der Controller nutzen möchte und zwischen Controller und HDDs schalte
Ja, im Prinzip richtig verstanden.
Stell Die einen SAS-Expander wie einen Switch vor, nur für SAS anstatt Ethernet.

Falls ja, brauche ich also a) eine HBA Controller mit 16 Anschlüssen oder b) einen HBA Controller mit 8 Anschlüssen und später einen Expander zur Erweiterung, wie diesen?
Ja, auch richtig...oder Du nimmst eben ein Gehäuse, das auf der Backplane schon einen Expander drauf hat.
Bei der Auswahl auch darauf achten, das HBA und Expander auch zusammenpassen.
Das ist eigentlich Enterprise Zeugs und garade die grossen Anbieter, die auch Server, Storage Systeme und die Einzelteile anbeieten haben of in der Firmware versteckt, dass sie nur untereinander funktionieren.
LSI/Broadcom, Intel sind i,d,R, kompatibel....ebenso Supermicro...bei HP und den anderen "Grossen" wäre ich persönlich vorsichtig.

Ich schau mir da grad eine Anleitung so eines Expanders an und da steht was von "interner Backplane" (Seite 18 des PDF = Seite 10 in der Anleitung). Hängen dort dran dann die HDDs oder wie ist das? Ich dachte, die HDDs verbinde ich direkt mit dem Controller bzw. Expander (wie in Seite 20 der PDF = Seite 12 der Anleitung beschrieben: "For an expander card with internal ports, connect serial cables between the expander card and internal disk drives").
Wie gesagt, das ist Enterprise Zeugs.
Im Allgemeinen also ist der HBA/Controller in einem Board, das in einem Gehäuse sitzt, das Disk-Einschübe mit HotSwap Bays hat.
Dafür sind die "Schächte" in die dann die HDDS eingeschoben werden mit einem festen Port ausgerüstet, der auf einer Platine aufgelötet ist.
Auf der Rückseite der Platine braucht es also das Gegenstück, in welches der Anschluss des HBA reingehört.
Diese Platine mit dem Anschluss auf der Rüclseite nennt man auch Backplane
Typisch, in einem 19Zoll Gehäuse sind die HDD Einschübe oft horizonal angeordnet und dann reicht die Breite des 19" für 4 x 3.5er HDDs.
Die Backplane dieser Reihe ist daher oft als einzelne, durchgehende Platine, also für 4 HDDs gemacht.
Je nach Rückseiten Anschluss sind da - ein Anschluss vom HBA (oder Expander) kann 4 HDDs addressieren - einzelne SATA/SAS Ports oder ein SFF-8087 Poirt drauf. Hoer muss man sich also für das passende Kabel einscheiden, je nach Gehäuse.

Manche Gehäuse haben statt einer Backplane pro Reihe HDDs auch eine einzige, grosse Backplane. Diese hat dann den Expander schon drauf und man muss nur noch den HBA anschliessen.
Meist sind aber 4-6 Anschlüsse hinten auf der Backplane...damit man eben mehr als einen HBA anschliessen kann, zB zum Zweck der Ausfallsicherheit/Redundanz.

Um ein 19" Gehäuse für 16 HDDs anzuschliesen brauchst Du also einen HBA in 16i oder einen in 8i/4i mit einem 24er Expander (der hat 6 Anschlüsse) - verbindest Du einen HBA 8i mit seinen beiden Anschlüssen an den Expander bleiben 4 Anschlüsse übrig und damit Platz für 4 Backplanes zu je 4 HDDs (4x4=16) oder 16 HDDs direkt.
Schliesst Du nur einen Anschluss des 8i an den 24er Expander hast Du noch Platz für 20HDDs ( (6-1)x4=20).

Mit den externen Anschlüssen könnte ich dann wohl später bei Bedarf ein weiteres reines 19"-HDD-Gehäuse daneben bauen und anschließen, oder wie setzt man sowas dann um?
Ja, aber da braiuchst Du eben ein (Storage) Gehäuse mit einer passenden Backplane.
Der externe Anschluss hat einen etwas anderen Connector, der für längere Kabel ausgelegt ist - Verbindung zwischen Gehäusen, statt Verlegung innen drin.

Sorry für die vielleicht dummen Fragen, aber ich habe noch nie sowas aufgebaut, nur "gewöhnliche" PCs. Ich frage auch deshalb, weil ich eigentlich ein eigenes, reines 19"-HDD-Gehäuse bevorzugen würde (wäre ja geil, das HDD-Datengrab von Vornherein physisch getrennt zu halten), das ich dann an den (dann kleinen) Server oder sogar ohne Server direkt an die Workstation sinnvoll anbinden könnte, die ja eh fast immer läuft, wenn ich zu Hause bin.
Das Storage Gehäuse wird Du auch nicht einfach ausschalten...das ist kein PC.
Ein 19" Gehäuse mit einem 16i HBA und Platz für zB 16 Disks ist schon nicht ohne vom NT und auch Lautstärke (auch bei ausgetauschten Lüftern nix fürs WoZi).

Da finde ich aber nur solche Teile mit eSATA bzw. USB 3.0 (was ich ggf. damit im Netzwerk anbinden kann) - mir scheint das aber nicht wirklich eine saubere Lösung zu sein, denn WoL oder dergleichen nur bei Bedarf ist damit wahrscheinlich nicht möglich.

Workstation und NAS trennen stat All-in-One...wer Platz hat und Strom sparen will macht meistens das.
Auch auf der Workstation können ja bei entsprechender AUsrüstung auch VMs laufen.
Ich habe einen grosses 19" NAS mit unRaid, ein kleines NAS mit nur 2TB netto und Unraid, inkl. Docker und VMs die 24x7 laufen sollen und eine Workstation.
Das grosse NAS geht schlafen und wird über WoL geweckt wenn Bedarf ist...zB als Backup für die Workstation und das kleine NAS.
Das kleine NAS läuft 24x7...zu 80% im idle
Die Workstation nur bei Bedarf.
 
  • Danke
Reaktionen: tar
Um ein 19" Gehäuse für 16 HDDs anzuschliesen brauchst Du also einen HBA in 16i oder einen in 8i/4i mit einem 24er Expander (der hat 6 Anschlüsse) - verbindest Du einen HBA 8i mit seinen beiden Anschlüssen an den Expander bleiben 4 Anschlüsse übrig und damit Platz für 4 Backplanes zu je 4 HDDs (4x4=16) oder 16 HDDs direkt.
Schliesst Du nur einen Anschluss des 8i an den 24er Expander hast Du noch Platz für 20HDDs ( (6-1)x4=20).
Was besagt das "4i" beim 8i/4i-HBA?

Was wäre der Vorteil, alle beiden Anschlüsse vom 8i/4i-HBA mit der Extender Card zu verbinden statt nur 1 Verbindung zu nutzen?

Falls ich nur einen Anschluss vom 8i/4i-HBA mit der Extender Card verbinde, wäre dann nicht zusätzlich noch 1 Anschluss des HBA verfügbar, d.h. käme man dann nicht sogar auf insgesamt 24 HDDs (1x4 am HBA, 5x4 am Extender)?
Ich habe einen grosses 19" NAS mit unRaid, ein kleines NAS mit nur 2TB netto und Unraid, inkl. Docker und VMs die 24x7 laufen sollen und eine Workstation.
Das grosse NAS geht schlafen und wird über WoL geweckt wenn Bedarf ist...zB als Backup für die Workstation und das kleine NAS.
Das kleine NAS läuft 24x7...zu 80% im idle
Die Workstation nur bei Bedarf.
Je mehr ich drüber nachsinne, wäre es bei mir genau umgekehrt, d.h. das meiste wird über die Workstation abgewickelt und der Server wohl als reines Archiv genutzt. D.h. ich schiebe da unregelmäßig Zeug rüber, um die Workstation "aufzuräumen" und dann kann sich der Datenserver wieder (länger) schlafen legen. WakeOnLan und AutoShutDown wären dann insoweit interessant, dass ich da nicht jedesmal erst in die Abstellkammer laufen muss, um aufs Knöpfchen zu drücken, wenn ich mal das Archiv brauche. Solange ich noch alleine wohne, wäre das die einfachere und vor allem auch stromsparendere Variante. Es ist ja Blödsinn, ständig ein (auch noch wachsendes) 70 TB-Datengrab zu aktivieren (auch im Sleep), wenn man in der Praxis nur ein paar Filme, eine Serie oder paar Spiele freigeben/anschauen/zocken möchte. Mein dahingehendes "NAS" wären dann die Freigaben auf meiner Workstation, die ja eh läuft, wenn ich da bin. Möchte ich dann bspw. mal eine andere (ältere) Serie schauen, wird diese halt flink vom Archiv gezogen und damit hat sich's. Von daher brauche ich auch kein ESXi mehr, da - wie du ja auch richtig anmerkst - die VMs bei Bedarf dann halt auch direkt auf der Workstation laufen können.

Um endlich mal irgendwie anzufangen, habe ich eben diesen Server für wenig Gold geschnapperlt, der folgendes beinhaltet:
- Gehäuse: Supermicro SuperChassis 836TQ-R800B (Backplane BPN-SAS-836TQ mit 16 SAS-Ports)
- Board: Supermicro X7DBE (Sockel 771)
- Raid Controller: ICP Vortex 5165BR (4x SFF-8087, SATA II mit 3 GB/s auf PCIe x8 mit 2,5 Gb/s)

Board, CPU, RAM und das HBA dürften nicht außerordentlich prickelnd und wohl ca. 10 Jahre alt sein, aber das Gehäuse hat mir gefallen und die Hardware war halt schon verbaut. Ggf. reichen mir vorerst auch die 3 GB/s - updaten kann ich ja immer noch. Ich rechne damit, dass das Anfang nächster Woche eintrudelt, so dass ich da schon mal rumspielen kann. Einen weiteren Vorteil hätte es auch noch: ich kann meine Workstation erstmal so belassen und sie später auf-/umrüsten.
 
Was besagt das "4i" beim 8i/4i-HBA?
i=intern, e=extern

Was wäre der Vorteil, alle beiden Anschlüsse vom 8i/4i-HBA mit der Extender Card zu verbinden statt nur 1 Verbindung zu nutzen?
Käme auf HBA und Expander an, ob die beiden dann, analog Netzwerk ein "LACP" machen, also die Bandbreite beider Anschlüsse zusammenführen.
Versuch macht Kluch.

Falls ich nur einen Anschluss vom 8i/4i-HBA mit der Extender Card verbinde, wäre dann nicht zusätzlich noch 1 Anschluss des HBA verfügbar, d.h. käme man dann nicht sogar auf insgesamt 24 HDDs (1x4 am HBA, 5x4 am Extender)?
...korrekt. So habe ich es auch...ein 9211-8i mit 24er Expander (6 ports), einen Port des HBA an den Expander, 5 Ports vom Expander an je eine Backplane und die 6te BAckplane an den HBA, jede BAckplane hat bei mir 4 HDDs.

Um endlich mal irgendwie anzufangen, habe ich eben diesen Server für wenig Gold geschnapperlt, der folgendes beinhaltet:
- Gehäuse: Supermicro SuperChassis 836TQ-R800B (Backplane BPN-SAS-836TQ mit 16 SAS-Ports)
...die Backplane hat 16 einzelne SAS/SATA Ports.

- Board: Supermicro X7DBE (Sockel 771)
- Raid Controller: ICP Vortex 5165BR (4x SFF-8087, SATA II mit 3 GB/s auf PCIe x8 mit 2,5 Gb/s)
....kein HBA sondern Raid-Controller....aber für 4x4=16 DIsks...musst Du 4x Forward Kabel SFF-> SAS/SATA nehmen...sind die alle schon mit dabei?

Board, CPU, RAM und das HBA dürften nicht außerordentlich prickelnd und wohl ca. 10 Jahre alt sein, aber das Gehäuse hat mir gefallen und die Hardware war halt schon verbaut. Ggf. reichen mir vorerst auch die 3 GB/s - updaten kann ich ja immer noch. Ich rechne damit, dass das Anfang nächster Woche eintrudelt, so dass ich da schon mal rumspielen kann. Einen weiteren Vorteil hätte es auch noch: ich kann meine Workstation erstmal so belassen und sie später auf-/umrüsten.
Ja, dann viel Spass und Erfolg damit. Hast Du Ohrenschützer? ;-)
 
Unterstützen diese unterschiedliche HDD-Größen, 1-2 Parity-Drives sowie spin-down bei Nichtnutzung? Gibts bei ZFS Zugriffsprobleme von Windows aus, was meine Workstation wäre?
Unterschiedliche HDDs kannst du mit ZFS nur anteilig redundant nutzen, egal auf welchem OS. 2 Parity HDDs und Spindown gibt es bei TrueNAS über das UI. Ist alles ganz einfach. Ich habe inzwischen mein TrueNAS auf ESXi (mit PCIe-Passthrough LSI-Controller) per Skript dazu gebracht, nicht nur die HDDs herunterzufahren, sondern den kompletten Host samt VM (nach 2,5Stunden Leerlauf) (Weil ich die anderen VMs auch nur gelegentlich brauche). Dies spart natürlich am meisten Strom. Der Host ist übrigens durch einfachen Klick auf die Netzwerkfreigabe oder auch einen Ping an die IP der TrueNAS-VM, schnell und praktisch aufgeweckt, mittels eines kleinen Tools namens "arpwake". Bis die Daten dann verfügbar sind dauert schon ca. 3 Minuten, aber das ist zu einem großen Teil auch auf den Server (Poweredge T20) und dessen langatmigen Bootvorgang, sowie meine extrem langsamen Festplatten (Seagate Archive mit SMR) zurück zu führen und ließe sich sicher auch durch Finetuning einiger Parameter (Spin-Up-Delay usw.) noch optimieren.
 
Zuletzt bearbeitet:
Äh, eine Error LED gibt es nicht.
Wenn Du die HDDS da einbaust machst Du Dir einen Plan, den Du ins Rack hängst ;-)
Wenn eine Disks einen Defekt hat, kannst Du die Position wiederfinden.
Da gibt es auch Dokumentations-Tools für (HDD aus Liste auswählen, LED mal "blinken" lassen, Gehäuseposition in der Tabelle eintragen) aber ein Tabellenblatt reicht.
Natürlich gibt es Das!
Erfordert halt eine Backplane die SPGIO Unterstützt und einen Controller der das ebenfalls unterstützt, da gibt es dann zu jedem HDD Slot 3 LEDs : Power, Activity & Fault.
Einfache Backplanes haben nur eine oder 2 LEDs Power oder Power und Activity (wobei beide oder gar alle 3 Funktionen durchaus in einem "Leuchtkörper" zusammengefasst sein können, z.B. über verschiedene Farben)
 
Der Server kam gestern, heute der VGA-to-HDMI-Adapter... Nach Stunden des Probierens war es leider doch kein Schnapperl, da weder Unraid noch ESXi drauf laufen:
- Unraid bootet nicht von USB, ist ein Mainboard-spezifisches Problem (geht auch nicht mit Plop Bootmanager - er steigt aus, sobald man den Stick auswählt)
- ESXi kann nicht installiert werden, weil inkompatibel zum Prozessor (der Sockel scheint an sich von vmWare ESXi nicht unterstützt zu werden)

Muss wohl doch was Moderneres her. Werd die Tage mal versuchen, überbrückungsweise ne Alternative draufzuknallen... OMV oder whatever.

... und ja: das Teil ist echt nicht gerade leise 🙉
 
Erleichtert eventuell die Auswahl.

Wer billig kauft, kauft 2x ;)
Dass es sowas überhaupt noch gibt, muss man erstmal wissen - und dass ausgerechnet dort Unraid-USB-Boot rumzickt, ist wohl auch ganz besonders exotisch.

Ein anderes Board/CPU/RAM einzubauen, ist ja das geringste Problem. Wollte ja das Zeug meiner jetzigen Workstation dafür nutzen - da muss ich deren Update nun doch etwas vorziehen.

Was auch noch interessant wäre, zu wissen:
- Es piepte, als ich nur 1 der beiden Netzteile angeschlossen hatte - ist das grundsätzlich auf Doppelbetrieb ausgelegt oder eine BIOS-Einstellung?
- Wieso lüften die Netzteile bereits, sobald sie am Strom hängen und der Server aus ist? Ist ja nervig - brauch man dann zwingend eine Netzwerksteckdose oder kann man das irgendwie dauerhaft deaktivieren?
- Kann man die Backplane des Gehäuses bei Bedarf austauschen - auf eine mit SATA III 6 GB/s?
- Gibt es leisere Lüftervarianten?
 
Zuletzt bearbeitet:
Kurzes Update:
- USB 2.0-Stick: Unraid v6.8.3 (direkt schwarzer Bildschirm)
- USB 2.0-Stick: Proxmox VE v6.3 (direkt schwarzer Bildschirm)
- USB 2.0-Stick-SD-Card-Adapter (= Pseudo-Wechselträger): Unraid v6.8.3 (direkt schwarzer Bildschirm)
- IDE-CDROM: Plop BootManager v5.0.15 (Auswahl wird angezeigt, nach USB-Auswahl direkt schwarzer Bildschirm)
- IDE-CDROM: Windows XP Pro Corp. Edition SP2 x86 (nach Initialscreen, wo er eigene Treiber lädt, wird der Bildschirm schwarz)
- IDE-CDROM: Windows 7 Enterprise x86 (direkt schwarzer Bildschirm)
- IDE-CDROM: MSDOS v6.22 (direkt schwarzer Bildschirm)
- IDE-CDROM: Ubuntu v8.10.025 Beta (zeigt Einstiegsbildschirm, dort Auswahl "Installation" und kurz vor Ende des Ladebalkens wird der Bildschirm schwarz, seltsamerweise ließ sich hier auch die CD nicht mehr auswerfen -> Stromversorgung weg?)
- IDE-CDROM: OpenSUSE v11 (zeigt Einstiegsbildschirm, dort Auswahl "Installation", Bildschirm wird schwarz, nach 20 Sekunden leuchtet CD-ROM nochmal kurzzeitig auf, aber nichts passiert)

Vielleicht liegts am VGA-to-HDMI-Konverter, dass der Bildschirm schwarz bleibt. Gerade bei MSDOS ist es mir ein Rätsel, wieso das überhaupt nicht laufen sollte. Das BIOS und das Bootmenü werden ja auch problemlos angezeigt. Hab mir derweil mal einen alten Monitor mit VGA und DVI-Eingang geholt - fehlt nur noch das VGA-Kabel zum Testen.

Dann liefen diese bisher halbwegs durch:
- IDE-CDROM: ESXi v6.7.0 (während "Installationsprozess" kam CPU-Inkompatibilitätsmeldung)
- USB 2.0-Stick-SD-Card-Adapter (= Pseudo-Wechselträger): Ubuntu v20.04.2 Live Server (läuft bereits bei Initialisierungsprozess ins Leere -> std...irgendwas error - vermute Probleme beim Mounten/Cachen/Lesen)
- USB 2.0-Stick: Ubuntu v20.04.2 Live Server (läuft im Installationsprozess bis zur Erkennung der Platten, wobei er noch keine findet - die Netzwerkadapter funktionieren zumindest)
- USB 2.0-Stick: OpenMediaVault v5.5.11 (läuft im Installationsprozess bis zur Erkennung der Platten, wobei er noch keine findet - die Netzwerkadapter funktionieren zumindest, Anmerkung: wenn ich den Punkt Hardware-Erkennung ausführe folgt schwarzer Bildschirm)

Also kann das Board auch von USB booten - immerhin etwas. Ich vermute, dass ich noch irgendwelche Treiber für den Raid Controller einbinden müsste, damit er die Platten bei der Installation erkennt. Wie auch immer das gehen mag, mal weitertüfteln...

Eine Alternative zum VGA-Problem wäre evtl. IPMI, da das Board über einen IPMI-Steckplatz verfügt - leider noch ohne passende Karte. Wäre es mit dieser Karte per se möglich, remote (Boot-)Images zu installieren oder muss ich auch da zusätzliche Besonderheiten beachten?
 
Zuletzt bearbeitet:
Es lag am VGA-to-HDMI-Konverterkabel!

Eben für 3 Euro ein direktes VGA-Kabel besorgt (man darf ja glücklicherwajs seit heute mit Anmeldung mal wieder in ein Geschäft gehen) und ich seh zum 1. mal, dass er da den RAID-Controller bootet - direkt in die Settings rein und für die HDDs ein Array erstellt.

Direkt nochmal mit Unraid vom USB-Stick versucht und er booted auf Anhieb.

Phew... doch kein totaler Fehlkauf... :fresse2:
 
Es lag am VGA-to-HDMI-Konverterkabel!

Eben für 3 Euro ein direktes VGA-Kabel besorgt (man darf ja glücklicherwajs seit heute mit Anmeldung mal wieder in ein Geschäft gehen) und ich seh zum 1. mal, dass er da den RAID-Controller bootet - direkt in die Settings rein und für die HDDs ein Array erstellt.

Direkt nochmal mit Unraid vom USB-Stick versucht und er booted auf Anhieb.

Phew... doch kein totaler Fehlkauf... :fresse2:
Raid & Unraid "beißt sich"....
 
Raid & Unraid "beißt sich"....
Joa, hab für jede einzelne Platte über den Raid-Controller 1 eigenes "Volume"-Array erstellen müssen, da sie sonst von Unraid nicht erkannt/gefunden werden. Das ist kein Raid im Unraid :geek:

Der Raid-Controller erkennt zudem zwar meine 4 TB-Platten, aber zeigt sie mit falscher Größe an und kann sie nicht zuweisen. Nun weiß ich noch nicht, ob das nur an dem alten Raid-Controller liegt oder bereits an der ebenfalls älteren Backplane. Da die Backplane aber die SATA-Platten wohl 1:1 durchreicht (sie hat ja für jede einzelne HDD 1 SATA-Port), wird es wahrscheinlich nur am Raid-Controller liegen. Ich teste da morgen mal, ob er die Platte mittels Verbindung zum SATA-Port auf dem Mainboard richtig erkennt. Falls nicht, kann das dann aber auch am Board-Controller liegen. Dann wäre der nächste Schritt, das SATA-Kabel von der Backplane mal zum Board meiner Workstation zu leiten und beides parallel zu starten o_O Was für ein Gefrickel...

Dann mal weitersehen... bin gedanklich schon dabei, das Teil wieder abzustoßen und mir einfach sowas zu holen, aber erstmal schauen. Nur mit meinen kleineren Platten allein nützt es mir nicht viel und welcher von diesen Controllern dann auch mit größeren Platten klarkommen würde, weiß ich leider nicht.
 
Kauf' Dir einen LSI 2008, 2308 oder 3008 basierten HBA (oder flashe einen auf diesen LSI chips basierenden "RAID"-controller in den IT-Modus) sowie die passenden Kabel und fertig. Das ist das einfachste und sicherste.
Okay, aber welche von all diesen HBAs (sollte 1x 16i oder 2x 8i sein) gingen überhaupt auf dieses Board? Es hat ja nur PCIe x8 und PCI-X. ... und wenn ich einen finde, limitiert dann das alte Mainboard dennoch die LBA-Zuweisung auf 32-bit? Dann wäre ein Boardtausch fällig.

Mittlerweile habe ich auch rausgefunden, dass die Backplane tatsächlich nur durchreicht, d.h. es wären 6 gpbs möglich, insofern das der Controller auch unterstützt.
 
Zuletzt bearbeitet:
Du hättest dir einiges erspart, hättest du meine Fragerei in "Server Vorstellung" mitbekommen...
Wie kommst du darauf, daß ein Mainboard etwas mit LBA zu tun hat? Bzw. das Thema hörte in die Biosen spätestens ab der Zeit von XPsp1 rauskam. Wie alt das Board denn?

Wenn du nach den vorgeschlagenen diesen HBAs schaust, stellst du fest, daß sie eh alle (?) x8 PCIe fahren.

Ich werde das Eindrucks trotzdem nicht los, daß für dich primär ein gebrauchter TS-431+ die ideale Wahl gewesen wäre und das ganze 19" Zeug eher als "Storage" - auch für den 431+ - hätte dienen sollen. Das hätte an in Ruhe aufbauen können, während der 431+ längst seine Arbeit verrichtet.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh