[Kaufberatung] Empfehlung für Home Server gesucht (Proxmox oder Unraid!?)

klayman

Profi
Thread Starter
Mitglied seit
17.01.2024
Beiträge
8
Hallo zusammen,

Ich bin auf der Suche nach einer HW-Empfehlung für einen Homeserver mit folgenden Eigenschaften/Anforderungen:
  1. Proxmox mit
    1. VM für HomeAssistant
    2. VM mit Windows 11 für ETS 6 (KNX Konfigurationssoftware, braucht 4C/8GB)
    3. Paperless im Container
    4. NAS für Photos/Lightroom Katalog (ca 3TB)
    5. Bei Bedarf 1-2 weitere VMs zum rumprobieren…
  2. 19 Zoll Gehäuse, Lautstärke egal, steht im Keller
  3. USB-C Port für ext. Platten
  4. 10GBASE-T (nice to have, macht bei Photoshop und Lightroom mehr Spaß)
  5. Integrierte Grafik für lokalen Monitor und Tastatur/Maus
  6. Niedriger Stromverbrauch (wie es bei den Wünschen eben geht)
Bzgl. RAID, ECC und Backup bin ich mir noch nicht so sicher wie das mit Proxmox am Besten geht. Aktuell habe ich einen Windows Hyper-V mit VM für HA und VM für Windows Dateiserver. Gespeichert wird 1x pro Monat zu Amazon Glacier und unregelmäßig auf externe Platten. So viel ändert sich aber nicht. Funktionieren read only Snapshots z.B. von ZFS eigentlich auch auf hyper-v Ebene?
RAID ist schön damit gerade HomeAssistant immer verfügbar ist (wobei es da mehr ums Logging geht, Steuerung geht auch fast alles über KNX), oder Paperless wenn ich gerade nicht zu Hause bin. Wenn das also mit zwei oder drei zusätzlichen Platten machbar ist, dann gerne…
ECC scheint ja gerade bei modernen Dateisystemen sinnvoll zu sein. Also warum nicht…

Danke für Eure Hilfe :-)
Klayman
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Moin,

nach weiterem Stöbern hier im Forum habe ich mal versucht mir ein paar Komponenten zusammenzustellen. Sie orientieren sich an "Der Gerät 2.0". Was haltet Ihr davon: https://geizhals.de/wishlists/4441799
Noch zwei drei Fragen dazu:
  • Die M2 SSDs sind für OS und VMs/Container vorgesehen. Macht ein RAID-Verbund hier überhaupt Sinn, fallen SSDs öfter aus als die übrigen Komponenten? Denn dann wäre ja nichts gewonnen...
  • Brauche ich eine SSD als Cache Drive wenn die Datenplatten auch SSDs sind?
  • ECC kostet mal schlappe 500€ extra in der Größenordnung, oder hab ich da was falsch interpretiert?

Viele Grüße,
Klayman
 
Zuletzt bearbeitet:
  • Die M2 SSDs sind für OS und VMs/Container vorgesehen. Macht ein RAID-Verbund hier überhaupt Sinn, fallen SSDs öfter aus als die übrigen Komponenten? Denn dann wäre ja nichts gewonnen...
Nein die fallen nicht häufiger aus wenn man Qualität verbaut.
Raid für OS lohnt sich nur wenn man eine schlechte Backup Strategie hat und das System nicht mal eben 1-3h down sein darf.

  • Brauche ich eine SSD als Cache Drive wenn die Datenplatten auch SSDs sind?
Nein.
SSD Cache ist eh so ne Sache die sich nur in ganz spezifischen Anwendungsfällen lohnt. Sonst ist mehr RAM als Cache immer vorzuziehen.

  • ECC kostet mal schlappe 500€ extra in der Größenordnung, oder hab ich da was falsch interpretiert?
Tja. DDR5 halt.
Wobei selbst ddr4 noch Ärsche teuer ist... 90€ anstatt 35€ für nen 32gb Riegel.
 
Asrock Live-Mixer B850, wenn schon 19", dann Full-Size. Viel PCIe und so.

Die BX sind Scheiße, nimm auch M.2, hat besseres P/L, SATA kannst eigentlich nur 870 EVO kaufen, was zu teuer ist.
 
Danke für Eure Kommentare. Für ECC brauch ich echt noch Überwindung - oder ne Horrorstory ink. zerstörter Backups ;-)
Zum Board: Würde ein größeres Board mit mehr Features nicht auch mehr Strom verbrauchen? Ob da viel leerer Raum im Gehäuse ist oder nicht ist mir ziemlich egal. Nur steht eben schon ein 19 Zoll Schrank im Keller für das Netz, da ist es naheliegend auch den Homeserver mit rein zu stecken. Meine aktuelle Kiste hab ich vor 10 Jahren gebaut und seitdem nur 1x geöffnet um die CMOS Batterie zu wechseln.
Zur SSD: Die M2 Module scheinen in fast allen Kategorien 10x so performant zu sein wie ein SATA Modell. Dann also lieber 2-4 M2 Karten auf einer Erweiterungskarte? Funktioniert es mit o.g. Board und der M2 Card von ASROCK (Link)? Das Board hat PCIe 4.0 x16 und kann wohl bifurcation...

Puh, je mehr ich mich damit beschäftige, desto komplizierter wird's ;-) Jetzt stellt sich noch die Frage ob Proxmox wirklich das richtige ist. Gemessen an meinen Fähigkeiten und meiner Zeit komme ich wahrscheinlich mit Unraid schneller voran, auch wenn das Lizenzgebühren kostet. Dann wiederum brauche ich keine Systemplatte, weil das ja nur von einem USB-Stick bootet... Nach ein paar Videos dazu finde ich das ehrlich gesagt recht charmant.
 
Zum Board: Würde ein größeres Board mit mehr Features nicht auch mehr Strom verbrauchen?
No, X870E braucht mehr als B850 (600er analog zu 800er).
Danke für Eure Kommentare. Für ECC brauch ich echt noch Überwindung - oder ne Horrorstory ink. zerstörter Backups ;-)
Jo, kann ich liefern, ging aber am Ende alles gut aus, war nur blöde Arbeit.
Seither gibts im Desktop-PC ECC für mich. Wegen den paar € mehr und den paar % schlechterer Latenz eiere ich da nimmer herum.
Zur SSD: Die M2 Module scheinen in fast allen Kategorien 10x so performant zu sein wie ein SATA Modell.
Vor allem billiger. Leider.
Dann also lieber 2-4 M2 Karten auf einer Erweiterungskarte
Jo.

Aber schau dir echt das Live-Mixer an, hast mehr PCIe Slots.
 
Aber schau dir echt das Live-Mixer an, hast mehr PCIe Slots.
Gerne. Da wird ja ziemlich viel über das Chipset angebunden, u.A. der dritte M.2 Slot und die PCIe Steckplätze 3 und 4. Alles läuft dann über 4 PCIe Gen4 Lanes zwischen Chipset und CPU. Ist das ein Problem wenn man mal größere Datenmengen hin und her schaufelt? Beispielsweise Daten von einem Client über eine 10G Netzverbindung speichern würde dann einmal von der NIC über Chipset zur CPU und dann wieder zurück zur M.2 SSD laufen. Wenn mich nicht alles täuscht gehen da aber nur 8 GBit/s. Die Lanes wären doch schon mit der NIC ausgelastet, oder?

P.S.: Glaub mir fehlen da ein paar Grundlagen seit ich vor 20 Jahren mit dem PC-Basteln aufgehört hab 😅
 
Jein, irgendwann wirds zum Problem, idR. ist das Problem der geteilten Bandbreite aber eher klein.
4x PCIe 4.0 sind 8 Gigabyte/s (nicht Gigabit).
10 Gbit LAN sind ca. 1 Gigabyte/s.

Dem "100 Gbit Thread" kann man entnehmen, dass >40 Gbit (und wsl. auch schon >25 Gbit) die Sache recht kompliziert wird, da man hier schon diese ganzen modernen Zauberfeatures vom SMB etc. benötigt, um überhaupt so hohe Datenraten hinzubekommen.

Ich postuliere also, dass das kein praktisch relevantes Problem ist (und in naher Zeit auch keines sein wird).

X870E hat USB4, welches PCIe 5.0 Lanes verschwendet und sehr nutzlos ist. Zudem brauchen die 2 Chips einfach mehr Strom, bieten viel USB, welches man ebenso nicht braucht.
Daher meine ich B850 > X... (auch 650 ggf.).

Ich hab hier mal meine Gedanken niedergeschrieben bezügl. B850 Live Mixer, selbst bin ich noch auf AM4 / B550 unterwegs (mit 128gb ECC und 5750G, wird daher noch länger so bleiben).

Ich halte das Live-Mixer für recht interssant, man bekommt mit der 4x M.2 Karte 6x M.2 direkt an die CPU, an den 2 Chipsatz-Slots bekommt man z.B. nen HBA und ne NIC unter (9400-16i, 2x 25 Gbit NIC z.B.), das ist schon ziemlich viel.
Alternativ auch mit dem 2x M.2 + PCIe x8 (16) Adapter im x16 Slot 4 M.2 gesamt und 3 PCIe Karten (z.B. noch ne Low-Profile GPU oder sowas).

Dann gäbe es noch von QNAP/Syno diese PCIe-Karten mit 2x M.2 drauf und ner 10 Gbit NIC (über so nen Switch), auch ganz interessant, die sind gar nicht soo teuer (knappe 200?).
Beitrag automatisch zusammengeführt:

Nachtrag:

Ohne ECC wäre vllt. ein Z890 (auch Live-Mixer?) + 265k vielleicht interessant(er)?

W880 gibts ja (noch?) nicht.
Angesichts der DDR5 ECC UDIMM Preise tut so ein W880 Brett dann auch nimmer weh, und die sind scho ganz nett. iGPU SR-IOV ist auch kein Fehler und naja... könnte man sich schon ansehen, wenn mal was rauskommt.
 
Zuletzt bearbeitet:
Aaaah, hier also Byte... Wieder was gelernt ;-)

Falls es Unraid wird sehe ich drei 4TB M.2 SSDs, eine davon als Parity. Würdest Du die dann auch über eine Adapterkarte in den direkt angebundenen Slot stecken, oder meinst Du die drei M.2 Slots auf dem Mainboard reichen und auch über den Chipsatz gäbe das ohnehin kaum Einbußen; auch in Verbindung mit der Netzwerkkarte? Und könnte auf dieser Plattform eigentlich auch eine Grafikkarte an eine VM weitergereicht werden? Wer weiß welche Ideen noch kommen...
 
Also, CPU Lanes Passthrough ist immer easy, Chipset muss man schauen, da bin ich mir nicht sicher, wie das mit diesen IMMOU Gruppen gemacht ist, kann bissl kompliziert sein auf Consumer Boards, also imho müssen alle Devs in einer IMMOU Gruppe zusammen an eine VM durchgereicht werden, wenn mans tut. Wenn der x4 Slot allein in einer IMMOU ist, kein Thema, wenn er z.B. gemeinsam mit dem Netzwerk-Chip in einer IMMOU wäre, müsste man beide Devices durchgeben, wenn ich das richtig habe.

Muss man halt überlegen, wie man das will und so.

Proxmox/Unraid ist kein Windows, da braucht man keine PCIe 4.0x4 SSD, damit das flüssig läuft, das läuft auch auf den totalen Gruken sauber.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh