Hardware-Komponenten für ein TrueNAS

daveinitiv

Neuling
Thread Starter
Mitglied seit
22.09.2023
Beiträge
11
Hallo Zusammen,

ich bin leider kompletter rookie, was PC Hardware angeht. Deshalb wende ich mich hilfesuchend hier ins Forum.

Vorneweg: Ich möchte mein momentan eingesetztes Synology NAS mit 5 Bays gegen die Hardware ersetzen, auf der ich dann TrueNAS laufen lassen kann.

Ich habe mir ein fractal-design Define 7 Case geholt, dass die Anzahl der HDD-Bays hat, die ich benötige (ich werde erstmal 6 HDDs verbauen, vielleicht kommen dann irgendwann noch mal 2 hinzu).

Jetzt stehe ich vor dem Thema, welches Motherboard, welchen Prozessor, welches Netzteil, welchen RAM etc.

Ich denke am Besten ist es, wenn ich schreibe, was mein "Anforderungsprofil" ist.

Zugriff auf das NAS von maximal 5 Accounts gleichzeitig, keine Videodaten, selten Bilddaten.

- Motherboard mit 2 NICs, das Grafik onboard hat und auf dem ich einen AMD Prozessor installieren kann, die Möglichkeit insgesamt 8-SATA Platten anzuschließen
- Wie geschrieben, möchte ich einen AMD Prozessor verbauen, dieser sollte ECC-RAM unterstützen
- ECC-RAM, es sollten am Anfang 32 GB sein, aber ich sollte die Möglichkeit haben zu erweitern.
- Netzteil sollte zwischen 300 und 500 Watt liegen und möglichst leise sein
- zusätzliche Lüfter sollten auch möglichst leise sein
- PCI Expresskarte mit 4 zusätzlichen NICs

So meine Vorstellungen von dem NAS-Server.

Vielen Dank für jeglichen Input.

Disclaimer :-):
Über das Für und Wieder von ECC RAM möchte ich nicht diskutieren. Da habe ich meine Entscheidung schon getroffen.
 
Ich habe zwar nur Intel Server, aber trotzdem ein paar Fragen:

Ist IPMI für dich wichtig oder wie möchtest du auf deinen Server zugreifen ?
Was soll auf dem Server laufen um CPU etc. einschätzen zu können ?
 
Der wird als reiner TrueNAS Server laufen, ich muss also nur zur Ersteinrichtung drauf zugreifen. Von daher ist IPMI nicht zwingend notwendig, wäre aber natürlich ein "nice to have", es kommt dann darauf, wie hoch die Mehrkosten für IPMI sind.

Auf dem Server wird ein TrueNAS scale, also nur Dateizugriff und das von maximal 5 Accounts / Rechnern zeitgleich. Eher aber im Normalbetrieb 1-2 Leute / Accounts. Also keine wahnsinnigen Anforderungen an den Prozessor.
 
- Motherboard mit 2 NICs,

PCI Expresskarte mit 4 zusätzlichen NICs

Auf dem Server wird ein TrueNAS scale, also nur Dateizugriff
Also wenn das ein reiner Fileserver ist, wozu du ganzen NICs?!
Und wofür die "onboard Grafik"? Die gibt es im übrigen dann wieder nur in Verbindung mit IPMI.
Wenn dann muss die cpu eine integrierte GPU haben, wenn es AMD und ECC sein soll dann wären das zb die Ryzen Pro 5750g (8 Kerne) 5650g (6 Kerne)
 
Wie gesagt, ich bin bei PC Hardware selbst zusammenstellen kompletter rookie.

Die zusätzlichen NICs sind zum Austesten für unter anderem Bonding unter TrueNAS.

Bei der Grafik habe ich mich unpräzise ausgedrückt. Was ich meinte: Ich möchte nicht noch extra eine Grafikkarte verbauen.

Ob über Prozessor oder IPMI ist dann am Ende eine Preisfrage. Bevorzugen würde ich IPMI.
 
Vergiss Bonding zwischen Server und einem einzelnen Client. Wenn Du Tempo willst: direkt 10Gbit oder mehr ist Dein Freund.
Wenn Du ZFS einsetzen willst, was ich aufgrund "TrueNas" vermute: Dimensioniere den HDD-Pool gleich von Anfang an, dass er inkl. Snapshots ne Weile reicht. 6 HDD als Raidz2 z.B. ist durchaus ne gute Idee.
Einzelne HDDs hinzufügen zu einem Raidz ZFS-Vdev ist bislang nicht aber wirklich unterstützt bzw. erst angekündigt => dringend vermeiden wenn der Bedarf absehbar ist.

Die Zahl der Sata Ports ist nicht so wichtig, so lange Du Slots noch Hostbusadapter hast; das lässt sich nachrüsten bzw. hat sogar Vorteile fürs Kabelmanagement (an ein Anschlusskabel bei den Hostbusadaptern (LSI/Avago/Broadcom bzw. deren OEM-Varianten sind Goldstandard für TrueNas) kannst Du meist 4 HDDs hängen.)

Wenn AMD AM4 und IPMI: => Asrock Rack X570D4U way to go . Gibts auch als 10Gbit-Variante (heisst dann X570D4U-2L2T, hat also 4 NICs (2x1 Gbit + 2x10 Gbit) onboard plus eigenen IPMI-Port.
Die (neuere) AM5-Variante wäre ein B650D4U. Ein X570D4U-2L2T hab ich selber in Betrieb, mit dem B650D4U hab ich keine Erfahrung.

Ohne IPMI und mit Consumer-Boards: Asrock oder Asus Boards haben gerne mal ECC-Funktionalität, MSI in aller Regel nicht.


Btw, was ist Dein Budget, dass Du Dir gesetzt bzw. zur Verfügung hast?
 
Zuletzt bearbeitet:
@daveinitiv :
Wie hoch ist der Budgetrahmen ? Gewerblicher oder privater Einsatzzweck ? Netzwerk-Infrastruktur Kupferkabel oder Glasfaser ?

Für das von @daveinitiv oben beschriebene Anforderungsprofil (durchschnittlich 1-2 User, max 5 User, 6-8 HDD's, keine Videodateien, selten Bilddateien) dürfte schon ein kleines NAS mit 2-4 CPU-Kernen und 2x 2,5GbE oder 1x 10GbE ausreichend sein. Empfehlung wäre weiters die Benutzerdaten nach I/O- bzw. Geschwindigkeitsanforderungen zu trennen, schnell verfügbare Daten auf NVMe, langsame Daten auf HDD. ZFS als Dateisystem verwenden und bei Bedarf noch mehr RAM einzubauen.
Geschwindigkeit (langsam) HDD << SATA SSD << NVMe SSD << RAM (schneller) !!
Weil DDR4 ECC-UDIMM's momentan sehr preiswert zu bekommen sind, hat auch mein "Desktop" seit kurzem 128GB RAM, bin damit sehr zufrieden.

Wenn man Kanalbündelung (Link Aggregation, 802.1AX (früher 802.3d)) einsetzen möchte, muss prinzipiell Sender (Netzwerkkarte) und Empfänger (Switch, Netzwerkkarte) den Standard unterstützen. Ein Switch soll (ideal) die jeweiligen Client-Verbindungsgeschwindigkeiten auf seinen jeweiligen Ports ebenfalls bereitstellen können, ein Server sollte idealerweise eine mehrfache oder schnellere Netzwerkanbindung zum Switch haben als ein Client-PC.
Für die meisten (Desktop)-Benutzern ist noch 1 Gb bzw. 2,5 Gb Verbindung via Cat5e Kupferkabel (RJ45-Stecker) DER Infrastruktur-Standard. Cat6A-Kupferkabeln mit denselben RJ45-Steckern kommen bei 5 und 10 Gb-Ethernet (10GBase-T) zur Verwendung. Glasfaser-Verbindungen (SFP+, SFP28, QSFP+, QSFP28) haben andere Stecker und Kabeln.

Netzwerkkarten:
Neuwertige NIC's mit 2x 10Gbase-T kosten ca €180, z.B: Intel X550-T2 10G LAN-Adapter, 2x RJ-45, PCIe 3.0 x4, retail (X550T2), diese unterstützt auch 1/2,5/5/10 GBase-T Verbindungen.
Gebrauchte NIC's mit 2x SFP+ (10Gb/s pro Port) liegen preislich bei ca. €90/Stk. , z.B. ConnectX-3. (PCIe3.0 x4, andere NIC's sind u.U. auch x8 breit)
Gebrauchte NIC's mit 2x SFP28 (25Gb/s pro Port) liegen bei ca. € 130 /Stk. , z.B. ConnectX-4 (PCIe3.0 x8)
Achte auf gute Hardware-Unterstützung

Beispiel für MB+CPU (Luxus-Klasse):
Die von AMD neu vorgestellten AMD Epyc 8004 CPU's (Codename "Sienna", Sockel SP6) sind leider noch nicht im Einzelhandel verfügbar, deren 8 und 16 Kerne Epyc's mit ihren 70-125W (unterste cTDP) und 96 PCIe5-Lanes wären sicherlich ein schöner, kleiner LUXXus für den Bau von Fileserver mit Zusatzfunktionen (VMs, etc).
Die momentan erhältliche, größere Variante davon wäre ein Epyc Sockel SP3 (älter) oder SP5 (neu).

Beispiel für MB (Oberklasse) + CPU:
MB: ASRock Rack X570D4U-2L2T/BCM (90-SXG9B7-A0UAYL) Preis ca. € 600,-
AM4 'Server'-MB mit IPMI , 2x 1/10GBase-T (Broadcom BCM57416), 2x Gb LAN (Intel I210-AT)
Da AST2500 (BMC mit 2D Grafik) onboard, können hier auch ECC-fähige Ryzen-CPU's (ohne iGPU, ohne PRO) eingebaut werden, z.B. Ryzen 5600, 5600X, 5800, etc.

Beispiel für MB+CPU (obere Mittelklasse):
Wem die AM4 'Server'-Mainboards preislich noch zu hoch liegen, könnte z.B. auch ein AM4 Mittelklasse Consumer Mainboard nehmen und die fehlenden NIC's via PCIe-Steckkarte nachrüsten.
MB: ASRock B550 Taichi (90-MXBD00-A0UAYZ) : mittelpreisig (~ 250€) , 1x NIC (2,5Gb/s), 8x SATA, 3 mechanische x16 PCIe Slots (mit 8x/8x/4x)
CPU: wie von @warchild schon oben angeführt, müssen für AM4 CPU mit iGPU+ECC-Unterstützung die Ryzen PRO's verwendet werden, z.B. Ryzen PRO 5650G, 5750G

MB+CPU (untere Mittelklasse)
Alternativ kann man auch noch preiswertere B550 Mainboards (Preis ~130€ , 1xNIC 2,5G , 6xSATA, 2 mechanische x16 PCIe-Slots) verwenden, allerdings liegt man wahrscheinlich mit MB + NIC + gebrauchten HBA (z.B. LSI 9211-8i, ~80€) + passende Kabeln für HBA-->SATA preislich nicht viel unter dem AM4-obere Mittelklasse Mainboard.

Lüfter:
CPU- und Case-Lüfter der Marke Noctua (z.B. 120x25mm mit max. 2000 U/min) gelten als sehr Leise, sind aber auch teuer.
Ich persönlich bin mit deren Lautstärke sehr zufrieden, aber nicht mit deren Preis-/Leistungsverhältnis.

Netzteil:
(Eine Empfehlung ist hier schwierig, lass Dich zusätzlich im Netzteil Forum beraten)
be quiet! Pure Power 11 400W ATX 2.4 (BN292) könnte womöglich passabel sein. ATX-Formfaktor, laut Herstellerangabe ~ 15db leise, 5 SATA Anschlüsse (wirst also zusätzlich SATA Y-Kabel benötigen), Leistungsmäßig aber überdimensioniert
 
Zuletzt bearbeitet:
Btw, was ist Dein Budget, dass Du Dir gesetzt bzw. zur Verfügung hast?

@daveinitiv :
Wie hoch ist der Budgetrahmen ? Gewerblicher oder privater Einsatzzweck ? Netzwerk-Infrastruktur Kupferkabel oder Glasfaser ?

So gesehen habe ich keinen Budgetrahmen. Will heißen, dass ich nicht „auf den EUR schauen muss“. Natürlich soll es eine vernünftige Relation von Kosten zu Nutzen sein.

Ich werde es geschäftlich nutzen, also ist Zuverlässigkeit schon ein Faktor.

Wie ich im Eingangspost schrieb, ich will von Synology weg.

Netzwerk ist Kupfer.

Vergiss Bonding zwischen Server und einem einzelnen Client. Wenn Du Tempo willst: direkt 10Gbit oder mehr ist Dein Freund.

Ich habe nicht geschrieben, dass ich es an einen einzelnen Client „bonden“ will. Es wird entsprechend an einen Switch kommen, der Bonding unterstützt.

Wenn Du ZFS einsetzen willst, was ich aufgrund "TrueNas" vermute: Dimensioniere den HDD-Pool gleich von Anfang an, dass er inkl. Snapshots ne Weile reicht. 6 HDD als Raidz2 z.B. ist durchaus ne gute Idee.
Einzelne HDDs hinzufügen zu einem Raidz ZFS-Vdev ist bislang nicht aber wirklich unterstützt bzw. erst angekündigt => dringend vermeiden wenn der Bedarf absehbar ist.

Danke für den Hinweis für das Hinzufügen für Speicher unter ZFS.

Beispiel für MB+CPU (Luxus-Klasse):
Die von AMD neu vorgestellten AMD Epyc 8004 CPU's (Codename "Sienna", Sockel SP6) sind leider noch nicht im Einzelhandel verfügbar, deren 8 und 16 Kerne Epyc's mit ihren 70-125W (unterste cTDP) und 96 PCIe5-Lanes wären sicherlich ein schöner, kleiner LUXXus für den Bau von Fileserver mit Zusatzfunktionen (VMs, etc).
Die momentan erhältliche, größere Variante davon wäre ein Epyc Sockel SP3 (älter) oder SP5 (neu).

Wie sieht es da in Hinblick auf den Stromverbrauch aus im Vergleich SP5 und SP6?

——
Vielen Dank auf jeden Fall schon mal bis hierhin für alle Hinweise und Empfehlungen. Natürlich freue ich mich über weitere Hilfe.
 
Ok, kein Bonding auf einzelnen Client klingt schonmal gut.
Geht mich am Ende selbstverständlich nichts an, daher kann ich nur empfehlen Dinge so einfach wie möglich zu realisieren. Inbesondere wenn es geschäftlich genutzt wrid und Ausfallzeiten so gering wie möglich sein müssen. Ausfallzeit = Geld. Daher die Empfehlung: nimm 10G (oder mehr bei Bedarf) zum Switch und von dort auf die Clients und keine Bonding-Konfig. Das vereinfacht Verkabelung und Konfiguration.

Die Aussage/Einstellung bzgl. Budget finde ich gut und pragmatisch, im Prinzip ähnlich bei mir. Wir haben da deswegen nachgefragt, weil hier im Forum gerne mal Wünsche und Preisvorstellungen gelistet werden, die fern von Realisierbarkeit sind.

Das X570D4U-2L2T kann ich wie gesagt (in der Intel X550-T2 Variante) empfehlen, wenn AM4 eine Option darstellt; mit der Broadcom-Version hab ich keine Erfahrung. Leider ist es deutlich im Preis gestiegen.
Meine Konfig damit siehst Du in der Signatur. Speicher kannst Du da bis 128GB ECC DDR4 3200 als Udimms verbauen; wichtig: müssen 1,2V Module sein, das Board kann die Spannung für Dram (z.B. auf 1,35V) >nicht< anheben. PBO, Curve-Optimizer und PBO-Override funktionieren auf dem Board, Du kannst Die CPU also durchaus bisserle "treten" (hab meinen 5950X da auf 200W PBO sowie +200 Mhz Override eingestellt), Du kannst aber auch nach oben limitieren.
Das 2L2T hat zwei 10er Links und zwei 1Gbit Links, Du kannst damit also Bonding, Priorisierung und/oder Failover konfigurieren.

Beim NT; Denke bei der Dimensionierung dran, dass die HDDs beim Anlaufen natürlich deutlich mehr Power ziehen, 25-30W per Stück. Bei mit ist ein Corsair RM550x (2021) verbaut, das ist sehr sehr effizient im unteren Lastbereich und hat da einen Passivbetrieb. Pure Power 400W wurde ja auch schon genannt, bei mir auch in Betrieb.


Ich möchte aber nochmal den Punkt "geschäftliche Nutzung" aufgreifen. Ist da Selbstbau, auch wenn ich verstehe wieviel Spass und Interesse man da dran haben kann , wirklich zielführend? Würde es da nicht mehr Sinn machen, auf Fertigserver mit schnellem Support/Ersatz zu setzen? Einfach um Ausfallzeiten für den Geschäftsbetrieb geringstmöglich zu halten.
 
Zuletzt bearbeitet:
Ok, kein Bonding auf einzelnen Client klingt schonmal gut.
Geht mich am Ende selbstverständlich nichts an, daher kann ich nur empfehlen Dinge so einfach wie möglich zu realisieren. Inbesondere wenn es geschäftlich genutzt wrid und Ausfallzeiten so gering wie möglich sein müssen. Ausfallzeit = Geld. Daher die Empfehlung: nimm 10G (oder mehr bei Bedarf) zum Switch und von dort auf die Clients und keine Bonding-Konfig. Das vereinfacht Verkabelung und Konfiguration.

Da bin ich grundsätzlich bei dir. Hier noch ein bisschen Hintergrund:
Ich will auch deswegen auf TrueNAS wechseln, da ich dann (wenn alles wie erwartet mit TrueNAS funktioniert) Kunden von mir auch von Synology zu TrueNAS holen möchte. Da würde dann aber "out of the box" Hardware zum Einsatz kommen. Bei den Kunden lässt sich aber nicht mal eben ein 10 G Netzwerk umsetzen, daher will ich die Möglichkeit für Bonding testen.

Die Aussage/Einstellung bzgl. Budget finde ich gut und pragmatisch, im Prinzip ähnlich bei mir. Wir haben da deswegen nachgefragt, weil hier im Forum gerne mal Wünsche und Preisvorstellungen gelistet werden, die fern von Realisierbarkeit sind.

Genauso habe ich das Nachfragen auch verstanden.

Das X570D4U-2L2T kann ich wie gesagt (in der Intel X550-T2 Variante) empfehlen, wenn AM4 eine Option darstellt; mit der Broadcom-Version hab ich keine Erfahrung. Leider ist es deutlich im Preis gestiegen.
Meine Konfig damit siehst Du in der Signatur. Speicher kannst Du da bis 128GB ECC DDR4 3200 als Udimms verbauen; wichtig: müssen 1,2V Module sein, das Board kann die Spannung für Dram (z.B. auf 1,35V) >nicht< anheben. PBO, Curve-Optimizer und PBO-Override funktionieren auf dem Board, Du kannst Die CPU also durchaus bisserle "treten" (hab meinen 5950X da auf 200W PBO sowie +200 Mhz Override eingestellt), Du kannst aber auch nach oben limitieren.
Das 2L2T hat zwei 10er Links und zwei 1Gbit Links, Du kannst damit also Bonding, Priorisierung und/oder Failover konfigurieren.

Der Wunsch für AMD ist ein persönliches Ding. Intel fällt da für mich raus.

Beim NT; Denke bei der Dimensionierung dran, dass die HDDs beim Anlaufen natürlich deutlich mehr Power ziehen, 25-30W per Stück. Bei mit ist ein Corsair RM550x (2021) verbaut, das ist sehr sehr effizient im unteren Lastbereich und hat da einen Passivbetrieb. Pure Power 400W wurde ja auch schon genannt, bei mir auch in Betrieb.

Das mit dem Strom beim Anlaufen hatte ich auf dem Schirm, aber natürlich danke, dass du es erwähnst. Kannst ja nicht wissen, dass ich den Punkt "schon aufm Zettel" hatte, zu mal ich ja schrieb "rookie".

Ich möchte aber nochmal den Punkt "geschäftliche Nutzung" aufgreifen. Ist da Selbstbau, auch wenn ich verstehe wieviel Spass und Interesse man da dran haben kann , wirklich zielführend? Würde es da nicht mehr Sinn machen, auf Fertigserver mit schnellem Support/Ersatz zu setzen? Einfach um Ausfallzeiten für den Geschäftsbetrieb geringstmöglich zu halten.

Die Fertigserver sind in meiner Recherche bei vergleichbarer Performance deutlich teurer. Ich will da einfach keinen Hersteller Geld in Rachen werfen. Zumal man für einen solchen zeitkritischen Support dann auch ein Arm und ein Bein bezahlt. Wahrscheinlich wäre ich da sogar schneller, wenn ich das defekte Hardwareteil dann eben selbst bestelle und dann auswechsle.

Ausfallzeiten sind kein Problem, weil ich eine Fallback-Lösung habe, mit der ich dann für den Zeit einen Ausfalls weiterarbeiten kann. Ich habe auch keinerlei "derartig kritischen" Sachen auf der NAS, dass es mich beim Arbeiten wirklich einschränken würde.
 
die 2 Sätze :

"So gesehen habe ich keinen Budgetrahmen. Will heißen, dass ich nicht „auf den EUR schauen muss“. Natürlich soll es eine vernünftige Relation von Kosten zu Nutzen sein.

Ich werde es geschäftlich nutzen, also ist Zuverlässigkeit schon ein Faktor."

legen nahe dir einen Dienstleister der dir GARANTIERT das das System der DSGVO und den Anforderungen an Speichern entspricht. (das würde Verschlüsselung, trennung von Hashes, salts und Daten, sowie Zugriffsbeschränkungen bedeuten)

sry, ist nervig, aber Gewerblich muss man klar von Privat trennen (zum Schutz der Kunden und Schutz des Unternehmens)

beispiel : würdest du meine Geschäftsmail und evtl sogar wichtigere Daten leaken kannste dich mal auch ne Klage über ne runde Million einstellen (denn alle diese müßten geändert werden)
 
Zuletzt bearbeitet:
legen nahe dir einen Dienstleister der dir GARANTIERT das das System der DSGVO und den Anforderungen an Speichern entspricht. (das würde Verschlüsselung, trennung von Hashes, salts und Daten, sowie Zugriffsbeschränkungen bedeuten)

sry, ist nervig, aber Gewerblich muss man klar von Privat trennen (zum Schutz der Kunden und Schutz des Unternehmens)

beispiel : würdest du meine Geschäftsmail und evtl sogar wichtigere Daten leaken kannste dich mal auch ne Klage über ne runde Million einstellen (denn alle diese müßten geändert werden)

1. Sehe ich nicht, wo ich in meinen Beiträgen nach einer rechtlichen Beratung hinsichtlich DSGVO-Themen gefragt habe
2. Gewerblicher Nutzen heißt nicht zwangsläufig, dass Personenbezogene Daten erhoben und verarbeitet werden — Fehlannahme deinerseits
3. falls ich „deine Daten leaken“ würde, legt die Datenschutzbehörde die Höhe des Bußgelds fest und nicht du. Von daher ist deine „über ne runde Million“ völliger BS und nur der billige Versuch, deiner nicht fundierten Argumentation Gewicht zu verleihen
4. dein Beitrag ist so exemplarisch deutsch wie er nur sein kann. Zum eigentlichen Thema nichts beitragen, aber vermeintlich schön ordentlich „gescheithanseln“

Ich verzichte gerne auf weitere Beiträge von dir zu meinem Thema.
 
Zuletzt bearbeitet:
1. Sehe ich nicht, wo ich meinen Beiträgen nach einer rechtlichen Beratung hinsichtlich DSGVO-Themen gefragt habe
2. Gewerblicher Nutzen heißt nicht zwangsläufig, dass Personenbezogene Daten erhoben und verarbeitet werden — Fehlannahme deinerseits
3. falls ich „deine Daten leaken“ würde, legt die Datenschutzbehörde die Höhe des Bußgelds fest und nicht du. Von daher ist deine „über ne runde Million“ völliger BS und nur der billige Versuch, deiner nicht fundierten Argumentation Gewicht zu verleihen
4. dein Beitrag ist so exemplarisch deutsch wie er nur sein kann. Zum eigentlichen Thema nichts beitragen, aber vermeintlich schön ordentlich „gescheithanseln“

Ich verzichte gerne auf weitere Beiträge von dir zu meinem Thema.
blocked
 
>Wie sieht es da in Hinblick auf den Stromverbrauch aus im Vergleich SP5 und SP6?
SP6 wurde erst am 18.09.2023 vorgestellt (siehe z.B. Heise Artikel), daher leider noch zu wenig Daten verfügbar. Da SP6 Epyc's aber nicht so hoch takten und auch kleinere L3 Cache (im Vergleich zu SP5 Epyc's) haben, sollte Stromverbrauch SP6 technisch unterhalb SP5 liegen. Die Differenz-Unterschiede werden hoffentlich bald die ersten Tests/Benchmarks zeigen.

Aufgrund geschäftlicher Nutzung durch @daveinitiv folgendes nicht-finales Gedankenkonzept für das NAS:
  • Gehäuse "Define 7" (durch @daveinitiv vorgegeben)
  • Server-MB (haben alles onboard was Du benötigst)
    z.B.: X570D4U-2L2T/BCM oder X570D4U-2L2T
  • 8-Kern CPU mit ECC-Unterstützung aus der ca. 65W TDP-Klasse
    z.B. Ryzen 5700X
  • 32 GB DDR4 ECC-RAM (Vorgabe @daveinitiv )
    mehr RAM ist für Dateisystem ZFS besser, meine bevorzugte Wahl wäre 64GB (2x 32 GB) gewesen (mehr Lese-Cache etc.)
    z.B. Kingston Server Premier DIMM 32GB, DDR4-3200, CL22-22-22, ECC (KSM32ED8/32HC)
  • CPU-Kühler (Passiv- oder Towerkühler, kein Top-Blow-Kühler), idealerweise um 90° gedreht einbaubar
    z.B.: Noctua NH-U9S chromax.black
  • kleine NVMe-SSD als Bootlaufwerk für TrueNAS
    z.B.: Samsung SSD 980 250GB, M.2 (MZ-V8V250BW)
    oder anderes Modell, evtl. mit Kühlkörper oder PLP (Power-loss protection) oder Mirror aus 2 SSD's
  • 6x 3,5" HDD (raidz2)
    HDD (Kapazität und Lautstärke) nach Benutzeranforderung
  • Anzahl Gehäuselüfter 140mm nach Bedarf (3 Stk. schon beim Define7 dabei ?)
  • Netzteil Corsair RMx Series 2021 550W (Lieferbarkeit ??)
    Leise mit <25dB, Gute Effizienzkurve (ca. 86,5-90,3%) im Lastbereich 10-100% Auslastung, vollmodular, Lautstärke+Wirkungsgrad mit Cybenetics Zertifikat, 7 SATA-Stromstecker
Der höhere Mainboard-Anschaffungspreis sollte sich hoffentlich in besseren und/oder schnelleren Support, qualitativ höherwertigeren Bauteilen und weniger Schnickschnack am MB als den Consumer-Boards niederschlagen.
Serverboards sind Luftströmungmäßig für eine bestimmte Richtung optimiert, idealerweise die CPU- sowie Gehäuselüfter ebenfalls danach ausrichten. Das Gehäuse "Define 7" lässt aufgrund seiner zahlreichen Montageplätze für 140mm Lüfter aber auch andere Lüftungskonzepte zu.
Für AMD CPU's der ~65W TDP Klasse lohnt sich extra Anschaffung von besserer Wärmeleitpaste für CPU-Kühlkörper kaum (weil Temp. Delta meist < 1°C Unterschied im Vergleich zur vorplatzierten Paste).
Festplatten fühlen sich bei 30-40°C am wohlsten, außerhalb diese Temperaturfensters ist statistisch die HDD-Lebensdauer vermindert, also HDD's nicht zu sehr kühlen.
Betriebssystem TrueNAS benötigt dz. < 16GB Speicherplatz, SSD-Geschwindigkeit PCIe 3.0x4 ist ausreichend schnell und produziert tendenziell weniger Wärme als PCIe 4.0x4 (Hoffnung das SSD langsamer altert dadurch, wahrscheinlich aber nicht so relevant).
Vom Netzteil "BeQuit PurePower 400W" habe ich aufgrund nicht auffindbarer Effizienzkurve (keine Angabe in Handbuch oder auf Herstellerwebseite gefunden), festverbundenen Kabeln, 80Plus-Zertifizierung (= generell fragwürdige Zertifizierung!) abgesehen. Fest verbundene Kabeln bei Netzteilen sind meinerseits kein großer Kritikpunkt, die nicht benötigten Kabeln nehmen halt immer Platz weg und behindern tendenziell die Luftströmung im Gehäuse mehr. Bei vollmodularen Netzteilen dagegen werden nur benötigte Kabeln gesteckt, sieht im Gehäuseinneren dadurch aufgeräumter aus.
 
Zuletzt bearbeitet:

Hätte ich irgendeinen wirklichen Vorteil, wenn ich ein entsprechendes MB für AMD Epyc und entsprechend einen AMD Epyc SP5 nutzen würde?


Überhaupt kein Problem auf 64 GB RAM hochzugehen von meiner Seite.

  • CPU-Kühler (Passiv- oder Towerkühler, kein Top-Blow-Kühler), idealerweise um 90° gedreht einbaubar
    z.B.: Noctua NH-U9S chromax.black

Da muss ich dann nur schauen, dass ich den passend einbaue.


Würde da auf power-loss-protection gehen. Better save than sorry.

  • Anzahl Gehäuselüfter 140mm nach Bedarf (3 Stk. schon beim Define7 dabei ?)

Ja, sind schon 3 Lüfter verbaut.

  • Netzteil Corsair RMx Series 2021 550W (Lieferbarkeit ??)
    Leise mit <25dB, Gute Effizienzkurve (ca. 86,5-90,3%) im Lastbereich 10-100% Auslastung, vollmodular, Lautstärke+Wirkungsgrad mit Cybenetics Zertifikat, 7 SATA-Stromstecker

Verstanden.

Der höhere Mainboard-Anschaffungspreis sollte sich hoffentlich in besseren und/oder schnelleren Support, qualitativ höherwertigeren Bauteilen und weniger Schnickschnack am MB als den Consumer-Boards niederschlagen.
Serverboards sind Luftströmungmäßig für eine bestimmte Richtung optimiert, idealerweise die CPU- sowie Gehäuselüfter ebenfalls danach ausrichten. Das Gehäuse "Define 7" lässt aufgrund seiner zahlreichen Montageplätze für 140mm Lüfter aber auch andere Lüftungskonzepte zu.
Für AMD CPU's der ~65W TDP Klasse lohnt sich extra Anschaffung von besserer Wärmeleitpaste für CPU-Kühlkörper kaum (weil Temp. Delta meist < 1°C Unterschied im Vergleich zur vorplatzierten Paste).
Festplatten fühlen sich bei 30-40°C am wohlsten, außerhalb diese Temperaturfensters ist statistisch die HDD-Lebensdauer vermindert, also HDD's nicht zu sehr kühlen.
Betriebssystem TrueNAS benötigt dz. < 16GB Speicherplatz, SSD-Geschwindigkeit PCIe 3.0x4 ist ausreichend schnell und produziert tendenziell weniger Wärme als PCIe 4.0x4 (Hoffnung das SSD langsamer altert dadurch, wahrscheinlich aber nicht so relevant).

Danke für die Hintergrund-Infos.
 
Hätte ich irgendeinen wirklichen Vorteil, wenn ich ein entsprechendes MB für AMD Epyc und entsprechend einen AMD Epyc SP5 nutzen würde?
Ich würde sagen, Du hast mit SP5 Plattform keinen so wirklich relevant nutzbaren Vorteil für Deinen Anwendungsfall (kleiner Filer mit 6-8 HDD's ohne serverseitige Verschlüsselung, nur 1-5 gleichzeitigen Nutzern) dafür Nachteile bei Anschaffungskosten und laufenden Kosten.
Umstieg von HDD's auf SSD's würde hier mehr "Schwuppdizität" (aber weniger Speicherkapazität) für Benutzergruppe bringen.
 
Ich würde sagen, Du hast mit SP5 Plattform keinen so wirklich relevant nutzbaren Vorteil für Deinen Anwendungsfall (kleiner Filer mit 6-8 HDD's ohne serverseitige Verschlüsselung, nur 1-5 gleichzeitigen Nutzern) dafür Nachteile bei Anschaffungskosten und laufenden Kosten.
Umstieg von HDD's auf SSD's würde hier mehr "Schwuppdizität" (aber weniger Speicherkapazität) für Benutzergruppe bringen.

Ich werde einzelne Freigaben verschlüsseln, aber das mache ich über TrueNAS. Da wird die serverseitige Verschlüsselung ja kein Faktor sein, den ich beachten müssten. Ist meine Annahme das richtig?

Die Überlegung zu SSDs statt HDDs habe ich auch schon durchgespielt, aber für meine Belange reicht die Geschwindigkeit der HDDs aus.

Mit der Synology NAS und den HDDs, die ich jetzt habe, bin ich mit der Geschwindigkeit zufrieden. Und das TrueNAS System wird eher über dieser jetzigen Performance liegen.
 
Ich werde einzelne Freigaben verschlüsseln, aber das mache ich über TrueNAS. Da wird die serverseitige Verschlüsselung ja kein Faktor sein, den ich beachten müssten. Ist meine Annahme das richtig?
Ja, Deine Annahme ist richtig.
Passwortgeschützte Freigaben sind nur eine Form der Zugangskontrolle (Benutzer/Passwort) und keine Verschlüsselung (Rechenaufwand).

Nachtrag:
Bitte um Pardon @daveinitiv, war fälschlicherweise in der Annahme das Du entgegen Deiner Wortwahl Netzwerkfreigaben meintest.
Für Kryptographie serverseitig siehe natürlich das Posting von @gea unterhalb.
 
Zuletzt bearbeitet:
Es gibt unterschiedliche Ebenen der Verschlüssellung die alle (mehr oder weniger) Einfluß auf die Performance haben.

1. SMB Encryption
verschlüsselt die Übertragung vom Server zum Client, z.B. damit man in unsichen Netzen nicht abhören kann.
Daten selber sind unverschlüsselt. Aktiviert man global für den SMB Server.

2. ZFS Verschlüssellung.
Das kann man je ZFS Dateisystem auch mit unterschiedlichen Keys aktivieren. Mit Raw Replikation kann man Daten verschlüsselt sichern. Shares und Dateisysteme sind nur bei Solaris/ OmniOS mit dem kernelbasierten SMB Server identisch. Mit SAMBA ist das meist nicht der Fall.

ZFS Verschlüssellung mit sync write
sollte man vermeiden da die Performance bei kleinen Datenblöcken heftig einbricht, auch mit sehr schnellen CPUs.

3. Verschlüssellung unterhalb von ZFS.
Machte man bevor es ZFS Verschlüssellung gab. Ist etwas schneller aber erheblich unflexibler als ZFS Verschlüssellung.

Passwortgeschützte Freigaben und SAMBA Shares verschlüsseln ansonst nichts.
 
Hier zwei Fotos von dem Case (innen).
 

Anhänge

  • case1.jpeg
    case1.jpeg
    888,4 KB · Aufrufe: 98
  • case2.jpeg
    case2.jpeg
    900,2 KB · Aufrufe: 86
@Rarity

Ich würde mich jetzt an deine Empfehlungen halten und die entsprechende Hardware bestellen. Was brauche ich denn an Verkabelung? Also um die HDDs mit Strom und ans Motherboard anzuschließen etc.?
 
Um HDD'S anzuschließen ... im Prinzip nur SATA-Kabeln und evtl. Y-Stromstecker SATA (Anzahl hängt hierbei vom Kabelbaum des Netzteil-Models ab).

Das Netzteil Corsair RMx Series 2021 550W ist derzeit selbst beim Hersteller nicht auf Lager !!
Man (oder Du) wird hier womöglich eine Alternative dazu finden müssen.

SATA-Kabeln gäbe es z.B. hier auf Geizhals.de.
Bitte vorab Gedanken machen, wie Du die Kabeln im Gehäuse verlegen möchtest.
Länge der Kabeln, Farbe, Steckerwinkel, etc. könntest Du evtl. an Deine Bedürfnisse anpassen. (Define7 hat bis zu 14 verschiedene HDD-Platzierungen möglich??)
Laut Mainboard Handbuch (chapter 1.1 - package contents) ist bei den X570D4U-2L2T Modellen übrigends nur 1 Stk. SATA-Kabel mit 60cm Länge inkludiert.
(sehr allgemeiner Hinweis) Mit SATA-Kabeln mit geraden Steckern, mit Arretierung, Kabellängen bis max. 90cm, macht man meistens nicht allzu viel falsch.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh