[Kaufberatung] Nachfolger für N54L auf Basis AMD Epyc gesucht

Simsi1986

Enthusiast
Thread Starter
Mitglied seit
02.02.2003
Beiträge
1.259
Ort
Aschaffenburg
Servus,

nachdem mein Microserver N54L auf Basis von Windows Server 2019 bzw. die darauf betriebene VM mittlerweile aus dem letzten Loch pfeift und der Speicherplatz auch so langsam knapp wird, schaue ich hin und wieder nach Möglichkeiten für einen potentiellen Nachfolger. Nachdem weder HPE noch Dell kein Interesse haben, ein vergleichbares Konzept anzubieten bleibt mir am Ende nur der Eigenbau.

Der Nostalgie halber eine Übersicht der aktuellen Konfiguration:
Onboard LAN ist deaktiviert, dafür ist auf der Dual-GBit Netzwerkkarte Switch Embedded Teaming aktiviert.
Die SSD beheimatet das OS für Hyper-V und auf den beiden Raid1 Volumes liegt jeweils eine große VHDX bzw. auf einer auch die System-Platte der VM mit Server 2019 inkl. aktivierter Essentials Rolle.
Das 3rd Party Netzteil stammt noch aus einer Zeit als der Server auf dem Schreibtisch stand um die Lautstärke halbwegs erträglich zu gestalten - spielt für den neuen Server keine Rolle, da im Keller untergebracht.

Ursprünglich hatte ich die Idee, mir ein (bzw. das einzige verfügbare) X399 Mainboard von Asrock Rack zu holen und sowohl RAM als auch Threadripper CPU aus dem aktuellen Heimrechner zu recyclen. Da ich aber aber aus Kostengründen nicht gleichzeitig Heimserver und Heimrechner austauschen möchte konzentriere ich mich erstmal nur auf den Heimserver.

Grundsätzlich soll der neue Server auf Windows Server 2022 basieren und eine VM mit diesem Betriebssystem hosten. Dabei möchte ich Storage Spaces mit NVMEs als Cache nutzen und früher oder später auch die LAN-Anbindung auf 10 Gbit/s erweitern. Habe noch eine Radeon VII übrig, die ich für was auch immer mit verbauen möchte. Genauso wie Storage Spaces Direct eher zum Zweck des Heimlabors um mit den neuen Technologien von Microsoft "zu spielen" und Erfahrung für die Arbeit zu sammeln. Daher auch der massive Sprung in Bezug auf Speicherkapazität und Rechenleistung. Idealerweise baue ich das System und denke über Aufrüstung/Erneuerung nach wenn es nicht mehr anders geht ;)

Vermutlich reicht auch ein Acht-Kern Epyc mehr als aus - die Anforderung von mindestens 16-Kernen basiert mehr auf psychologischen Gründen, dass der Heimserver nicht weniger Kerne haben darf als der Heimrechner :d

Nachfolgend die aktuelle Aufstellung mit der Bitte um Anregungen und Anpassungsvorschlägen - die NVMEs sind quasi vorhanden und sollen bloß weiterverwendet werden, daher auch keine PCIE 4.0 wobei dies für den Cache auch kaum ins Gewicht fallen sollte. Das µATX Board ist dem Gehäuse geschuldet - das größere ATX Modell von Silverstone hat weniger Platz für GPU und CPU-Kühler. Bei letzterem bin ich nicht sicher, ob der größere NH-U14S passt, sonst würde dieser in der Auflistung auftauchen. Beim Mainboard liegt das Augenmerk auch auf 2x 10 Gbit/s Onboard LAN und bin äußerst unsicher bzgl. des Prozessors bzw. dessen Kompatibilität. In den Ankündigungen steht noch etwas von Naples-Unterstützung, in den Datenblättern jedoch nur noch Rome und Milan. Ryzen wäre praktisch auch denkbar, preislich sehe ich dabei aber kein Ersparnis, sollte es bei 16 Kernen bleiben.

1x ASRock Hyper Quad M.2 Card (90-MCA0G0-00UANZ)
2x Seagate Exos X - X18 16TB, 512e/4Kn, SAS 12Gb/s (ST16000NM004J)
1x Crucial P5 SSD 1TB, M.2 (CT1000P5SSD8)
4x Crucial P5 SSD 2TB, M.2 (CT2000P5SSD8)
1x AMD Epyc 7351P, 16C/32T, 2.40-2.90GHz, tray (PS735PBEVGPAF)
4x Samsung RDIMM 32GB, DDR4-3200, CL22-22-22, reg ECC (M393A4G43AB3-CWE)
1x Broadcom SAS 9300-8i Kit, PCIe 3.0 x8 (LSI00345)
1x XFX Radeon VII, 16GB HBM2, HDMI, 3x DP (RX-VEGMA3FD6)
1x ASRock Rack ROMED6U-2L2T
1x SilverStone Air Penetrator 120i PRO, 120mm (SST-AP120i-PRO)
1x Noctua NH-U12S TR4-SP3
1x SilverStone Case Storage CS330 schwarz (SST-CS330B)
1x Corsair HX Series HX1000 80 PLUS Platinum 1000W ATX 2.4 (CP-9020139)

Vorab vielen Dank für konstruktive Beiträge.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die CPU wird auf dem Board nicht laufen, brauchst nen 7302. (siehe CPU Liste)

Wozu SAS? Raid? Das MB hat SATA bis der Arzt kommt.
10GBE kannst du auch für schmales Geld nachrüsten, mit SFP+ 3x.
Ein größeres MB hätte genug Slots, dass muss nicht so nen kleines MB sein.

Ebenfalls kann ma Hotswap Bays auch via 5,25" nachrüsten, wenn es nix passendes inkl. gibt.
Das CS330 ist auch nur nen
TJ08
+
Ist auch 10EUR günstiger btw.
Was sind denn die Anforderungen an das Case? Grundsätzlich würde schon nen 50EUR fullATX Case reichen.

Ansonsten, SSD ohne PLP, kein Spaß.
Die GPU würde ich weglassen, wenn du die nicht brauchst. Es sei denn, du willst das Ding als Heizung benutzen, dann soviel Abwärme wir möglich reinbauen, gerade im Winter.
Will sagen, die zieht auch Strom, auch wenn sie nichts macht.
10W 24/7 sind 30EUR im Jahr. Die zieht aber mehr als 10W. Die zieht dir also 1x Essen gehen im Jahr vom Konto.
 
Zuletzt bearbeitet:
Das board hatte ich auch in Betracht gezogen, allerdings für ne Workstation. Für matx hat es ne super Ausstattung bzw. In dem segment sowieso einmalig
Weil die alten ***1 cpus nicht laufen, die es bei ebay bezahlbar gibt.
Wird wohl eher eine ryzen 7 zen3
Ist ja vom Stromverbrauch auch besser.

Vermutlich ist ein atx board für dich das kleinere übel, als sich wg. Matx so festlegen zu müssen.

Wenn du den großen älteren Bruder http://geizhals.at/1941063

ASRock Mainboard EPYCD8-2T​

nicht nimmst, kannst du günstig mit nem 7001 starten und später auf den 2er wechseln, wenn die 3er da sind.
Die 24 kerne bekommt man aktuell sehr günstig bei ebay.

Wieviel hdds willst du noch nachrüsten, dass du den extra Controller und das 1000W NT nehmen möchtest?

Für 8 hdd würde ein silvestone case reichen http://geizhals.at/2181733
Die gaben aber auch rahmen für 5.25" zum nachrüsten.
 
Zuletzt bearbeitet:
Wenn du noch 2-3 Monate warten kannst würde ich dir meinen Epyc samt Mainboard und Kühler verkaufen ^^ Beim KNPA-U16 laufen auch Rome Epycs, die ES Versionen kann man sogar übertakten.
 
@underclocker2k4
Danke, das Panel von Silverstone kannte ich noch nicht - könnte mir die Gehäusewahl erleichtern. Derzeit lande ich bei zwei Gehäusen vom gleichen Hersteller. Paradoxerweise hat das kleinere mehr Platz für GPU und CPU-Kühler.

Dass in der offiziellen CPU-Liste Naples nicht aufgeführt wird weiß ich - jedoch war zur Ankündigung noch von einer Kompatibilität die Rede und technisch macht es eigentlich kein Sinn, dass die erste Generation Epyc nicht unterstützt wird. Rome wäre mir auch lieber, jedoch sind die Preise derzeit eher bescheiden.

SAS weil doppelt so schnell und neuer. Wegen der entsprechenden Anschlüsse auf dem Board habe ich aber auch schon wieder nachgedacht, darauf zu verzichten, da ich guter Dinge bin, dass mit dem NVME Cache ohnehin genug Durchsatz möglich ist. Typisches RAID habe ich nicht vorher, sondern Microsoft Storage Spaces. Wäre dann auch einfach zu erweitern - daher auch der Controller mit Option später noch weitere HDDs einzusetzen. 18 TB Kapazität wäre zunächst ein ordentlicher Sprung für mich (von derzeit ca. 8 TB).

10 GBit/s sollte wenn via RJ45 erfolgen - auf Grund der Verkabelung im Haus und der nötigen Kaskadierung zumindest zwischen Rechner und Server.

Ans Gehäuse habe ich eigentlich außer entsprechend Platz für die gewünschten Komponenten nebst externer HDD-Slots keine. Nehme ich den jetzigen Server als Maßstab könnte ich wohl auch auf Hot-Swap verzichten, da ich die aktuellen Platten nach zehn Jahren noch nicht tauschen musste. Wüsste ich, dass ich auf Dauer die HDDs nicht verdoppele würde mir ein Define 7 Compact vermutlich reichen.

Die NVME sind wie gesagt praktisch schon da - Stromausfall ist weniger ein Thema und PLP würde die Auswahl ohnehin sehr einschränken. Dienen aber wie schon beschrieben bloß als Cache. Zur GPU sei gesagt, dass ich sie eigentlich nur dem Recycling wegen verbauen möchte - bisher findet sich niemand der daran interessiert ist und zum Rumliegen ist sie dann auch zu schade.

@littledevil
Die Frage ist halt, ob die alten Epycs wirklich nicht laufen oder bloß nicht in der Kompatibilitätsliste stehen. An Ryzen hatte ich auch schon gedacht, nur wenn ich min. 16 Kerne anpeile gibt es hier kaum Sparpotential, höchstens wenn ich hier der Vorgänger-Generation den Vorzug gebe.

Das EPYCD8-2T hatte ich auch auf dem Schirm, wegen ATX aber erstmal nicht weiter berücksichtigt. Hier ist die Gehäuse-Auswahl derzeit eher limitierend.

Realistisch wären im zweiten Schritt auf vier HDDs zu gehen - dass der Controller auch acht Stück unterbringt ist der Verfügbarkeit und dem Preis geschuldet. Extra Controller wegen SAS und das Netzteil weil das Board speziell Verbindung braucht und dazu mit der genannten Auflistung bereits 1000W erforderlich sind, sollte mal alles auf Volllast laufen (was wohl eher selten der Fall sein wird...). Das genannte Gehäuse hatte ich zunächst im Auge, wegen der GPU und CPU-Kompatibilität aber verworfen.

@sch4kal
Danke, so wie ich mich kenne zieht sich der Austausch des Servers sicher noch, komme daher gerne nochmal darauf zurück.
Bis dahin kann ich dann auch die Komponenten soweit überdenken, dass ich ggf. auch Platz für das KNPA-U16 finde ;)
 
@underclocker2k4
SAS weil doppelt so schnell und neuer.
Die SAS Schnittstelle kann schneller, wenn du auf SAS 12 G setzt. SAS 6G ist bietet genau die gleiche Schnittstellengeschwindigkeit wie SATA3 nämlich 600 MByte/s.
Für drehenden Rost würde SATA2 (3G) immer noch vollkommen ausreichen, da diese allerhöchstens auf den äusseren Tracks mal die 250 MByte/s knacken.

SAS 12G wäre also nur für SSDs überhaupt überlegenswert - und selbst da bietet PCIe Gen3/4 X4/NVME nochmals deutlich mehr.
(Genau genommen bietet SAS noch ein paar Features die SATA nicht hat, diese sind aber im Homebereich i.d.R. komplett irrelevant.)
 
@Digi-Quick
Danke für den Denkanstoß - heißt also bei den X18 bringt SAS12 nichts, da sie unter SATA3 auch nur knapp 300 MB/s (siehe Seagate Exos X18 im Test: 18 TB ungezügelte Enterprise-Power erreichen, richtig?

Dann kann ich mir dann doch, wie vorher schon angedeutet, den SAS Controller und den Aufpreis für die SAS-Platten sparen und am Ende die SATA Variante direkt mit dem Mainboard verbinden. Oder spricht am Ende noch etwas für SAS HDDs?
 
@Digi-Quick
Super, danke für den Lesestoff.

Habe bereits eine zweite Liste erstellt und immerhin sind es in Summe knapp 400 EUR Ersparnis trotz 2 TB mehr Kapazität (mit SATA-Schnittstelle kosten 18 TB tatsächlich weniger als 16 TB).
 
Die Bios-Tabellen für die CPU-Unterstützung sind sehr umfangreich. In der Regel passen max zwei Generationen rein, daher ist "nur 2.+3. Gen Zen" ernst zu nehmen. Ich würde aber tatsächlich eher einen 2nd Gen Zen nehmen mit dem Rome-Board.
Edit: die letzte Ziffer der epyc-CPU-Bezeichnung steht für die Zen-Generation, falls das noch nicht bekannt sein sollte.
 
Die Wechselrahmen gibt es auch von anderen Herstellern, dass muss man nicht bei Silverstone kaufen.

Man kann auch 10GBE CU nachrüsten, das mit SFP war der Hinweis, da das nochmal günstiger ist. Was bedeutet, dass es auch "günstig" mit CU geht.

Das mit den HDDs habt ihr ja schon durch. Wir werden sehen, ob HDDs überhaupt jemals SATA3 ausgelastet bekommen oder vorher schon komplett beerdigt werden.

Wie gesagt, denk nochmal über die GPU nach, im Idealfall kannst du das auch messen.
Ich könnte auch 100 Karten in die Server reinbauen, weil sie da sind und der Platz auch da wäre. Aber wozu? Damit sie laufen? Damit sie Strom verbrauchen. Mit geht es insbesondere um letzteres. Am Ende investierst du über die nächsten Jahre ein mehrfaches von dem, was die GPU überhaupt wert ist ohne davon einen Nutzen zu haben.

Auch beim NT nochmal nachdenken. Die CPU braucht max. 300W, wenn du die großen nimmst. Ne HDD max 10W. NVMe SSDs auch. Sprich bei 10 HDDs/SSDs bist du bei 400W unter Last. Ist, ohne GPU, noch viel viel Platz bis 1kW. Auch kleinere NTs haben 2x EPS12, zur Not gibt es bei modularen NTs die oft die Möglichkeit PCIe-Power gegen EPS12 zu tauschen, braucht man "nur" ein weiteres EPS12 Kabel.
 
Nur als Info.

Dir ist aber bewusst, dass das neue System mindestens 100w im Idle verbrauch?

Also mindestens das doppelte zum N54L

Ohne Grafikkarte könnte eine sparsamere Version gebaut werden.

1200 - AM4

Natürlich nur wenn die PCIe Lanes ausreichen.

Ein 5800x würde auch schon 3-400% mehr Leistung haben und 128GB DDR4 ECC Udimm sind auch möglich.
 
Realistisch wären im zweiten Schritt auf vier HDDs zu gehen - dass der Controller auch acht Stück unterbringt ist der Verfügbarkeit und dem Preis geschuldet. Extra Controller wegen SAS und das Netzteil weil das Board speziell Verbindung braucht und dazu mit der genannten Auflistung bereits 1000W erforderlich sind, sollte mal alles auf Volllast laufen (was wohl eher selten der Fall sein wird...). Das genannte Gehäuse hatte ich zunächst im Auge, wegen der GPU und CPU-Kompatibilität aber verworfen.
Wie meinst du das mit der CpU Kompatibilität bei einem Case??


Wenn du das unnötige aussortiert. Kommst du auf keine 500w Vollast.

Worst Case bei 8 HDD wäre hochfahren aller Platten gleichzeitig, bei gleichzeitiger Vollast aller Kerne und ssds 700w, aber das ist nur ganz kurz und die besseren Netzteile haben dafür noch headroom zur nominalen Wattage.

Ein https://geizhals.de/seasonic-prime-...x-750-a2123781.html?hloc=at&hloc=de&v=e#specs reicht auf jeden Fall, ist Effizienter und hat 12 jahre Garantie.

Ein bezahlbaren ryzen Zen 3 hat dann vielleicht "nur" 12 Kerne, aber in Summe leisten die dann min. soviel wie die 24 vom alten epyc. Musst ja auch erstmal die Kerne auslasten. Weniger schnellere Kerne bringen da oft mehr.
Je nach Anwendung kann der 5900x sogar Faktor 2-3 schneller sein.
Mit nem sparsamen Board und zen3 schaffst du fast Vollast CPU auf den idle Wert von dem epyc Trumm zu kommen.

Mit diesem x570 schaffst du das nicht, aber das hat ne echt gute austattung mit 2x10G und 2x1G + IPM

Stromverbrauch sogar um luxx getestet:


 
Zuletzt bearbeitet:
@danielmayer
Die offizielle CPU-Kompatibilität ist sehr schade, da die 16-Core Naples bei weitem günstiger zu haben sind - dem Gegenüber steht natürlich auch ein entsprechender Leistungsunterschied. Wobei das Preis-Dilemma eher aus der Verfügbarkeit rührt. Um auf Nummer sicher zu gehen habe ich die CPU entsprechend angepasst, den Kosten geschuldet dann als 8-Core Variante.

@underclocker2k4
Zu den Wechselrahmen kommt letztlich, dass es kaum Gehäuse gibt in die min. zwei solcher Rahmen eingebaut werden können.
Habe daher das Gehäuse erstmal unangetastet gelassen - da ich die GPU aber weglasse kommt ggf. doch die ATX-Variante in Frage.

Bei den wenigen Boards die in Frage kommen ist 10 GBit/s LAN am Ende doch nicht das Problem, je weniger Steckkarten, desto besser. Aktuell verbleibt nur noch der M.2 Adapter für die Cache NVME.

Von der GPU habe ich mich verabschiedet, wäre am Ende wirklich nur Spielerei Hyper-V RemoteFX zu testen.
Ebenso habe ich das Netzteil angepasst - ich bin davon ausgegangen, dass die max. Watt-Zahl nur dann eine Rolle spielt, wenn sie auch in Anspruch genommen wird.
Dafür aber der Schwellenwert zur Aktivierung der Lüfter entsprechend höher anliegt. Bzgl. EPS12 hatte ich einen Denkfehler, ATX12 tut es auch.

@Hipiman
Ja, auch wenn ich das gerne verdränge. Im Moment sind es ca. 65 Watt die ich via Fritz!DECT 200 auslese - davon muss man einen Teil davon für unmanaged 8-Port Switch abziehen.
Sehe ich als einziges Argument gegen Epyc (min. 120 Watt TDP) und für Ryzen (max. 105 Watt TDP bei max. acht Kernen).
Die Lanes dürften gerade so ausreichen, der RAM ist am Ende der Knackpunkt. Gibt kaum 3200er 32 GB ECC UDimm und die die es gibt kosten wesentlich mehr als ECC RDimm.

Letztlich spricht auf Basis der bisherigen Nutzung und mit Blick auf den Verbrauch nichts für eine Erhöhung der Kerne auf mehr als acht.

@littledevil
Sorry, meinte CPU-Kühler Kompatbilität.

Beim Netzteil liegt das Einsparpotential eher bei der Watt-Zahl als beim Preis. Deshalb auch erstmal das Passive Modell in 700 Watt von Seasonic.
Wie oben beschrieben bin ich bisher davon ausgegangen, dass die höhere Watt-Zahl sich nicht auf den Verbrauch auswirkt solange sie nicht genutzt wird.
Liege ich damit also falsch?

Das genannte Board ist mit 10G praktisch alternativlos - gibt noch ein weiteres mit X470, kostet aber mehr.

Aktueller Stand wäre dann wie folgt, sprich es gilt zwischen Ryzen und Epyc zu entscheiden. Dabei spielt der Kaufpreis am Ende keine Rolle - vielmehr gilt es den Verbrauch und die Gesamtleistung abzuwägen.

Heimserver Selfmade Epyc SATA für derzeit ca. 3500 EUR bestehend aus folgenden Komponenten:
1x ASRock Hyper Quad M.2 Card (90-MCA0G0-00UANZ)
2x Seagate Exos X - X18 18TB, 512e/4Kn, SATA 6Gb/s (ST18000NM000J)
1x Crucial P5 SSD 1TB, M.2 (CT1000P5SSD8)
4x Crucial P5 SSD 2TB, M.2 (CT2000P5SSD8)
1x AMD Epyc 7232P, 8C/16T, 3.10-3.20GHz, boxed ohne Kühler (100-100000081WOF)
2x Samsung RDIMM 32GB, DDR4-3200, CL22-22-22, reg ECC (M393A4G43AB3-CWE)
1x ASRock Rack ROMED6U-2L2T
1x SilverStone Air Penetrator 120i PRO, 120mm (SST-AP120i-PRO)
1x Noctua NH-U12S TR4-SP3
1x SilverStone Case Storage CS330 schwarz (SST-CS330B)
1x Seasonic Prime Fanless TX-700 700W ATX (PRIME-Fanless-TX-700)

Dem gegenüber steht Heimserver Selfmade Ryzen SATA für ca. 50 EUR Aufpreis und besteht aus den folgenden Komponenten:
1x ASRock Hyper Quad M.2 Card (90-MCA0G0-00UANZ)
2x Seagate Exos X - X18 18TB, 512e/4Kn, SATA 6Gb/s (ST18000NM000J)
1x Crucial P5 SSD 1TB, M.2 (CT1000P5SSD8)
4x Crucial P5 SSD 2TB, M.2 (CT2000P5SSD8)
1x AMD Ryzen 7 PRO 5750G, 8C/16T, 3.80-4.60GHz, tray (100-000000254/100-100000254MPK)
2x Micron DIMM 32GB, DDR4-3200, CL22-22-22, ECC (MTA18ASF4G72AZ-3G2B1)
1x ASRock Rack X570D4U-2L2T
1x SilverStone Air Penetrator 120i PRO, 120mm (SST-AP120i-PRO)
1x Noctua NH-U12S
1x SilverStone Case Storage CS330 schwarz (SST-CS330B)
1x Seasonic Prime Fanless TX-700 700W ATX (PRIME-Fanless-TX-700)

Die Ryzen CPU ließe sich noch anpassen - zur Reduzierung der TDP auf 35 Watt käme der AMD Ryzen 7 PRO 5750GE, 8C/16T, 3.20-4.60GHz, tray (100-000000257/100-100000257MPK) in Frage. Sollte es ein Boxed Kühler sein wäre noch der AMD Ryzen 7 5800X, 8C/16T, 3.80-4.70GHz, boxed ohne Kühler (100-100000063WOF). Leider unterstützt der AMD Ryzen 7 5700G, 8C/16T, 3.80-4.60GHz, boxed (100-100000263BOX) zumindest offiziell kein ECC RAM.

Das alternative Gehäuse von Silverstone unterstützt max. bloß 146 mm große Lüfter - heißt bei Noctua max. NH-U9(S). Dem gegenüber stehen mehr Hotswap-Anschlüsse, deren Notwendigkeit bei 18 TB HDDs eigentlich kein Thema sein sollten.
 
@underclocker2k4
Zu den Wechselrahmen kommt letztlich, dass es kaum Gehäuse gibt in die min. zwei solcher Rahmen eingebaut werden können.
Habe daher das Gehäuse erstmal unangetastet gelassen - da ich die GPU aber weglasse kommt ggf. doch die ATX-Variante in Frage.

Bei den wenigen Boards die in Frage kommen ist 10 GBit/s LAN am Ende doch nicht das Problem, je weniger Steckkarten, desto besser. Aktuell verbleibt nur noch der M.2 Adapter für die Cache NVME.
Das mit den Wechselrahmen verstehe ich jetzt nicht.
Du hast ein Case ausgewählt, wo ein 3-fach Rahmen eingebaut ist. Du hast also 3 Hotswap 3,5". Warum willst du jetzt >=2 solcher Rahmen verbauen? Da kommst du auf 6 oder mehr Slots.
Wo kommt, gegenüber der Verwendung des Silverstone, jetzt die deutlich geänderte Anforderung bei der Anzahl der Hotswap her? Und warum gilt diese nicht bei Silverstone?

Ich finde auf Geizhals über 300 Cases, wo man den selben Rahmen verbauen kann, der auch im Silverstone steckt.
Wieviele Cases brauchst du noch zur Auswahl?

@10GBE
Das Weglassen der Anforderung erhöht eben die Anzahl der Optionen. Weiterhin kann man bei einem Wechsel des MBs (upgrade oder replacement) die NIC auch mitnehmen. Bei entsprechend großer Anzahl an Slots ist das also auch kein Hemmschuh, außer man will 100x NVMe haben und jeder PCIe Slots Gold wert ist.
 
@underclocker2k4
Sorry, du hast natürlich recht. Wenn ich das aktuelle zur Debatte stehende µATX Gehäuse als Ausgangspunkt nehme reicht ein Wechselrahmen.
Ich bezog es mehr auf das ATX Gehäuse von Silverstone. Denn überhaupt sprechen wir aber von einer Erweiterung um zwei weitere HDDs á 18 TB auf insgesamt vier Stück - die Aufstockung auf bis zu acht HDDs ist eher auf dem Papier als in der Praxis relevant und am Ende keine Anforderung von mir.

Wenn ich mir die in Frage kommenden Mainboards anschaue, ist 10 GBe mittlerweile sowieso dabei.
Bei AM4 könnte ich es weglassen - hätte ansonsten aber keine Auswirkung auf die verbleibenden Optionen.
 
+
=5 HDDs
(aufpassen wegen der Einbautiefe., daher eher tiefere Cases nehmen, sonst musst du den Wechselrahmen mit dem Hammer reintreiben)

Ansonsten:
+
2x
= 6HDDs
Bist ja auch schon etwas älter: Die Nachfolger der alten Chieftecs sind noch gelistet, aber nicht beschaffbar. Die wären aber was.
Evtl. sogar die alten (901) gebaucht? hmm...

@10GBE
Wollte nur erwähnen, dass man das nicht als Primärfeature beachten sollte. Klar, wenns dabei ist, gut und schön, wird hoffentlich eh irgendwann Standard sein. Wenn nicht, aber auch egal...
 
Zuletzt bearbeitet:
Danke, werde ich nochmal soweit durchgehen und entsprechend für mich abwägen.
Die Preise für die Wechselrahmen sind im Vergleich zum Gehäuse doch relativ teuer.
Heißt ich muss eher abwägen, ob ich ggf. auch mit internen Einschüben leben kann.

Wichtig wäre mir bei einem Gehäuse tatsächlich auch, dass es nicht zu alt ist und auch etwas wertiger rüberkommt.

Bzgl. 10 Gbit gebe ich dir recht, für mich ist es daher ein glücklicher Umstand, dass es sich zumindest im Serverbereich fast schon als Standard durchgesetzt hat. Bei Desktop-Boards sieht es da schon anders aus, da hilft es als Primärfeatures höchstens die Auswahl möglichst gering zu halten ;)
 
@littledevil
Sorry, meinte CPU-Kühler Kompatbilität.

Beim Netzteil liegt das Einsparpotential eher bei der Watt-Zahl als beim Preis. Deshalb auch erstmal das Passive Modell in 700 Watt von Seasonic.
Wie oben beschrieben bin ich bisher davon ausgegangen, dass die höhere Watt-Zahl sich nicht auf den Verbrauch auswirkt solange sie nicht genutzt wird.
Liege ich damit also falsch?
Das mit dem CPU Kühler Verstehe ich trotzdem nicht. Beide boards haben ja entsprechenden Abstand durhc die >RAm-Module. Wo soll es da zu knapp für CPU Kühler werden?

Welche Netzteil sparsamer ist, hängt von vielen Faktoren ab. Da Du mit beiden Zusammenstellung nicht im Super-Niedrig-LAst-BEreich unterwegs bist,
kann man sich auf die 20% Grenze von 80plus beziehen. Beim Epyc ist da mit 700W entsprechend bei 140W die Titanium-Effizienz sicher.

Beim Ryzen würde ich da schon genauer schauen. Das PRIME-TX-750 wird sich vermutlich kaum PRIME-TX-650 unterscheiden. Bei 40W ist das richtig gut
Das Seasonic PRIME 750W Titanium erreicht hier bereits einen vergleichsweise hohen Wirkungsgrad von 85,8 %, den bislang noch kein Netzteil in unseren Tests erreichen konnte. Das Seasonic PRIME 750W Titanium liegt damit auch satte vier Prozentpunkte über dem Wert, des von uns getesteten Snow Silent 750W.
Bei zehn Prozent Last werden dann bereits 92 % erreicht, wieder ein absoluter Spitzenwert.
Brauchst Du soviele LAN Ports? denkbar wäre bei aktuellen Konzept bvei Ryzen ein deutlich günstigeres Board zu nehmen:
ASUS Pro B550M-C/CSM oder auch mit 6 SATA noch günstiger:
 
Zuletzt bearbeitet:
@littledevil
Das mit dem CPU-Kühler bezieht sich darauf, dass das aktuell gewählte Gehäuse max. 165 mm unterstützt - das ist exakt die Höhe des NH-D15 und des NH-U14S. Beim zunächst ins Auge gefasste Gehäuse SilverStone Case Storage CS380 V2 schwarz (SST-CS380B V2) werden max. 146 mm unterstützt - NH-U14S/A sind aber 158 mm hoch!

Wenn die finalen Komponenten feststehen werde ich entsprechend die Verbräuche summieren und dann final bzgl. des Netzteils entscheiden.

Mainboard benötigt IPMI zwecks Remote-Steuerung auf BIOS-Ebene. Ansonsten min. 2 Ports á 10 Gbit/s wg. Switch Embedded Teaming.
 
Ipmi schränkt die auswahl deutlich ein. Dann bleibts wohl beim asrock rack...

Bist du so auf diese kühler fixiert?
 
Ja, im Fall der Fälle komme ich per RDP nicht dran und dann wäre es gut vorher aus der Ferne (sei es von einem Stockwerk drüber oder außer Haus) zu checken was los ist anstatt nur den Strom kurz wegzunehmen. Verstehe aber was du meinst, die Option B550 fällt dann nämlich weg.

Bei den Kühlern bin ich seit Jahren verwöhnt und von Qualität und Leistung der Noctuas überzeugt - Be!Quiet stehe ich ebenfalls positiv gegenüber - den Dark Rock Advanced hatte ich früher im Intel-Heimrechner und aktuell greife ich auf Silent Wings 3 hin. Als drittes Unternehmen wäre noch Arctic. Aber Am Ende gibt es im Kopf schon eine gewisse Reihenfolge und da steht Noctua als erstes da.
 
Noctua hatte ich noch nicht. Da heit der geiz meist gesiegt.
Hatte viele scythe.
Bequit hab ich aktuell den shadow rock tf2. Ziemlucher trumm für das kleine gehäuse.
Für tower kühler ist in meinen immer kleiber werdenden gehäusen kaum noch platz.
Im htpc ist ein Alpenfön ben nevis. Hat grad so ohne laufwerkskäfig rein gepasst
 
So, nach diversen Überlegungen und Vergleichen bin ich mittlerweile endgültig weg von Epyc - und zwar wegen Verbrauch und Leistung.
Zum Verbrauch ist denke ich genug geschrieben worden - wenn ich dann abwäge, dass das System in den meisten Fällen im Idle unterwegs ist und der für mich preislich interessante Epyc dann noch auf Zen 2 basiert und im Vergleich zum Ryzen 7 wesentlich langsamer ist siegt am Ende die Vernunft.

Ebenso weg bin ich von dem Gedanken, die Festplatten per HotSwap zu installieren. Ganz einfach weil dies mit zu vielen Kompromissen verbunden und der Wechselrahmen von Silverstone wohl ab Werk einfach zu laut ist. Wenn ich dann bedenke, dass ich die letzten zehn Jahre keine HDD tauschen musste und ich zur Not auch den Server herunterfahren kann bin ich mit einem "normalen" Gehäuse besser versorgt.

Bei der Kühlung bin ich am Ende noch am grübeln - z.B. bequiet! statt Noctua (Dark Rock Pro 4 & Silent Wings 3) oder gleich eine 240er oder 280er AiO plus ein hinterer Lüfter. Immerhin kosten die drei Noctua Gehäuselüfter und der CPU-Lüfter zusammen min. 172,50 EUR - gleiche Kombi von bequiet kostet min. 115 EUR (als 240er AiO quasi genauso viel). Die Kombi von Arctic mit 240er AiO liegt am Ende sogar nur bei 73,50 - also gut 100 EUR hinter Noctua. Wenn ich das aber zu Ende "Spinne" kann ich Alternativ nochmal 10 EUR sparen in dem ich drei Gehäuselüfter und einen CPU-Kühler (Freezeer 50) von Arctic verbaue.

Heimserver Selfmade Ryzen SATA intern für derzeit ca. 3500 EUR bestehend aus folgenden Komponenten:
1x ASRock Hyper Quad M.2 Card (90-MCA0G0-00UANZ)
2x Seagate Exos X - X18 18TB, 512e/4Kn, SATA 6Gb/s (ST18000NM000J)
1x Crucial P5 SSD 1TB, M.2 (CT1000P5SSD8)
4x Crucial P5 SSD 2TB, M.2 (CT2000P5SSD8)
1x AMD Ryzen 7 PRO 5750G, 8C/16T, 3.80-4.60GHz, tray (100-000000254/100-100000254MPK)
2x Micron DIMM 32GB, DDR4-3200, CL22-22-22, ECC (MTA18ASF4G72AZ-3G2B1)
1x ASRock Rack X570D4U-2L2T
3x Noctua NF-A12x25 PWM, 120mm
1x Noctua NH-D15
1x Cooler Master Silencio S600, schallgedämmt (MCS-S600-KN5N-S00)
1x Seasonic Prime Fanless TX-700 700W ATX (PRIME-Fanless-TX-700)

Denke das dürfte passen, oder?
 
Warum der 5750G ? Der ist zwar sparsamer im Idle als die Reihe ohne GPU, aber damit verlierst Du PCIe 4.0 (auch beim Link zum Chipsatz !) .
Auf einem X570-Board, das für viel I/O ausgelegt ist, nicht unbedingt das, was Du willst, denn am Chipsatz hängen die 10G-Ports, die Sata, ein M.2-Slot und ein weiterer x1 Slot.
Ach ja, pack einen leisen 60er Propeller vor den Chipsatz, in Richtung M.2-Slots pustend. Die Temps dort werden es Dir danken.

Wenn das X570D4U-2L2T, dann ist ein 5600X oder 5800X passender. Die Grafik von der APU kannst eh kaum nutzen auf dem Board.
Das NT ist für das o.g. Setup viel zu groß. Da reicht ein BQ 400W Purepower Gold weit aus. Bei der geringen Last von der Kiste viel effizienter; ausserdem sparst Du jede Menge Money.

Kühler: go for Noctua oder als Budgetvariante den Thermalright Aro M14. Beide werden bei einer APU oder einem 5600X sehr langsam drehen; auch beim Boost. Kein Ärger mit potentiellen AIO-Pumpengeräuschen.

PS: Ich hab das Board ja mit 5600X und nem NH-D15 drauf.
 
Zuletzt bearbeitet:
Hauptsächlich wegen der TDP, aber auch der Plattform Ryzen Pro und dem Gesamtpaket.
Das letzteres leider durch den, für mich nicht nachvollziehbaren, Verlust von PCIe 4.0 leidet ist mir bereits aufgefallen.
Spielt das aber in meinem Fall eine Rolle?
Von der Adapter-Karte für die NVMe abgesehen habe ich keine Komponenten mit PCIe 4.0 vorgesehen. Die Anzahl der Lanes bleibt identisch, nur die Bandbreite theoretisch reduziert (sofern PCIe 4.0 Komponenten verbaut werden, die die Schnittstelle auch voll auslasten).

Wie beschrieben werden vier PCIe 3.0 x4 NVMe via Adapter am PCIe x16 betrieben, dazu gesellt sich eine PCIe 3.0 x4 NVMe am M.2 (welche kaum belastet wird, da darauf bloß das Host-OS betrieben wird) sowie zwei SATA HDDs. GPU spielt keine Rolle und das einzige, was neben SATA von den Onboard-Komponenten genutzt wird sind die beiden 10 GbE Ports und ein USB-Anschluss falls die Fernwartung mal fehlschlägt. Bisher bin ich davon ausgegangen, dass der Verlust von PCIe 4.0 daher keine Rolle spielt oder habe ich etwas übersehen?

5800X liegt preislich identisch - hat dann aber bereits 105 Watt TDP. Dann könnte ich auch wieder zurück zu meiner ursprünglichen Idee von 16 Kernen - wohlwissend, dass das ggü. der aktuellen Plattform in allen Belangen ein Quantensprung darstellt (2 Kerne ohne HT mit 25 Watt TDP).

Mit dem Netzteil hast du natürlich recht - die Gesamt-Wattzahl des Systems basierend auf der TDP unter Last liegt lt. Rechner bei 233 bzw. 271 Watt (5600X vs. 5800X). Bei mir muss es aber unbedingt Platinum Zertifizierung sein, aber immerhin kann ich je nach Verfügbarkeit zwischen Seasonic Prime Fanless PX-450 450W ATX (PRIME-Fanless-PX-450) und Seasonic Prime Fanless PX-500 500W ATX (PRIME-Fanless-PX-500) wählen. Liegen preislich gleichauf. Etwas günstiger wäre dann das semi-passive Seasonic Focus PX 550W ATX 2.4 (FOCUS-PX-550).

Die Pumpe ist bei den neuen Modellen von bequiet! und Arctic wohl nicht hörbar, hier macht mir eher die Langlebigkeit sorgen - der aktuelle Server läuft ca. 10 Jahre ohne besondere Wartung. Bei der AiO hätte ich da so meine Bedenken. Werde es mir überlegen (wie ich mich kenne bleibe ich am Ende wohl doch bei Noctua :d).

Denke so langsam nähere ich mich einem Ergebnis.
 
Die 4000er und 5000er APUs verzichten auf PCIe 4,0, weil das Abkömmlinge der Laptop-CPUs sind, die auf Stromsparen ausgelegt sind. Dementsprechend haben sie keinen IO-Die wie die "großen" CPUs.
PCIe 4.0 kostet halt Strom.

Mit Deinem Setup wirst noch keine Probleme haben, aber der Chipsatz ist halt beschränkt auf etwa 3,5GiB/s pro Richtung zwischen CPU und Chipsatz. Und da muss alles drüber, was am Chipsatz hängt.
Bei PCIe 4.0 haste da halt 7 GiB Bandbreiten. Bedenke, dass die beiden 10er-Ports schon bei vollem Lan-Durchsatz bis zu 2 GB/s pro Richtung auslasten.
Das ist dann letztlich der "Kuhhandel", für den man sich entscheiden muss: PCIe 3.0 und etwas sparsamer oder PCIe 4.0 und etwas mehr Idle-Leistungsaufnahme.

Die TDP als solches ist im Idle oder geringen Lastzustand ja kein Problem. Ein 5600X z.b. ist ja nur ~10% schwächer als ein 5750G. Ein 5800X ist natürlich bekannt als Hitzkopf, weswegen ich eine Entscheidung zwischen 5600X oder 5750G treffen würde. Den 5600X mit dem NH-D15 bei ~900rpm läuft mit PBO2 etwa bei 75 Grad maximaltemp bei Volllast.

Edit: Typos korrigiert.
 
Zuletzt bearbeitet:
Wenn du einen 5600x nimmst, solltest du das http://geizhals.at/2501743 in betracht ziehen. Sehr hohe Effizienz im Niedriglastbereich.
Wichtig 2021 version die 2018 wird auch noch verkauft .

Schau dir mal ein paar Testberichte an.
Mit dem setup wirst du ja i.d. im Bereich 50-100w sein. Netzteilpower braucht dann nur der anlaufstrom bei vollausbau hdd.

Z.b. https://www.tweakpc.de/hardware/tests/netzteile/corsair_rmx_2021_550_750_1000/s02.php

Tdp lässt sich ja i.d R. Um bios anpassen. Klar ust der pro durch das fehlende io sparsamer, aber in deinem setup geht's auch nicht um jedes watt...
 
Da du ja die Corezahl deutlich reduziert hast wär vllt. auch noch ein kleiner Xeon E-2300 interessant?
 
@Trambahner Danke, habe ich denke ich verstanden. Habe da die Plattform des X570 wohl etwas unterschätzt.
Muss mir dann nochmal überlegen, ob ich auf weitere zwei Kerne verzichte oder ggf. welche drauflege. Wie du schon schreibst ist der 5800X ein echter Hitzkopf und rein auf die Temperatur bezogen am Ende 5900X und 5950X sogar noch kühler als der 5600X - beim Verbrauch ist der Unterschied natürlich ein anderer, aber in meinen Augen spricht am Ende mehr für 59x0X als für den 5800X.
Ist dann in der Tat ein echter Kuhhandel, gemessen an der sich derzeitig abzeichnenden Auslastung reicht wohl PCIe 3.0, aber wenn der potentere Heimserver und in den Monaten danach auch noch 10 GBit/s kommt kann sich das auch noch ändern. Sollte es auf PCIe 4.0 hinauslaufen, werde ich vermutlich eher zwischen 5600X und 5900X als 5800X abwiegen.

@littledevil Danke für den Tipp - die Effizienz im Teillastbereich ergibt sich doch auch durch die Zertifizierung, zu dem von mir bisher favorisierten Seasonic gibt es nur einen Test und da ist der Teillastbereich wie ich das sehe nochmal besser. Ansonsten wie du sagst, komme ich wohl nicht drum her diverse Tests genauer anzuschauen.

TDP anpassen ist ein guter Punkt - damit könnte ich einen guten Spagat zwischen Verbrauch und Leistung hinbekommen. Eventuell kommt dann auch der 5800X wieder in Frage, kostet immerhin auch weniger als der 5900X, wobei beim Kaufpreis er 5600X ganz vorne liegt.

@supernode
Bin mit Xeon überhaupt nicht bewandert, wenn ich das richtig sehe kommt der E-2300 gerade erst auf den Markt und es gibt noch keine Boards verfügbar. Von Asrock Rack kommt dann auch nur eins in Frage.
Wollte eigentlich bei AMD bleiben, wenn aber am Ende etwas von Intel ggf. besser passt bin ich da auch flexibel. Zumindest in der Theorie scheint der Xeon E-2300 genau zu meinen Anforderungen passen, danke.
Bin dann auf Tests gespannt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh