[Kaufberatung] Bigtower Gehäuse für SP3 Server mit Backplane und Netzteil

AliManali

cpt sunday flyer
Thread Starter
Mitglied seit
07.03.2012
Beiträge
4.564
Ort
Ostschweiz
Hi

Mein Kumpel hat sich folgende Teile für einen SP3 Epyc Server geholt:


und 4 von den Sticks:


Dazu noch einen gebrauchten LSI 2008 und eine Quad NIC. Er will auch mal testen mit einer durchgereichten 1080 Ti, das Netzteil sollte aber auch für eine Ampere taugen. Macht bei so einem komplexen System ein Singlerail NT noch Sinn? Ich würde da auf Multirail und >= 850W Platinum tendieren. Bin mir da aber nicht sicher, habe gehört mit Ampere sei Singlerail besser.

Da drauf laufen soll ein AiO ESXi mit napp-it. Auf die PM883 soll per MiniSAS SATA Peitsche der ESXi und napp-it. Der LSI 2008 wird durchgereicht, da dran hängen dann die SM883 2TB und die WD Gold mal zum anfangen. Auf die Optane kommen Slog und L2Arc.

Das Ganze soll aber ausbaubar sein. Idealerweise würden da insgesamt 8x 2.5" oder 3.5" Platten rein gehen. Auf 5.25" können wir glaube ich verzichten.

Wir hatten selber noch nie ein Gehäuse mit Backplane im Einsatz, bräuchten von daher ein bisschen Input sowie konkrete Gehäuse, mit denen das möglich ist. Backplane ist jetzt nicht in Stein gemeisselt, aber die Platten sollen einfach bequem zugänglich und austauschbar sein. Einigermasen verfügbar soll das Ganze auch sein.

Budgetgrenze setzte ich jetzt mal keine.

Idealerweise in der Schweiz erhältlich. Wir wollen um die Mitte April mit dem Basteln anfangen.

Gruss und Danke
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Willst Du den thread-titel mal anpassen? Sieht so aus, als hätte da die Autokorrektur zugeschlagen: "Bigtower Gehäuse für SP3 Porn Server mit Backplane und Netzteil "
 
Stört er Dich? Kann ich machen ja. Wobei das war beabsichtigt, von demher. Das sagt man bei uns halt so, bei solch einer Hardware. Zumindest ich.
 
Wenn man von außen an die HDDs kommen möchte, wäre dies die Auswahlliste bei Geizhals und davon würde ich das SilverStone Case Storage CS380 V2 in Auge fassen, wenn es das in der Schweiz gibt. Das könnte ich mir auch für meinen nächsten Heimserver vorstellen, derzeit habe ich das DS380, aber die Laufwerksschächte der beiden sind identisch.

Klar sind die HDD Einschübe nicht so toll wie die z.B. in einem Supermicro 743TQ-1200B-SQ, welches übrigens ein 1200W Platinum Netzteil mitbringt, aber wie oft wechselt man die HDDs? Hot Swap ist ja eigentlich dazu da, dass man bei Servern eine defekte HDD tauschen kann, ohne den Rechner runterfahren und öffnen (ich weiß, ganz Mutige tauschen auch intern verbaute Platten bei laufendem Rechner) zu müssen, denn bei Servern sind Ausfallzeiten ja immer kritisch. Daheim ist es weit weniger schlimm den Rechner mal runterzufahren, da macht man es eher für den sauberen Aufbau und um eben das Gehäuse nicht öffnen und mit Kabel fummeln zu müssen, wenn man eine HDDs entfernt, zufügt oder tauscht.

Achte bei solche Profigehäusen wie denen von Supermicro darauf, was jeweils im Lieferumfang dabei ist. Die kommen z.B. mal mit und mal ohne Netzteil, manchmal muss man die Laufwerkskäfige extra kaufen, weil es eben Optionen für 2.5" und andere für 3.5" gibt oder es gibt noch alte I/O Panels nur mit USB2, aber man kann ein anderes mit USB3 kaufen und umrüsten.
 
Ne Hotswap und von aussen zugänglich ist nicht erforderlich. Ich habe halt zwei Consumer Bigtower hier, und das mit den Platten ist immer ein riesen Gebastel. Ich habe aus dem Grund schon bei einer 840 Pro den Stecker abgebrochen, weil das einfach schlecht gelöst ist bei meinem Tower (Corsair HAF-X oder so). Und die SSD war mal richtig teuer.

Backplane und sowas dacht ich halt, dass man es sauber verkabel kann. Wenn man von innen gut ran kommt, ist auch das nicht zwingend.
 
Hab meinen in einem Fractal Define XL. Schallgedämmt, nimmt auch E-ATX Boards auf (das SM Board das dein Kumpel gekauft hat ist afaik ne schlechte Wahl) und es passen 8 HDDs (entkoppelt) rein.
 
Ist kein SM Board. Und wieso eine schlechte Wahl? Mit der Board und Plattformwahl beschäftigen wir uns schon einige Zeit, dünkt mich das Beste von der Ausstattung her. Ob man wirklich 7x16 PCIe 4.0 braucht, sei mal dahin gestellt, schaden tut es sicher nicht.
 
Ist kein SM Board. Und wieso eine schlechte Wahl?
Hat nur 8 RAM-Bänke, kostet sau viel Geld, hat 3 miese Bewertungen bei Geizhals, etc. Asus KRPA-U16 ist das beste Boards fürs Geld bei SP3, außer man nutzt die ganzen PCIe-Lanes nur mit Steckkarten, dann gibt es bessere Boards.
 
Ja, er bestückt eh erst mal nur Quad, vom Speicher her passt das schon. Ich schau das ASUS Board mal an. Denke aber er wird bei dem ASRock Board bleiben. Wir haben uns schon im Oktober darauf festgelegt, damals das Beste was wir finden konnten. Und jetzt hat es endlich unser Lieferant mal eingepflegt. Bestellt ist es auch schon.

PCIe mässig wird schon einiges bestückt werden, das war eigentlich auch der Grund auf Epyc zu gehen. Zuerst hatten wir noch das ASRock Rack X470 auf dem Schirm. Er will aber lieber genug Ausbaukapazität haben. Verstehe ich auch so. Es gäbe auch noch ein günstigeres ASRock Rack Board für SP3 mit ein Paar PCIe 3.0, aber da würde ich auch noch die paar Fränkli drauf legen.
Beitrag automatisch zusammengeführt:

Edit: ne ich habe mir das ASUS Board mal angesehen, vergleich mal die Ausstattung. Hat 16 Speicher Steckplätze was wir nicht brauchen, sonst denke ich durch die Bank schlechter ausgestattet. Keine grossen M2, kein 10 Gbit/s Ethernet, PCIe mässig deutlich schlechter.

Ausserdem, obwohl ich selber ein ASUS Server Board habe, die empfehle ich nicht weiter. Um ASUS mach ich einen Bogen, wo es geht. Gibts wenigstens Cashback, und so?
 
Zuletzt bearbeitet:
Backplane und sowas dacht ich halt, dass man es sauber verkabel kann.
Genau deswegen mag ich das auch, man verkabelt alles einmal und hat dann kein Gefummel mit den Kabeln, wenn man mal eine Platte einsetzt oder entfernt.
Zuerst hatten wir noch das ASRock Rack X470 auf dem Schirm.
Da ihr mit VMs und dem Durchreichen von HW arbeiten wollt, würde ich vom X470D4U abstand nehmen, keine Ahnung ob das inzwischen behoben wurde, aber es gab da am Anfang einige Problme. X470 ist eben eine Desktopplattform und wird daher eben vom Desktop Team betreut.
Da liegt der Fokus auf Windows und selbst mit Linux gab es ja bei mehr als einer Zen Generation und auch TR3000 anfangs Probleme, mit ESXi dürften die sowas nie getestet haben. Bei Intel ist das anderes, da haben zumindest bisher die kleinen Xeon-E und die Mainstream (also S.115x) Desktop CPUs die gleichen Basis und dürften aus den gleichen Masken kommen. Aber AMD hat nur die großem 7000er EYPC als Serverplattform, während die kleinen EYPC mit den gleichen Dies wie Zen(+) als "AMD EPYC™ Embedded 3000 Serie" bezeichnet, also als Embedded und nicht als Serverplettform vermarktet werden.
 
Klar sind die HDD Einschübe nicht so toll wie die z.B. in einem Supermicro 743TQ-1200B-SQ, welches übrigens ein 1200W Platinum Netzteil mitbringt

Haha, geil ja. Das wäre auch gleich lieferbar hier. Könnte man da oben auch noch einen SSD Rahmen rein machen bei den 3x 5.25"? Das Case ist auf jeden Fall mal mein Favorit.

Kann man an das Netzteil eine einzelne GPU anhängen, mit Hinblick auch mal auf Wechsel auf Ampere? Hat das zwei Rails, sehe ich das richtig? sry, hab Null Plan in der Hinsicht.
 
Beitrag automatisch zusammengeführt:

Edit: ne ich habe mir das ASUS Board mal angesehen, vergleich mal die Ausstattung. Hat 16 Speicher Steckplätze was wir nicht brauchen, sonst denke ich durch die Bank schlechter ausgestattet. Keine grossen M2, kein 10 Gbit/s Ethernet, PCIe mässig deutlich schlechter.

Ausserdem, obwohl ich selber ein ASUS Server Board habe, die empfehle ich nicht weiter. Um ASUS mach ich einen Bogen, wo es geht. Gibts wenigstens Cashback, und so?
Die M2 bekommt man über OCuLink angebunden, da hat das Asus 6 Stück davon, alle bieten 4 PCIe Lanes. Ethernet hats keine 10G, dafür ist es ja auch billiger. Hat aber dafür Mezzanine Ports (die weißen Slots über den PCIe). Gibt oft günstig Mezzanine NICs auf Ebay, hatte letztes Jahr eine Mellanox CX5 25G Mezzanine für unter 50 € geschossen. Ansonsten gibts auch genug Dualport SFP+ für diese Slots, da es recht exotische Anschlüsse sind gibts die Karten dafür oft günstiger als ihre PCIe Gegenspieler.
16 RAM Bänke können auch von Vorteil sein, gerade wenn man Blut geleckt hat für viel RAM (In Memory DBs wie Redis, ZFS, etc.). Da kann man dann, statt auf deutlich teureren LRDIMM oder 3LRDIMM ausweichen zu müssen, das Board mit 16x 32GB RDIMM ausbauen und hat dann 512 statt 256GB. Mehr ist immer besser :fresse:
 
Hmm, das mit OCuLink tönt spannend. Ist das teuer bzw. geht das überhaupt, wenn man M2 Sticks an napp-it durchgereicht haben möchte? Habe zwar gelesen, dass traditionelle Sachen wie SATA besser geeignet dazu wären. Und das von Profis. Aber wegen der Storage Lösung die wir im Moment mit dem LSI 2008 haben, da mach ich mir am ehesten Sorgen wegen der Bandbreite. Bislang dachte ich, wenn Engpässe bestehen rüstet man halt mal noch einen LSI 3008er nach. Weil bei uns kann man halt nicht wirklich M.2 nachrüsten dann. Eine noch.

Wie gesagt, im Moment hat er 128GB RAM, das dürfte lange Zeit reichen. Und auf 256GB könnte man dann immer noch gehen. Sollte reichen für Minecraft. :)

Ahja, und er hat bereits Kupfer 10 Gbit/s Hardware, Gamingmainboard waren wir auch mal bei 5 Gbit/s Kupfer. Auf Glas würden wir lieber verzichten. Wobei das ist auch noch Baustelle. Bislang hat er nur einen smart managed 10Gb Switch, und der kann glaub ich kein tagged VLAN. Firewall soll die Kiste auch mal machen, und da wären ich/wir eigentlich auf Fullmanaged angewiesen. Dazu kommt dann halt seine angedachte Gaminghardware, die auch schnelles Ethernet bieten soll. Im Moment hat er eine AMD Übergangslösung.
 
Zuletzt bearbeitet:
Hat das zwei Rails, sehe ich das richtig?
Erstmal müsste man wissen welches Netzteil da verbaut ist, aber Geizhals listet nur ein 1200W Platinum von SM, womit es also wohl das Supermicro PWS-1K22A-1R sein dürfte. Du musst es selbst auf der Homepage von Supermicro suchen, aber dort steht "+3.3V N/A" und "5V Standby N/A". Auch Geizhals gibt nur 12V 100A an, aber nicht wie viel das auf 5V und 3,3V liefert, es scheint eines der neuen 12V only (ATX12VO) Netzteile zu sein und passt nicht zu dem ASRock ROMED8-2T Mainboard, welches noch ein ATX Netzteil benötigt und noch keinen ATX12VO-Anschluss wie z.B. das ASRock Z490 Phantom Gaming 4SR zu haben scheint.

Sorry für den Eimer kalten Wassers, aber sowas muss man auch beachten, wenn man ein Gehäuse mit Netzteil auswählt!
statt auf deutlich teureren LRDIMM oder 3LRDIMM ausweichen zu müssen
3LRDIMM? LRDIMM ist jedenfalls pro GB nicht teurer, sondern sogar oft billiger als RDIMM, allerdings scheint es noch keine 3200er LRDIMM zu geben.
 
Ich habe ja Null Plan. Auf der SM Seite steht da schon ATX, 12V/5V/3.3V unter Power Supply:


Das hatte ich mir schon angesehen. Steht auch Multi Power Output, was immer das auch heissen mag. Was meinst Du, geht das trotzdem?

Weil das Gehäuse wäre glaube ich schon, was wir suchen.

Ich glaube, ich weiss was Du meinst mit dem 12V only. Das ist der neue Standard, der sich von ATX verabschiedet hat und da die 5V/3.3V Spannungsversorgungen aufs Board gewandert sind? Das ist glaube ich hier bei dem Gehäuse nicht so der Fall.

Das hier würde ich nehmen, so aus dem Stegreif:

 
Hmm, das mit OCuLink tönt spannend. Ist das teuer bzw. geht das überhaupt, wenn man M2 Sticks an napp-it durchgereicht haben möchte? Habe zwar gelesen, dass traditionelle Sachen wie SATA besser geeignet dazu wären. Und das von Profis. Aber wegen der Storage Lösung die wir im Moment mit dem LSI 2008 haben, da mach ich mir am ehesten Sorgen wegen der Bandbreite. Bislang dachte ich, wenn Engpässe bestehen rüstet man halt mal noch einen LSI 3008er nach. Weil bei uns kann man halt nicht wirklich M.2 nachrüsten dann. Eine noch.
Brauchst halt entsprechende Kabel dafür, auf M.2 würde ich gänzlich verzichten und direkt auf U.2 gehen, dieselbe Schnittstelle, aber die SSDs sind eben in 2,5" Bauform, d.h. idr bessere Kühlung.
 
Das ist glaube ich hier bei dem Gehäuse nicht so der Fall.
Frag halt beim Händler nach was genau für ein Netzteil verbaut ist bevor Du es kaufst und das Netzteil dann doch nicht passt.

Ah das Gehäuse unter der Bezeichnung gibt es wohl mit verschiedenen Netzteilen:
Das hatte ich vermutet, solche Servergehäuse bieten wie gesagt ja meist eine gewisse Vielfalt was die Variationen angeht, wie ich ja schon bzgl. der Laufwerksschächte angedeutet hatte. Aber jetzt weißt Du ja nun um die Thematik und kannst Probleme damit vermeiden. Frage halt den Händler und stelle klar, dass Du eines mit ATX Netzteil willst und sag zur Sicherheit auch, dass es mit 3.5" Schächten sein soll, keine Ahnung ob es für dieses Gehäuse auch noch die 2.5" Option gibt, aber sicher ist sicher.
Beitrag automatisch zusammengeführt:

Multi Power Output
Dies dürfte sich wohl hierauf beziehen:
In der Schweiz sind es ja meines Wissens nach auch "220V", damit hat es dann 1200W, aber selbst 1000W sollten euch ja reichen.
 
Zuletzt bearbeitet:
Wieso, kann man in ein 3.5" Caddy nicht sowieso eine 2.5" SSD einbauen?

Wie gesagt, wenn man statt den drei 5.25" Blenden oben einen SSD Rahmen einbauen könnte, wär das ideal.

Im Moment ist es eine 2.5" SATA SSD für OS und Filer vom Onboard Controller, eine 2.5" SATA SSD- und eine 3.5" SATA HDD- vom HBA.

Kann man denn an einer Backplane auch mischen controllerseitig? Also 2 Onboard/6 HBA? Am Board hat es zwei mini SAS, am HBA zwei normale SAS. Kabel haben wir schon.
 
Zuletzt bearbeitet:
Wieso, kann man in ein 3.5" Caddy nicht sowieso eine 2.5" was-auch-immer SSD einbauen?
Weil 2,5" HDDs/SSDs evtl. andere mechanische Abmessungen haben und daher die mechanische Konstruktion ausschlaggeben ist?
Sprich weil 2,5" andere Maße für die mechanische Aufnahme aka Schrauben haben?

Es gibt Caddy, da sind die mechanischen Gegebenheiten gegeben und bei anderen wiederum nicht.
Und daher weist der Hersteller explizit aus, ob ein Caddy/Case nur 3,5", nur 2,5" oder auch 3,5" + 2,5" kann.

Und bei SM ist es so, dass deren Caddys keine Combo-Caddys sind. Das heißt also entweder oder.
Es gibt sogenannten "2,5"-SKUs", das sind aber 3,5" SKUs, die einen Adapter haben, sprich gebogenes Blech, was man anstelle der 3,5" HDD reinschraubt und darin dann die 2,5" HDD/SSD.


3,5" SKU: MCP-220-00193-0N
2,5" SKU: MCP-220-00080-0B
Adapter only
(Aber aufpassen, das Ding hat keine SKU. Die angegebene SKU ist falsch.)
Ansonsten kann man auch sowas einbauen: (das ist aus Plaste)
Wichtig ist dabei, dass es eben die 3,5" Anschlüsse hat und kein einfacher Adapterrahmen ist, die man sonst so bekommt.
 
Ja, danke für die rege Beteiligung!

Wie läuft das denn mit der Stromversorgung bei der Backplane? Bei mir baumeln halt drölfzig Platten mit SATA Power 1x auf 4x Adaptern. Muss man die Backplane für 8 Platten zwei Mal vom Netzteil einspeisen? Weil vom Netzteil die Kabel da, die haben immer nur 4x SATA Power. Und die sind auch immer recht steif, das ist schlecht zum Verkabeln an die Verbraucher.
Beitrag automatisch zusammengeführt:

edit:

hmm, und die 3.5" auf 2.5" Bleche kosten 15 Euro pro Stück? Sind die aus Silber?
 
Zuletzt bearbeitet:
Habe mich da mal durch das Manual vom SM Tower gewuselt. Das Gehäuse wär super. Mit dem 2.5" Hotswap Case hier noch:


Leider nicht ganz billig. Das ganze Gehäuse könnte man auch auf Rackmount umbauen.

Habe jetzt mal noch bei Brack nachgefragt, was da genau für ein Netzteil verbaut ist. Da steht was von 80+, auf der SM Seite aber 80+ Platinum. Laut Manual gibt es aber nur eine 1200W Ausführung, das wäre dann SC743AC-1200B-SQ. Auf der Website ist es aber das genannte SuperChassis 743TQ-1200B-SQ. Kennt da wer den Unterschied? Das Manual hatte ich von der Website des Gehäuses aus aufgerufen. Aber da ist halt schon die Bezeichnung wiedersprüchlich. Das Gehäuse von Brack hat aber genau die Bezeichnung von der verlinkten SM Website mit 1200W Platinum Netzteil.

Was da für PCIe Anschlüsse dran sind, und ob das Singlerail (bezweifle ich bei einem 1200W NT mal einfach) ist, da schweigt sich das Manual aber aus dazu.
 
Zuletzt bearbeitet:
Warum nicht z.B. etwas aus dem Produktportfolio?

Es gibt auch welche mit U.2 Aufnahme, welche im Zusammenspiel mit onboard NVMe Interfaces auch hochperformante SSDs als swappable ermöglichen.

EDIT:
Das 743AC hat eine SAS3 Backplane mit MiniSAS-HD, wohingegen das 743TQ nur eine SAS2 Backplane mit SATA-Anschlüssen hat. (beide sind passiv)

Zu den Fragen bezüglich des Netzteiles kannst du aus dem Manual die Bezeichnung des NTs raussuchen und mit dieser dann die SPEC suchen und einsehen.
In der Regel werden bei Multirail NTs die 12V Rails durchnummeriert. Nummern = mehrere Rails, keine Nummern = single Rail. Und zur Not schreibst du eine (englische) Mail an den SM-Support und die antworten dir schnell und kompetent.
 
Zuletzt bearbeitet:
Supi danke. Ich habe eben mit meinem Kumpel telefoniert, er meint das ist ok mit dem Gehäuse und dem 2.5" Einschub oben. Er liest hier auch mit. Auf Brack weiter unten steht auch 80+ Platinum, das ist also das 743TQ-1200B-SQ nehm ich an. Ich lass mir das aber sicher noch vom Lieferanten bestätigen, dass das alles passt dann. SAS2 Backplane mit SATA wäre auch gut, weil da haben wir die passenden Kabel schon dazu.

Was ich im Manual vermisse: geht der Noctua NH-U14S TR4-SP3 16.50cm oder muss ich da auf den Noctua Kühler NH-U9 TR4-SP3 mit 13.7cm gehen?

Er wird auch bei dem ASRock Board bleiben.
 
Zuletzt bearbeitet:
Wobei wenn man das ganze 3.5" SAS/Mini SAS verkabeln könnte, wäre das sicher auch nicht verkehrt. Mit SATA wäre man bisschen flexibler, aber zum Verkabeln wäre wohl SAS/mini SAS schöner.

Sprich onboard 1x mini SAS zu 1x mini SAS für 4x SSD, HBA Controller 1x SAS zu mini SAS zum 2.5" Bay, 1x SAS / mini SAS zu der 3.5" Backplane. Wenn man mal nachrüsten will grösserer HBA dann 2x SAS zu 3.5" Backplane.

Was meint Ihr? Oder ist das wumpe, wenn wir eh nur SATA 3 Storage dran hängen haben?
 
Netzteilfrage hat sich geklärt, es ist anscheinend das Guetzli aus dem Anhang. Sollte Singlerail sein. Falls er nur eine GPU durchreichen möchte vielleicht ein bisschen überdimensioniert.

Wir würden dann zum SC743AC-1200B-SQ mit mini SAS-3 HD Backplane gehen.

Was mir noch nicht ganz klar ist: Ist es ein Problem, wenn ich einen SAS-2 Controller habe, und den an die SAS-3 Backplane verkable? Läuft das? Ich habe es gegooglet, da fand ich nur Infos in umgekehrter Richtung was natürlich nicht passt. Ich frage mich halt eh, wenn man schon den ganzen Aufwand betreibt, ob man dann nicht besser gleich einen LSI 3008er mit 4 Ports beschafft. Dann könnten wir die 3.5" Backplane auch komplett verkabeln. Gibt es da eine Empfehlung? Controller mit 4 Ports oder Expander? Wenn wir eh alle SAS Kabel kaufen müssen, würde das wohl eher Sinn machen als an dem 2008er festzuhalten.

Würde der hier z.B. in Frage kommen?

Dann könnten wir auch durchgängig mit SFF-8643 verkabeln.
 

Anhänge

  • PWS-1k25P-PQ_quick_spec.pdf
    452,1 KB · Aufrufe: 131
Zuletzt bearbeitet:
So, wir haben das SC743AC-1200B-SQ, das Supermicro CSE-M28SACB:SAS3/SATA3 Cage und die restlichen Teile bestellt. Hoffe es ist bald alles da, das Gehäuse muss unser Lieferant extra bestellen. Denke das war eine gute Enscheidung, da auf ein Servergehäuse zu gehen.

HBA nutzt er erst mal einen vorhandenen LSI 2008, da können wir 3.5" mässig halt nur 4x nutzen vorerst. Ich wäre ja auf einen LSI SAS 9305-16i gegangen, aber er meint das sei schon mal ok so mit SAS-2.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh