[Guide] NAS/Server Hardwareguide 2020

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wobei neues MB + alte Hardware momentan am attraktivsten klingt.
So, Neubau ist momentan nicht wirklich sinnig, daher habe ich mich umbauen entscheiden.


Für den Kühler würde mit persönlich nen Top-Blower besser gefallen, aber da hab ich nichts gefunden.
Wobei ich das Gehäuse eh an allen enden mit Lüftern voll baue.

Ist beim Server CPU umbauen was zu beachten was bei Desktop-CPUs nicht ist?


Klingt das alles sinnig?
 
Zuletzt bearbeitet:
Im SuperMicro Manual: Note 1: "Please use the narrow type heatsink model: SNK-P0047PS."

BeQuiet: "Sockelkompatibilität Intel: 1200 / 2066 / 1150 / 1151 / 1155 / 2011(-3) square ILM; AMD: AM4 / AM3(+)"

Also ja, passt nicht. Danke für den Hinweis, dann suche ich nochmal.


Edit:

Ich denke der Noctua NH-U12DX i4 passt, geht für Narrow-ILM und sollte meinen Xeon packen, obwohl ich anscheinend zu blöd bin ne TDP-Angabe zu finden.
 
Zuletzt bearbeitet:
Achtung: mit dem Noctua wirst Du auf dem Board den Luftstrom wohl von "unten nach oben" (oder umgekehrt) haben. Hab den Sockel noch nicht in den Händen gehabt, aber auf den Bildern sieht es jedenfalls so aus, als könntest Du den Kühler nicht beliebig (um 90° gedreht) montieren.
 
Das gehäuse ist ja nach oben offen, wenn ich den Lüfter nach oben "schieben" lassen sollte es doch passen? dann lasse ich die Lüfter vorne nach innen "blasen" und CPU und "oben-hinten" nach außen.
Extra leise muss er ja nicht sein.
 
Klar, geht schon. Bei mir was das mit einem Lüfter und einem X399-Board doof, weil da der Luftstrom quasi zwingend von vorn nach hinten gehen musste. Daher nur der Hinweis. =)
 
Ach bei Dir auch? :hust: Ich musste dem Kühler da ne Hutze verpassen, damit der Luftstrom sauber funktionierte und sich nicht wieder durchmischt.

Nach oben auslüften mag ich gar nit, weil da a ) gern Staub und Dreck reinfallen, direkt auf den Lüfter+Kühler und b ) kann man nix mehr auf das Gehäuse stellen oder das Gehäuse nicht in ein von oben enges Regal/Rack.
 
Verfügbar und Preis i.O. --> bin offen für Vorschläge.
Vielleicht sowas:
 
Vielleicht sowas:
Das war meine eigentlliche Wahl, zwar bissl wenig SATA-Anschlüsse aber ich habe bis jetzt auch nen Splitter mit 1xSATA-->4xSATA drin.
Habs oben mit eingefügt.

Klar, geht schon. Bei mir was das mit einem Lüfter und einem X399-Board doof, weil da der Luftstrom quasi zwingend von vorn nach hinten gehen musste. Daher nur der Hinweis. =)
Mein Favorit wäre ja nen Kühler der auch bissl das Mainboard mitkühlt... aber ich denk so passt es auch, wirklich Volllast über längere Zeit hab ich eigentlich nicht.
 
Zuletzt bearbeitet:
@Trambahner: ich hab dann zu einem Supermicro gegriffen, der passte „richtig“... ;) Und der Noctua passte dann auch richtig auf ein ASUS x399 Prime, was auch noch rumstand und dann musste halt noch ein 1900X her... ;)

Aber das X399D8A (wie auch das X11SPi-TF) trägt ja jetzt nen Wasserblock, insofern liegen hier jetzt doch wieder zwei Kühler ungenutzt rum... :(

@quotengrote: lass da einfach von vorne bissel drauf blasen, dann sollte das schon passen. Die Supermicro Bretter sind eh auf so einen Airflow ausgelegt und nicht dass da ein Topblower rumfuchtelt.
 
Mal Vorschlag mach....
Wie wäre es für die allgemeinen Bauvorschläge / "fertige Konfigurationen" (von wegen ich habe das so gebaut) einen eigenen Thread aufzumachen - ohne die Diskussionen drumrum?
 
Hau rein. :d Wird aber wohl schwer das durchzuhalten. ;)
 
Hier haben doch einige einen Epyc (@sch4kal ?) - welchen genau und wie warm wird denn bei Euch die CPU unter Last? Kurze Rückmeldung wäre super!
 
Man, hier ist ja was los... ;)

Bin gerade darüber gestolpert: ich find's irgendwie geil, habe aber leider gerade absolut keinen Grund es zu kaufen: https://www.inter-tech.de/products/ipc/server-cases/4u-4452-tft

Als HTPC-Basis in lautlos wäre das irgendwie der Hammer... hatte (hat?) Silverstone ja schonmal einige in die Richtung gemacht, aber die waren leider irgendwie Käse. Für 310 Euro gar nicht mal soooooo teuer für TFT und immerhin 2x 3,5" HotSwap.

Und hab noch einen:

Ich habe mein Mainboard erfolgreich um einen zusätzlichen PCIe-Slot "erweitert": Ich habe einen m.2 geopfert und mit einem recht günstigen Adapter als PCIe nutzbar gemacht:

Adapter ist der hier: https://geizhals.de/kolink-m-2-2260-2280-auf-pcie-x4-zurc-009-a1672402.html

Kommt grds. mit allem, was man benötigt:

00.jpg




01.jpg


Eingebaut ist das Ding allerdings nicht in einem Server, sondern in einem Desktop (aber ist ja vielleicht für den ein oder anderen Homeserver trotzdem interessant). In diesem Fall steckt eine Capture-Karte drin:

000.jpg


Die Befestigung der Karte ist dann zugegebenermaßen allerdings "suboptimal", da nicht vorhanden:

00.jpg


Aber funzt:

01.jpg
 
Zuletzt bearbeitet:
Bei sowas bietet sich doch noch ein flexibler Riser an um dann den Slot passend zu positionieren.
 
@v3nom: Ist bereits im Zulauf. Hab aber nur welche mit Riserkabel in Asien gefunden (vor allem wollte ich x4) und nix vorrätiges in Euroland. Mr. Ungeduld wollte aber so lange nicht warten und hat daher ZUSÄTZLICH die billig-Variante in DE gekooft... ;)

Davon ab habe ich aber auch das Thema, dass ich keinen Slot mehr „neben dem Mainboard“ frei habe, wo ich die Steckkarte unterbringen könnte. Irgendwie gepfuscht wird’s also in jedem Fall.

Randnotiz: Überlege daher auch schon, ob ich die 100Gbit NIC ausbaue - brauche sie inzwischen nicht mehr im Desktop, da dort inzwischen 8TB NVME Platz im (4x2TB SSD im RAID0) eingezogen sind und darum der Desktop inzwischen weitgehend wieder „stand-alone“ autark ist.
 
@sweetchuck man beachte den Preisunterschied ;)

Korrekt, darauf zielte meine Einschränkung "konzeptionell besser" ab. Solch ein Rack-Monitor zielt halt auf Firmenkunden ab, wo sich zig Server in einem Rack tummeln und 1000 Euro für den Monitor nur noch Peanuts sind, obwohl das Teil an sich völlig überteuert ist. Ein einfaches Display, ein Klappscharnier und ne Befestigung, eigentlich dürfte das nicht mehr als 100 Euro kosten, bei guter Ausführung vielleicht 200.
 
Das war sicherlich "früher" (tm) die übliche Technik (via KVM-Switch). Heutzutage nutzt man dafür Remote-KVM (iKVM, AMT/v-Pro usw.).
 
Randnotiz: Überlege daher auch schon, ob ich die 100Gbit NIC ausbaue - brauche sie inzwischen nicht mehr im Desktop, da dort inzwischen 8TB NVME Platz im (4x2TB SSD im RAID0) eingezogen sind und darum der Desktop inzwischen weitgehend wieder „stand-alone“ autark ist.
??????!!!!!! So nicht, mein Lieber! Hier gibt's nur zwei Verrückte, und das soll (nach unten hin gesehen) auch so bleiben!

Das TFT-Gehäuse ist m.E. völlig unnötig, wenn man mit IPMI/BMC-Mainboards arbeitet. Wer hat denn Bock, sich unter ne Treppe zu bücken, im Keller zu stehen oder-was-auch-immer, um über den Mini-Monitor irgendetwas zu machen. Dafür gibt es mit IPMI/BMC nun wirklich bequemeres Arbeiten! Bei HTPCs fand ich das dagegen immer recht cool, von Silverstone gab es mal ein halbwegs schickes, das LC18.
Die Riserkarte hat den Nachteil, nur 1x bereit zu stellen. Es gibt leider nur zwei bei ebucht auffindbare M.2x4->PCIex4 Adapter, für entsprechend viel Geld - sehr schade, denn x4 ist schon wieder SAS-HBA-tauglich und eine echte Erweiterung. Die Sachlage bei Riserkarten ist nämlich schlicht und ergreifend: Traurig! Aus USA bekommt man ein x16->4x4-Set für schlappe 120€, o.g. M.2x4 bei der Bucht für 80€ und schon hätte man für 200€ völlig intelligenzbefreite Passivslots, um aus einem ITX Epyc3000 einen Server mit 5 PCIe-Slots mit jeweils x4 zu machen. Weil ja auch keiner diese Atom-Konkurrenz als ATX baut. Ich hätte vor zwei Jahren nicht im Traum an solche Adapter-Eskapaden gedacht, aber die Produktpolitik der Mainboardhersteller scheint immer planloser.
 
Der Kolink Adapter hat bei mir immerhin x2 mit der Capture-Karte ausgehandelt gehabt (wenn ich das richtig gesehen/interpretiert habe). Der Adapter mit Kabel ist aus China noch nicht angekommen...

Die 100Gbit ist tatsächlich gestern aus dem Desktop geflogen. Und wurde von Wakü-Block wieder auf ihren Ursprungszustand zurückgebaut. Die NIC zieht aber mittel- bis kurzfristig in meinen 2. Server (für "Bastelprojekte") ein. Da werkelt momentan nur eine FoldingVM und eine - sehr sporadisch mal laufende - BackupVM. Aktuell will ich da mal einen Conan Exiles dedicated Server aufsetzen...

Wie dem auch sei: so eine Karte MUSS benutzt werden! Und verrückt bin/bleib' ich definitiv sowieso. :d
 
Ja, weil es die Lanes direkt auf dem Adapter bereitstellt. Ich meinte die von v3nom genannten "flexiblen Riser" - das ist noch ziemliches Gefrickel. Man kann natürlich auch aus Deinem Adapter mit einem Flachbandkabel / x4-Riserkabel wieder zu den Slots führen, aber entsprechend unflexibel und ggf. über wärmelastige Bauteile. Die üblichen Adapter mit USB3-Kabel können nur x1 (natürlich), aus China gibt es für x4 schmalere Flachbandkabel-Varianten.
 
Ich hab son x4 China-Riser (inkl. Halterung) im Zulauf. Werde berichten.

So langsam wünsche ich mir nen „Server-Benchtable“...
 
Servus.

Ich bräuchte mal bitte euer Fachwissen bezgl. Server Eigenbau.

Aktuelle Situation:
Ich habe aktuell eine HP Microserver Gen 8 mit 12 GB ECC Ram , einem Intel(R) Xeon(R) CPU E3-1270 V2 @ 3.50GHz und 4x 2GB WD Red Festplatten.
Als Betriebssystem nutze ich seit Jahren Unraid mit diversen Docker-Containern (Plex, TVHeadend, Tasmoadmin, deconz, Krusader, Bitwarden, etc.) und einige VMs (iobroker, Windows 10, Mac OS, Debian, Ubuntun, Raspberrymatic usw.).
Mein Problem ist leider der hohe Stromverbrauch. Der Server zeiht im Durchschnitt fast 80 Watt im 24/7 Stunden Betrieb. Das ist mir auf Dauer zuviel und auch zu teuer. Jetzt habe ich überlegt den Server gegen einen Marke Eigenbau zu tauschen.

Das Zusammenbauen kriege ich hin. Nur bei der Hardware bin ich überfragt. Das letzte mal das ich einen PC Selber zusammengestellt habe ist ca. 13 Jahre her (kein Server). Habt ihr ein Paar Vorschläge für einen Laien?!
Das Budget leigt bei ca. 500-600€ ohne neue Festplatten.
 
Ich werfe mal vorsichtig ein, dass Du beim Verbrauch wohl keine Wunder erwarten solltest. Am ehesten lohnt sich vermutlich, wenn Du die 4x 2GB (schätze TB?) Platten durch z.B. zwei größere & modernere ersetzt.

Ansonsten lüppt auf der Kiste ja auch einiges, wenn das mehr oder weniger 1:1 auch auf dem neuen laufen soll, wird der dafür auch Strom brauchen.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh