[Sammelthread] HomeServer Vorstellung - Bilder + Kommentare

Bevor man zu einer neuen 860 oder sowas greift, würde ich den Dingern immer den Vorrang geben.
Und ich verstehe nicht, warum überhaupt Enterprise-SSDs in einen Homserver.

Ich nutze auch kein ECC-RAM und bin dennoch vollkommen zufrieden, so lange anständiger Marken-RAM gekauft wird.
Ich halte es da mit Holt, der mal meinte, man solle sich möglichst den Kram aus einer Hand kaufen. Das ist mir (auch bei Consumer-Ware) wichtiger, als überall den Aufpreis für "Enterprise" zu bezahlen, zumal die eigene Workload vermutlich eben nicht Enterprise ist.
RAID ist auch so ein Thema, hatte das mal laufen und es gab durch die gestiegene Komplexität haufenweise mehr Probleme, als ich sie mit einem Laufwerk (und einem Backup) je erlebt hätte.
Was ich damit sagen will, wer nicht in dem Bereich arbeitet und daher nicht wirklich weiß, was er genau tut, dem empfehle ich, die Sache eher locker anzugehen. :wink:

(Ich will auch keine weitere Diskussion anfeuern. Die, die wissen was sie tun, sollen machen, was sie wollen. Aber bei einigen Unerfahrenen hier hab ich den Eindruck, dass sie völlig unnötig auf den Enterprise-Zug aufspringen wollen, vielleicht weil sie schon schlechte Erfahrungen mit Gaming-Rechnern gesammelt haben. Aber man muss es halt richtig machen. Und ein Backup zu haben ist viel entscheidender.)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Vor allem wenn der mal sehen würde, was auf den zwei 1.92 TB SM883 alles so tuckert, würde er vom Stuhl fallen. Für den Server boot brauche ich so 20-30 min. Komme da gar nicht hinterher alles anzuklicken und händisch zu starten, bis da mal alles oben ist. Also für meinen Anwendungsfall reicht das, durchaus ja. Sind allerdings nur PIII/PIV Spili und bisschen Kleinkram.

Und @BobbyD : hatte von 2010-2018 einen X79 Server basierend auf Consumer Hardware. Tu ich mir im Leben nicht mehr an. Wenn ich nur an die ganzen PSOD denke wegen dem RAM. Das Problem mit dem faulen Kit konnte ich erst identifizieren, als der Server nicht mehr Server war. Heutzutage schaue ich ins IPMI Log, ob es Probleme mit dem Speicher gibt. Hatte allerdings keinen einzigen ECC Fehler seit die C612 Plattform steht. Auch in der Workstation baue ich je länger je mehr auf WS Hardware, gerade auch was RAM und Storage anbelangt. Nach mir problemloser der Umgang damit.

Wenn ich mir zum Beispiel anschaue, was Ihr da so mit den beiden Gigabunt Mainboards auf AM4 Basis (die beiden Threads da) und dem ganzen Adapter Gefrickel so anstellt, da kann ich gut und gerne darauf verzichten, obwohl das ja auch Server Hardware ist. Lohnt halt nach mir nicht, da überall Handstände zu machen. Aber jedem das seine. Bin da voll bei meinem Oldschool Rig. Auch wenn es bisschen mehr aus der Dose nuckelt.
 
Zuletzt bearbeitet:
Ich kann Gigabyte definitiv nicht ausstehen und sitzen bei mir auf der schwarzen "kauf ich nie wieder" Liste. Habe dann tatsächlich nur wegen Basteldrang und Preis eine Ausnahme gemacht und das MC12-LE0 (AM4) gekauft. Bin auch erst auf den Zug aufgesprungen, als schon einige Zeit rum war und das Brett extrem günstig war.

Der Vorteil von Server-Hardware ist (meiner Meinung nach) vor allem die Zuverlässigkeit. WENN es mal läuft, läuft's in der Regel bis zum Exitus. Das heißt halt aber nicht, dass ALLES und in jeder beliebigen Kombination läuft. Von der Seite kann ich über das Gigabyte-Brett nicht meckern. War ein nicht ganz geradliniger Weg bis zum meinem aktuellen Setup (MC12-LE0 mit 5950X, 128GB RAM, ConnectX-5 und paar SSDs NVMe und SATA), aber das rennt jetzt seit mehreren Monaten 24/7 rockstable durch. Und das mit Win 2022 Server... ;)
 
Das MC12 ist cool.
Der M.2 3.0x1 ist btw. sinnvoll, da dadurch der 2. offene PCIe 4.0x4 Slot direkt an der CPU hängt und somit beim Passthrough kein Problem mit IMMOU Gruppen macht, wenn ich das richtig verstehe.
MC12-LE0 mit 5950X
Wie hast das stable bekommen? Glück?
 
Wasserkühlung.
 
Und ich verstehe nicht, warum überhaupt Enterprise-SSDs in einen Homserver.
Weil fire and forget.
Habe meinen Kram seit bald 5 Jahren 24/7 in Betrieb. Und ich denke das Ding laeuft nochmal so lange.
Daten sind alle Gesund, wie am 1. Tag.
 
SATA jederzeit... U.2 ist etwas Pricy auch wegen den Adaptern (wobei am 9500er sicher nice) und die U.2 und M.2 Enterprise dürften ganz gut Strom brauchen (zumindest die Micron 7400pro, welche ich habe, und diverse U.2 lt. den Datenblattangaben, wird schon so sein...).

Ich war leider zu blöd das rechtzeitig zu checken und mich mit 4-8 TB DC600M einzudecken, als sie richtig billig waren vor 1 Jahr.... immerhin hab ich 2x 870 EVO gekauft (die äquivalente PM wäre kaum teuerer gewesen... wusste das aber noch nicht).

ECC will man auch erst so wirklich, wenn man mal ernsthaft Schaden durch fehlerhaften RAM eingefangen hat, been there, done that (zum Glück hat sich der Schaden in Grenzen gehalten, bloß der Aufwand war etwas unnötig...).

Jetzt aber genug, soll ja um Pics gehen hier.
 
Pics? ...kannst Du haben:

PXL_20230406_124721739.jpg


brutal, ich weiss. Würden auch zwei SAS SSD rein gehen noch. Aba Du, habe das Backplane Modell ohne Venti. Mir auch so lang wie breit, denke irgendwann gibt es noch zwei 2.5" SATA (aua Billigheimer) für Storage. Sehe das pragmatisch, und bin voll der Hinterwälder. Bezeichne da meine mit Caps gepimpten zahlreichen 860 pro als Datacenter SSD. Und nur, dass ihr es wisst: die 860 Pro ist sogar bei den Prosumer ganz vorne dabei bei den 2.5"er. Zumindest bei Samsung, den Hobbybastlern. Aber halt nicht das selbe.

Mein ja auch sicher nicht den @o$$!ram oder so, der fliegt da ganz anders mit seinen WD Gold und seinem sonstigen Consumer Kram. Ich übrigens auch, seit jeher RE4, RE, WD Gold. Und nun? Brauche halt nicht mehrere davon. Speichere keinen Crap. Was bunkerst Du denn so? RTL Nacht Sendungen? Auf Deinen U.2 LW, right?
 
Zuletzt bearbeitet:
Als fleißiger Mitleser nun auch mal Bilder von meinen:

IMG_20241001_174514.jpg

Server "Elrond":
Supermicro X9SRi-F
Xeon E5-2650 v2
128 GB Samsung DDR3 ECC 8x16GB
500GB Seagate Ironwolf 125 SSD (Boot, ISOs)
2x500 GB WD SN700 ZFS Mirror auf Asus HyperX (VMs und Container)
4x4 TB WD RED RaidZ3 an Dell Perc 310
BeQuiet 300W SB
IPC4088-S 4HE
Proxmox VE
Eigentlich völlig oversized aber haben ist besser als brauchen


Server "Bifur"
Supermicro X10SLH-F
Xeon E3-1240L v3
16 GB Samsung DDR3 ECC 2x8GB
512 GB Toshiba SSD SATA,
Supermicro CSE512 1HE
Proxmox VE / BS
Unspektakulärer Thomas Krenn 1 HE Server, leider kein Foto zur Hand. Dümpelt im Standby vor sich hin und dient nur als Host für Proxmox Backup Server und Reserver PiHole wenn der andere Servver nicht verfügbar ist.
 
Zuletzt bearbeitet:
Und ich verstehe nicht, warum überhaupt Enterprise-SSDs in einen Homserver.

Ich nutze auch kein ECC-RAM und bin dennoch vollkommen zufrieden,
Jeder muss halt mal erst auf die Nase fallen, bevor der Groschen fällt. (y)
 
Jeder muss halt mal erst auf die Nase fallen, bevor der Groschen fällt. (y)
Ich bin nun seit vielen Jahren im Game, sagen wir ne Ewigkeit, und wenn man keinen Crap kauft, dann läuft die Consumer-Ware genauso lange. Man braucht aber Erfahrung. Ich spare mir das Geld und den Verbrauch für Enterprise Gear gerne.
PXL_20241003_082752844.MP.jpg

Alibib(u)ild
 
Zuletzt bearbeitet:
Ich bin nun seit vielen Jahren im Game, sagen wir ne Ewigkeit, und wenn man keinen Crap kauft, dann läuft die Consumer-Ware genauso lange. Man braucht aber Erfahrung. Ich spare mir das Geld und den Verbrauch für Enterprise Gear gerne.
Deswegen besorgt man sich auch gebrauchte Enterprise HW. Ob du Crap gekauft hast oder nicht weißt du ja auch im Vorfeld nicht. Ich bin mit Consumergear (will heißen, Desktop Festplatten, Desktop-Grade NICs und non-ECC RAM) schon herb hingefallen, weswegen ich das nur noch für den Gaming PC in Betracht ziehe. Das Lehrgeld wird man bei heutigen Densitys eher früher als später bezahlen, bis dahin wünsch ich dir natürlich good Luck damit.
 
Eigentlich wollte ich ja das Thema ruhen lassen, wenn sich aber selbst der Profi meldet und wirklich gute Argumente bringt muss ich doch auch nochmal was sagen.

Du hast natürlich voll und ganz recht ich hab da verallgemeinert und habe da wohl einige usecases unbedacht gelassen. Und ich bin auch definitiv nicht in deiner Größe unterwegs - daher siehst du da schon einiges mehr. Ich bin allerdings tatsächlich davon ausgegangen das in einem DC in dieser Größe, wie du im Fall unterwegs bist, tatsächlich auch fürs OS (esx oder whatever) auch min. SAS zum Einsatz kommt. Von "ein/zwei-Node" installationen kenne ich es so, aber hätte es eben in den größeren "richtigen" Datacentern anders erwartet.

Allerdings bleibts bei meiner Grundaussage, das auf den Stromverbrauch hin gesehen - allgemein gesagt - die SATA SSDs sei es Datacenter oder Consumer, sich nicht großartig unterscheiden und einfach viel über die Firmware gemacht wird (was ja auch ok ist und nicht negativ gemeint ist!).

Leider habe ich mich dann zu "Pauschalaussagen" hinreissen lassen die ich so normal nicht tätige.

Danke für deine ausführungen, denen ich so natürlich nicht wiedersprechen werde und auch die sicht auf die "einfachen" Datacenter SSDs wohl überdenken werde.

Auch an dich Ali, nochmal, ich wollte ursprünglich weder dein System noch die SSD(s) schlecht machen, sondern ich war einfach nur über deine Aussage zum Stromverbrauch verwundert und habe mich dann im ärger über deine Aussage "Nach mir verzapfst Du einfach Unsinn hier." zu Pauschalaussagen hinreissen lassen.
 
Zumindest sagt google dass das X9SRi-Fper BIOS Update Bifurcation bekommen hat.
 
Okay. Müsste ich mal schauen, ob meine Boards das auch können. Dachte das kam erst viel später auf.

Ah nice, mein SM Brett kann das auch. Das ASUS anscheinend nicht.
 
Kann das System Bifurcation? Höre ich zum ersten mal, dass ein Ivy das kann.
Kann es problemlos, nur booten kann es nicht. Werde ich nächste Jahr mit nem Linux Boot Loader auf einem USB Stick umgehen, dann soll die Ironwolf raus.
 
Deswegen besorgt man sich auch gebrauchte Enterprise HW. Ob du Crap gekauft hast oder nicht weißt du ja auch im Vorfeld nicht. Ich bin mit Consumergear (will heißen, Desktop Festplatten, Desktop-Grade NICs und non-ECC RAM) schon herb hingefallen, weswegen ich das nur noch für den Gaming PC in Betracht ziehe. Das Lehrgeld wird man bei heutigen Densitys eher früher als später bezahlen, bis dahin wünsch ich dir natürlich good Luck damit.
der wirkliche Unterschied liegt im Servicevertrag

wenn ich daheim ein Part tauschen muss dann bestelle ich ich meist ein neues und verkaufe das RMA später

mit Service Vertrag kommt in 8-24h ein Austauschteil (teils sogar mit dem lieben Anhang eines netten Menschen der meine Arbeit erledigt (und das sogar für 5 Jahre)
 
neues Low-Energy-Projekt mit neuem Board und Restehardware

IMG_3271.jpeg


keine Ahnung warum ich mir das Board eigentlich bestellt hab oder was ich jetzt speziell damit mach aber Werbung scheint bei mir zu funktionieren
für irgend nen Mist wirds schon herhalten :d
 
Haben ist besser als brauchen!
Offshore backup bei Geschwistern/Eltern?
 
20241005_085415_klein.JPG.png

Gestern mal wieder am PX2 rum gespielt und versucht, ML mit uralten Fermi und älteren GPUs zu machen.
Ging in die Hose und ich musste meine olle 980 GTX raus holen, um das Board wieder zu reaktivieren.
(Hatte CSM abgeschaltet, kann ja keiner ahnen, dass solch uralte Grakas kein UEFI-Boot können und somit kam ich nix mehr ins BIOS um des CSM wieder zu aktivieren... :wall: )
Falls wer fragt, wie ich ein proprietäres Fujitsu-12V-A-Board mit nem normalen ATX-Netzteil ans laufen bekam:
1728206055229.png
1728206458011.png

:fresse:
 
Zuletzt bearbeitet:
Screenshot 2024-10-31 202618.png


2*4TB sind rausgeflogen aus dem Homeserver und 3*12TB sind eingezogen. Sollte erstmal für ne weile reichen.
Die 1TB NVME ist für den LAN Cache, die 480GB WD fürs OS und die 480GB Crucial für die Docker Configs und als Zwischenspeicher.
 
Meh, ich bin voll angearscht.

Unser aller Lieblingsadapter lässt im Prinzip keine M.2 Kühler Montage zu, bzw. keine Montage von M.2 Kühlern, die mir bekannt wären.

Fängt damit an, dass gerade double-sided kein Platz zwischen M.2 Chips und PCB sind um die "Rückseite" des Kühlers einfach zu dick ist, um reinzupassen.
Weiter sind die Pins des PCIe Sockels der M.2 so nahe, dass der Kühler bei einsteitig bestückten M.2 PCBs wohl diese Pins kurzschließen würde bzw. zu nahe kommt.
Diese Kühler hatte ich gekauft und eingeplant: https://www.amazon.de/Thermalright-Kühlkörper-Aluminium-Wärmeleitfähigkeit-Performance/dp/B0BNZTMBB4

Ist wem was passendes bekannt?
Nackt lassen? Ist eh nur PCIe 3.0... oder macht das keinen Einfluss auf die Wärmeentwicklung des Controllers?
 

Anhänge

  • 1730496672989.jpeg
    1730496672989.jpeg
    453,9 KB · Aufrufe: 60
  • 1730496690562.jpeg
    1730496690562.jpeg
    265,2 KB · Aufrufe: 60
  • 1730496702346.jpeg
    1730496702346.jpeg
    256,2 KB · Aufrufe: 61
Ist wem was passendes bekannt?
Nackt lassen? Ist eh nur PCIe 3.0... oder macht das keinen Einfluss auf die Wärmeentwicklung des Controllers?
Hilf dir wohl nicht, habe aber die geklebt:

Meine SSDs waren eh alt, insofern habe ich das Etikett entfehrt (Achtung Garantieverlust!) und anschließend gut mit Alkohol entfettet, bevor ich die Kühler aufgeklebt habe. Ich glaube unter die SSDs hatte ich auch noch eines der mitgelieferten Wärmeleitpads gepackt. Keine Ahnung ob das sinnvoll war.
 
Und das hält?

Brauch jetzt kein Stück Alu am HBA oder der NIC...
 
Und das hält?

Brauch jetzt kein Stück Alu am HBA oder der NIC...
Bisher schon (gerade nochmal extra für dich kontrolliert :LOL:), wichtig ist, dass es gut entfettet ist und sicherlich auch abhängig von der qualität der "Thermal Klebenand". Ich hatte auch jahrelang einen Morpheus auf einer GPU, die VRAM-Kühler werden da auch nur aufgeklebt. Linus in seinem Video hatte das Thermalklebeband direkt auf die Chips wo vorher noch (silikonhaltige?) Wärmeleitpads drauf waren geklebt und sich dann gewundert, dass die alle wieder abgefallen sind.
Und man sollte den Kühler natürlich sorgfältig andrücken bei der Montage, damit der Kleber richtig Kontakt bekommt.
Bei DDR2 Ram hatte ich sogar mal die Chips mit abgezogen beim lösen des Kühlers... Also beim Ablösen sollte man vorsichtig sein und wenn man Zweifel hat lieber in Alkohol einweichen.

Bei Amazon hat es auch 180 Bewertungen und 4,4 Sterne. Wird also wohl auch bei anderen halten.
 
Zuletzt bearbeitet:
Ich meine, die 980 braucht nicht unbedingt einen Kühlkörper.

PXL_20241102_075105628.jpg
Sehe hier auch noch kein Problem.
Beitrag automatisch zusammengeführt:

Meine SSDs waren eh alt, insofern habe ich das Etikett entfehrt (Achtung Garantieverlust!)
Ich habe, wenn ich mich recht entsinne, den Aufkleber nur über dem Controller gelöst und umgeschlagen. Ein Garantieverlust sollte das noch nicht bedeuten, wobei ich jetzt die Garantiebedingungen nicht studiert habe. Aber wie ja bekannt ist, braucht nur der Controller die Kühlung, NAND-Flash nicht. Der funktioniert sogar besser, wenn er schön warm ist.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh