[Sammelthread] HomeServer Vorstellung - Bilder + Kommentare

So, ich habe Lust auf ein kleines Update.
Seit drei Jahren im Haus mit vollständiger Verkabelung (Cat7 + MM + SM), allerdings mit hektischem Einzug und zeitgleich neuem Job. So allmählich fasse ich mal die ein oder andere Sache an, "fertig" zu machen.
Alleine den Kabelsalat im HAR zu beheben hat mehrere Tage gekostet. Das ergänze ich gleich im 800G-Haus-Thread .
Der AIO-Server ist mittlerweile umgezogen in die Garage:
PXL_20240826_165301412.jpg

Oberhalb die Unterverteilung der Garage, in der auch 2xduplex MM, 2x duplex SM und 2xCAT7 zum HAR aufgelegt sind; außerdem 2xSM und 1xSM(SC, für SAT-1310 fiber) zur Gartenhütte.
Links neben dem Verteiler ist ein 8x optischer Verteiler für das SAT-Signal, mittlerweile "umgedreht", so dass IN und die beiden OUT unten angeschlossen sind. Darunter ein Invacom GTU Quatro als SAT-Endgerät zurück auf HH/HL/VH/VL. Die vier Kabel gehen dann in die Digital Devices Max S8 und über TVheadend ins LAN.
Der Schrank ist per 10G-Multimode an den HAR angeschlossen und per 10G-Singlemode an die Gartenhütte.

PXL_20240826_165251934.MP_1.jpg


Hier werkeln jetzt von oben:
No-name-case mit Supermicro A2SDi-H-TF (Atom C3758), 64GB RAM, NVME-SSD für PFsense
Chenbro 21706, Asrockrack Epyc3101 ITX, 16GB RAM, 6x8TB WD Red an LSI 12G-SAS (Fujitsu branded)
Chenbro 21706, Gigabyte MC12-LE0 mit AMD 5650G Pro, 32GB ECC RAM - Testfarm und Backup2 mit 2x14TB WD Red (offline hot-swap).
XCase 3HE, s.u.
Ubiquiti Edge Switch 16 XG
HP 1800-24 1G uralt
Die zwei weißen Cat-Kabel nach links weg gehen zur Sungrow-PV-Station für Modbus und Ethernet. Die drei Glasfaser nach links gehen zum HAR/10G (blau), HAR/Glasfaserhausanschluss (weiß) und zur Gartenhütte/10G (gelb). Kabeltechnisch noch nicht schick, mir fehlen jetzt noch die richtigen Längen der Kabel.
Im Ubiquiti ist ein SFP-GPON-Modul von Zyxel, das von der Telekom offiziell vertrieben wird. Wird anstandslos erkannt, Port auf VLAN7 und WAN-Port vom Atom auf VLAN7. Also Hausanschluss durchgepatched in die Garage läuft problemlos.
Das TV-Zeugs sollte im dicken Server mit laufen (vierter Slot), die Karte macht aber seit Umbau I2C-errors und verliert damit den Sender nach wenigen Minuten endgültig (Neustart nötig). Derzeit in einem externen Gehäuse mit Celeron j4125, in dem sie drei Jahre problemlos lief - nun auch mit Fehlern... kümmere ich mich im Herbst drum...

PXL_20240826_164728331_1.jpg


Der 3HE-Server: Asrockrack ROMED6U-2L2T mit Epyc7302, 2x64GB RAM, 5x1TB SN570, 2x2TB SN770, 6x14 TB WD Red, Mellanox CX456-ECAT dual 100G. Leider sind zwei weitere 64GB-LRDIMM nicht nutzbar, da eins defekt.
Die 100G sind per simplex-Singlemode über den HAR direkt (ohne Switch) an meinen PC im Obergeschoss durchgepatched.
Alle nvme-SSDs sind auf zwei x16->x4x4x4x4-nvme Bifurcation-Karten eingesetzt. Der Onboard-NMVE-Slot ist daher frei und im Bild mit einem NVMe-x4->PCIe-Adapter verbunden.
Die TV-Karte lief aber weder im originären noch im improvisierten Slot fehlerfrei, im Übrigen aber auch identisch "schlecht" - der Adapter funktioniert ganz gut.
Ein 2HE-Seasonic-Netzteil von ebay, ein 2- oder 3-HE-Kühler von Supermicro. Die original-Gehäuselüfter sind furchtbare Turbinen. Das wirklich billig gefertigte Gehäuse hat neben den drei Lüftern nicht genug Platz für die ganzen Kabel, daher musste ein Lüfterslot frei werden und zwei normale wegen der Lautstärke eingesetzt werden. Man hatte den Server durch die geschlossene rückwärtige Tür gehört...

Wenn der dicke Server, der Atom/Firewall, alle vier IPMI und die beiden Switche laufen: 220 Watt etwa...
Vom TV abgesehen ist das technisch für die nächsten Jahre der Endzustand. Hoffentlich.

Software:
- Atom C3758: pfsense bare metal
- Epyc3101: Ubuntu Server
- Testfarm: Was halt so gerade ausprobiert werden muss
- Server: Ubuntu Server, freetz, VMs für Nextcloud, iobroker, Kubuntu Desktop, Win10; eine VM für "internal services" für Unifi-Controller, TVH (soll-zustand leider), Emby (readonly auf SMB); eine VM für Homeassistant; eine VM für gaming-server (to be done, u.a. Minecraft, NWN1 und NWN2); es gibt eine Business-VM und eine für den künftigen Rasperrymatic-Dienst.

So. Soll wohl reichen. Schönen Abend!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Cooles Setup, richtig schoen Gaga.

Aber taeusch dich da mal nicht mit dem 'Endzustand'. Wir haben alle den gleichen Nagel im Kopf :d

Jetzt wo ich dein Setup sehe bekomme ich schon Lust LWL in den Keller zu werfen um den Kram nach unten zu verbannen... Dabei dachte ich, das ich fertig bin... :d
 
Wie? Was? Gaga? Diiieses Minimal-Setup???? Geht denn überhaupt weniger? Der besterino ist mir gnadenlos davongelaufen...!
 
Gar nicht wahr. Ich hab im Dauerbetrieb doch total abgerüstet - der Großteil staubt nur noch zu. :(

Aktuell läuft dauerhaft nur ein AM4-System mit nem 5950X, ein 48x1GbitRJ45/4xSFP+ Switch und ein 8x10GbitSFP+ Switch. Für den „neuen“ 100Gbit-Switch fehlt mir leider bisher die Zeit.

Und trotzdem frisst der Netzwerkschrank ca. 95W (inkl. USV) und der Server „nur“ ca. 75W (exkl. USV, inkl. USV 112W :O)
 
Was sind das für Gehäuse?
Die gefallen mir, ich ersuche um weiterführende Informationen!
Beitrag automatisch zusammengeführt:

Ups, ichse michse blind.
Chenbro 21706

Bei genauer Durchsicht werd ich da aber wohl doch passen müssen, weil mir diese 2 HE Ausführung wohl "zu laut" ist.
 
Zuletzt bearbeitet:
Geile Plattform fuer ne AIO-Schleuder. Wenn's nicht soviel Saufen wuerde :( ...
 
Ja, atm habe ich so ca 140 W im "Idle" bei ca 50% CPU Last. Werden wohl noch 10- 20W drauf kommen mit den LRDIMMS und der X540. Quad NIC und Telefoninterface fliegen noch raus.
 
Zuletzt bearbeitet:
Das sieht schwer nach 64GB Riegeln aus.
 
Ja, die Plattform läuft mit einem ASUS Board seit 2019. Habe auch drei PCI-E Karten drin atm. Wollte vor allem mal eine zweite SM883 für die VMs einbauen. RAM ist auch immer etwas knapp. Für Experimente musste ich immer einen Teil herunterfahren oder gar VMs löschen oder auf Platte verschieben.

Bei der Suche nach dem RAM Upgrade ist mir dann halt noch ein Board auf Ersatz, eine E5-2697A v4 für die Workstation, Kühler und paar kleine SSD über den Weg gelaufen. Sind drei SM883 240 GB für Filer, Host und schnelle Zwischenablage. Sowie zwei SM893a 240 GB, da geht eine in die Firewall und mit einer wurde gerade noch eine alte SFF Büchse aufgesetzt. Dann kann ich wenigstens Phoenix weiter laufen lassen, wenn ich den Server umbaue.

Im Server habe ich dann den Grossteil der Consumerware verbannt und die meisten Teile auf Ersatz, falls mal was abraucht. Genau so wie bei der Firewall, da hat der Messie Ali gleich zwei Boards auf Ersatz. Ausserdem kann ich so schlecht nein sagen, wenn mir da einer dauernd neue Teile unter die Nase reibt. :d

Die Plattform bietet schon auch seine Vorteile, wenn man vom Verbrauch mal absieht.

Bilder folgen, wenn der Umbau durch ist.
 
Omg, zum Glück hatte ich erst den Ersatzserver aufgebaut. Was für ein Desaster, nur schon die drei kleinen SSD auszutauschen. Dachte ja, klonst Du alle rasch mit Clonezilla. Das war eine dumme Idee. Hätte ja noch die originalen SSD. Aber setze jetzt ESXi und Filer neu auf. Was ne Zangengeburt. Zum Glück habe ich vorher noch paar Screenshots von den Netzwerkeinstellungen gemacht. Hoffe ich kriege das irgendwie wieder zum laufen. Zum Glück sind VMs und Backups auf napp-it. Hoffe nur, da zerbröselt es mir dann nicht noch mehr.

Eigentlich sollte ja alles brav per DHCP Adressen beziehen. Aber habe da selber nicht mehr so den Überblick im Moment in meinem Messie Netzwerk.

Und ans eingemachte aka Board oder RAM tauschen habe ich mich zum Glück nicht ran gemacht. Da lass ich dann schön den Kumpel schrauben. Musste eh erst mal eine Stunde meinen USB Stick suchen. Der ist unauffindbar, musste ich so ein uraltteil nehmen. Und IPMI wollte natürlich auch nicht mehr. usw.

Erst mal was essen. Bin grad bisschen resigniert.
 
Im worst case einfach mal eine Nacht drüber schlafen.

Never touch a running system - übel, wenn man mal muss. I feel you. Wobei ich in den letzten Jahren vieles "verkompliziert" habe, um es mir am Ende "einfacher" zu machen... (wobei ich bei weitem nicht so einen Umfang hab, wie du ihn hast... habs jetzt aber auch nicht nur auf Heimnetzwerk bezogen).
 
O11 Evo Rgb mit dem 9700X im Aufbau begriffen. NH-D15 ist deutlich kühler (Delta 15K !) als meine vorhandene Arctic LF2 280 (merkwürdig, aber war so. Und ja, ich weiss wie man eine Arctic LF einbaut.)
Primäre Graka = iGPU, Graka Arc A750 =sekundäre GPU. (ystem dient nicht dem Zocken, sondern wird mein neues Hauptsystem (=Arbeitstier).
Die Arc zieht etwa 13W Idle. die anderen 16W sind das System.
Und nein, oben fehlen keine Lüfter. Das bleibt so da mehr als ausreichend. Der soll nur dafür sorgen dass von der Arc aufsteigen Wärme sich im invertierten Case nicht staut. Hauptwärme geht am hinteren Lüfter raus.

Oben kommt noch ne Soundblaster X-FI (vorhanden, aber noch im bisherigen Hauptsystem im Einsatz) rein.

o11arc_kl.jpg
 
Zuletzt bearbeitet:
NH-D15 ist deutlich kühler (Delta 15K !) als meine vorhandene Arctic LF2 280 (merkwürdig, aber war so. Und ja, ich weiss wie man eine Arctic LF einbaut.)
das wundert auch mich.... habe die 280er LF2 auch auf nem 3900x noch laufen und der geht max auf 65 Grad bei Dauerlast (wie du schon nanntest mit dem kit das den Heatspot verschiebt was bei meiner 280er dabei war und 0815 AC4 Paste) in nem "alten" Lian Li lancool 2" (die CPU geht aber in ein MC12 und das MB geht zu der Bucht) . das Case bekommt ein Livemixer B650 und nen 7700


dann kann ich endlich mein "Haupt-System wieder auf Linux laufen lassen :)
 
Zuletzt bearbeitet:
Es wird noch nen Gegentest mit ner Thermalright 360 AIO auf dem 9700X geben. Ist bestellt und z.zt. unterwegs.
Wenn ich viel Zeit hab, vielleicht auch die 280er Arctic auf nem anderen System (ist aber AM4) noch.
 
Das erstmal finale Setup. Die AIO ist gut, die 95-96 Grad werden damit nicht mehr erreicht ! CPU ist nun umgestellt von "120W PPT" auf "AK voraus, alles was drin ist LI !".
Ferner die Arc A750 ersetzt durch eine 4060, die läuft deutlich effizienter (Idle und auch unter Last).

9700x_gforce_aio.jpg
 
Dieser Moment... wo du denkst, das Setup ist eigenltich ziemlich geil... 6x 3,5" in 4x 5,25" mit Lüfter... in sauber und günstig.
1726424874756.jpeg
Hot swap brauch ich echt nicht in der Kiste... da kann ich mir die 100€ pro fehleranfälligem Block sparen.

.... aber dann... passiert DAS:
1726424954721.jpeg

Jetzt überleg ich, ob ich damit leben kann.
:d
 
Ich. :rofl:

Ist aber okay, muss ich den Käfig halt nach vorn rausziehen... sind ja nur 4 Schrauben. :rolleyes:
Dafür gabs das Gehäuse geschenkt (und das ist sonst ziemlich gut aufgeteilt für meinen Zweck) und pro 2x5,25>3x3,5 Einschub hab ich 10€ gezahlt, insofern ne Sache, mit der ich leben kann. Hab nicht vor, die Platten öfter zu tauschen.

Trotzdem blöd halt, wenn man über sowas stolpert. :d

Die Sache sauber zu Rackisieren würde mich halt wieder 4-stellig kosten, knapp kalkuliert knapp 4stellig, realistisch wsl. mit einem 2er vorn. Dafür bin ich mir jetzt zu geizig, dann lieber mit so einem Krampf leben. :fresse::wall:


PS: Wsl. ginge es sich aber aus, hätte man ein MB mit "Standardlayout"...
 
wie kommst du auf 4-stellig um das in ein Rack zu packen?

Hast du schon ein Rack?
 
So liebes Forum, ich hab mich mal dem Montageproblem des allseits beliebten 2x M.2 PCIe Risers angenommen.

Ist ein günstiger Riser, der für die AMD APUs (x8x4x4 Bifurication) sinnvoll ist, da x8 el. (mech x16) weitergegeben werden und die x4x4 auf 2 M.2 Plätze gelegt werden.
Weiterhin passen Low Profile Karten. Naja, passen. Mehr oder weniger - leider passen die Low-Profile nicht direkt.

Ich hab etwas überlegt, was man machen kann und einen Adapter gezeichnet, den man "dazwischen stecken" kann wenn man daraufhin eine Low-Profile Karte befestigen will.

Problem: Die Low-Profile Karte ist eigentlich 4-5mm (je nach Kraft und Messung) zu hoch und schließt nicht bündig ab (aber immer noch besser als zu kurz).
Man muss also zum befestigen eine geeignet lange UNF 6-32 Schraube nehmen (hat man eher nicht daheim) mit irgend einem 4-5mm Abstandhalter, (5-7 M4 Unterlegscheiben gingen, sind aber Mist, weil man die alle verliert bei der Montage, besser ein Kunststoffabstandhalter) dann hält. Werkzeuglose Montagesysteme sind eher nicht so, logisch.

Das Blendenstück ist auf der Riser-Karte mit 1 Schraube verwendet, die ich bei einer anderen rausgebaut hab, in der Blende ist ein 2mm Loch gezeichnet, ich habs etwas mit ner spitzen Schere "aufgebohrt" und die Schraube reingedreht und damit das Gewinde geschnitten. Reicht ja, muss keine Kraft aushalten. Da kann man irgend ne Schraube nehmen da man zur Hand hat.

PS: Ist schwer zu drucken weils so dünn ist, aber dicker gehts nicht wirklich. Resin-Drucker wäre wohl ideal. Habs mitm Prusa Mini mit ner 0,4er Düse und PETG gemacht (ziemlich Standard).


Die Lösung ist zwar nicht ganz sauber aber ausreichend stabil, um das so bauen zu können.


Ich hab auch überlegt eine "ganze" Blende zu drucken, allerding sind Lochabstände der Blenden auf den PCIe Karten wohl leider nicht genormt, ich hab einige Karten verglichen und hatte überall andere Löcher. Ich hätte nur eine Blende mit "L"-Auflagefläche drucken können, in die man seine Löcher dann nach bedarf bohrt (2mm in 1mm Plastik schafft man auch mit der Hand).
Die Lösung wäre zwar für die gezeigte SATA-Karte akzeptabel, für Netzwerkkarten etc. aber nicht, da man da ja die speziellen Blenden braucht (könne man freilich mit etwas Aufwand anfertigen, aber das ist dann wieder nicht universal).


Vielleicht fängt ja jemand was damit an.
Beitrag automatisch zusammengeführt:

wie kommst du auf 4-stellig um das in ein Rack zu packen?
Nö. Ein ordentliches Rack und 2 nur halbwegs vernünftige 19" 4HE Gehäuse und etwas Montagezubehör (den Switch will man dann ja auch drin haben, etwas Kabelmanagement und so) werden bestimmt 4-stellig.
 

Anhänge

  • 1727216096708.jpeg
    1727216096708.jpeg
    324,4 KB · Aufrufe: 98
  • 1727216108071.jpeg
    1727216108071.jpeg
    186,9 KB · Aufrufe: 103
  • 1727216116493.jpeg
    1727216116493.jpeg
    298,6 KB · Aufrufe: 99
  • 1727216143786.png
    1727216143786.png
    87,9 KB · Aufrufe: 92
  • 1727216241620.png
    1727216241620.png
    399,3 KB · Aufrufe: 99
  • m2 riser slot blende.zip
    67,4 KB · Aufrufe: 23
Problem: Die Low-Profile Karte ist eigentlich 4-5mm (je nach Kraft und Messung) zu hoch und schließt nicht bündig ab (aber immer noch besser als zu kurz).
Man muss also zum befestigen eine geeignet lange UNF 6-32 Schraube nehmen (hat man eher nicht daheim) mit irgend einem 4-5mm Abstandhalter, (5-7 M4 Unterlegscheiben gingen, sind aber Mist, weil man die alle verliert bei der Montage, besser ein Kunststoffabstandhalter) dann hält.
Dann hier zum Kontrast noch mal meine "Metall-Lösung".
PXL_20240220_172030420.MP.jpg
 
Ja, M4 mit Gewalt durchballern geht natürlich auch. :d
Damit wird das Gehäuse halt unumkehrbar zum M4 an der Stelle.

Hast du unten auch was? Ich hab mir diesen Adapter nämlich gemacht, damit die Karten stabil sind und nicht "Kippen" im Slot wenn man festzieht...
 
kann man diesen m.2 "Riser" auch in Reihe stecken um 4x m.2 zu verbauen? :d

Hast du mal einen Link?
 
Ja, M4 mit Gewalt durchballern geht natürlich auch.
Also mit Gewalt war da nix.
Ich hab mir diesen Adapter nämlich gemacht, damit die Karten stabil sind und nicht "Kippen" im Slot wenn man festzieht...
Unten hatte ich nichts, war aber bei mir kein Problem, weil das oben tatsächlich bombenfest war.
kann man diesen m.2 "Riser" auch in Reihe stecken um 4x m.2 zu verbauen?
Dürfte nicht gehen, aber gibt bei Ali für fast alles passende Karten.
 
Zuletzt bearbeitet:
kann man diesen m.2 "Riser" auch in Reihe stecken um 4x m.2 zu verbauen? :d

Hast du mal einen Link?
Ebay, kostet ca. 13-15€, findest du einfach. Link hab ich nicht.
Nein, kann man nicht. Es werden die vorderen 8 Lanes durchgeschickt und die hinteren 4+4 eben zur M2 gemacht. Der 2. würde dann nix mehr tun auf den M.2s.
( PS: Ich hab ihn noch nicht probiert, ich geh vorerst mal davon aus, dass das so sein muss. Lol. Aber laut Form ist das so. )
Aber 4x M.2 Karten gibts ja zuverlässige.
Also mit Gewalt war da nix.
Naja, UNF 6-32 hat ca. 3,5mm außen, Kernloch wsl. um die 3mm, M4 ist jeweils ca. +0,5mm größer, wenn das Blech dünn/weich genug ist, ist "Gewalt" wohl Definitonssache. :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh