Und hier noch, zwei Bildchen meines jüngsten "Sperrmüllfunds":
"Entfernte" Ähnlichkeiten zu Systemen anderer sind selbstverständlich rein zufälliger Natur. Hehe - Spaß bei Seite! Das Board hatte ich schon lange unter Beobachtung (seit dem ersten Pressebericht), aber was das Drumherum, also Gehäuse und Netzteil angeht bin ich
@Simon74 sehr dankbar für seinen anregenden Bericht! Thx a lot! Ein wie ich finde, schöner Kompromiss, insbesondere dafür, dass das Ding die meiste Zeit ungesehen in ner finstren Ecke vor sich hin säuselt. ;-) Habe übrigens günstig eine "Window"-Version ergattern können. Fand ich insofern praktisch, um gelegentlich mal nach den Lüftern schauen zu können (da man sie ja nicht hört, bzw. hören sollte, was leider
[noch?] nicht klappt).
Die Hauptkomponenten ähneln sich aufgrund der selben Basis selbstversätndlich großteils. Was sich allerdings unterscheidet ist der interne, auf eine langfristig möglichst flexible Erweiterbarkeit ausgerichtete Aufbau:
Auf dem System läuft Proxmox mit einer virtuellen Truenas scale Instanz (an die der 8-Port onboard SATA-Controller per PCI passthrough durchgereicht wird), sowie zwei drei VMs und ein paar LX-Container. Am onboard-SATA Controller hängen aktuell zwei alte 2TB WD Red HDDs für Tests. Als VM-Storage kommt ein Paar als ZFS-Mirror betriebene DataCenter-SSDs (U.2) zum Einsatz, die jeweils über einen PCIe 4.0 x4 M.2->U.2 Adapter mit entsprechenden 16GT-SAS-Kabeln (s. Fotos) angebunden sind - funktioniert problemlos, lspci -vv meldet volle 4.0 x4 Geschwindigkeit an beiden SSDs!
Somit sind zwei der insgesamt drei miniPCIe (M.2) Slots belegt. Im Dritten steckt derzeit eine non-DataCenter 1TB NVME als Boot-Drive für Proxmox (die regelmäßig gesichtert wird) - hätte sie gerne gespiegelt, habe aber keine Ports mehr frei (ggf. kanm ich da nen Adapter, M.2-Riser anbinden der zwei SATA-Ports bietet, mal schauen). Die Redundanz der VMs war mir wichtiger als die der Bootplatte. Da aktuell noch alle PCIe-Slots frei sind, kann ich immer noch nen HBA einbauen (denke aber, dass mir die 8xSATA für Truenas locker reichen werden). Aktuell bilde ich mir ein, die PCIe-Slots besser für 10Gbit-Netzwerk und ggf. eine kleine GraKa aufzuheben, mal sehen was ich auf'm e-Sperrmüll demächst Gutes finde. Und falls alle Stricke reißen und ich zu dem Schluss kommen sollte alles, also quasi Spannung, Spaß und Schokolade (HBA, 10Gbit und GraKa) reinstecken zu müssen, könnte ich die SSD partitionieren und einen ZFS-Boot-Mirror einrichten - habe ich aber eigentlich nicht vor: die Trennung Host/Guests ist mir sehr wichtig!
CPU: Core i5-14500
RAM: 2x 32GB ECC (Kingston)
SSDs: 2x PM9A3 U.2 (Samsung)
HDD: 2x 2TB (WD Red, nur zu Testen, von PCI passthrough)
Gehäuse: s. Simon74
Netzteil: s. Simon74
Achso: Wie man auf dem Foto (Board-Rückseite) sieht habe ich die manuelle Lüftersteuerung des Gehäuses außer Betrieb gesetzt. Ich dachte ich überlasse dies dem Board, was aber aktuell leider nicht klappt (
die geringen Drehzahlen der Lüfter lösen Alarme im BMC aus). Habe daher die PWM-Lüfter bis auf einen (siehe Foto, vorne-oben, grau) wieder ausgebaut. Der eine übrig gelassene dient zum Testen und zur Ursachenforschung (noch habe ich die Hoffnung nicht aufgegeben, dass es eine Möglichkeit geben wird die Lüfter zu verwenden - bin gespannt).
Aktueller Idle-Energieverbauch: ~40W (Proxmox, ungetuned, wobei ich hinsichtlich eines weiteren Energietuning skeptisch/realistisch bin: wird vermutlich nicht mehr viel gehen).
Also auch hier ähnlich mit Simon74's Build und voll im Rahmen dessen, was ich mir wünschte: soll einen QNAP 6-Port-, einen ESXi 6.7-Server und eine pfSense@APU ablösen, die derzeit zusammen 100W ziehen (da sind 40W zukünftig eine deutliche Verbesserung).