Sparsamer Homeserver für die nächsten 10 Jahre

DeathDealer

Enthusiast
Thread Starter
Mitglied seit
10.08.2006
Beiträge
261
Ort
CH
Hallo

Nach etwa 10 Jahren ist es an der Zeit für einen neuen Homeserver. Kurze Historie und Übersicht zum aktuellen Stand:
  1. Bis Anfang Jahr hatte ich einen HP ML310e (über das Forum darauf aufmerksam geworden, E3-1220v2, 32GB Ram9. Darauf lief Proxmox, wo ich primär eine XPEnology VM dauf hatte für die 3*16TB + 1*18TB (=50TB nutzbar). Sonst noch ein paar VMs für Spielreien und zuletzt auch vermehr auf Docker gesetzt.
  2. Da der ML310e im Idle aber fast 100W nahm und mich diverse andere Dinge stets gestört haben (Lüfter musste gemodded werden da stock zu laut, Proxmox Upgrades waren stets mühsam), hab ich Anfang Jahr auf eine Baremetal-Installation von XPEnology auf einen HP Microserver G8 (E3-1220L V2, 8GB Ram) gesetzt.
  3. Des Weiteren hab ich ein altes Datengrab (E3-1220, 8GB, jünst auf Unraid gewechselt, weil FlexRAID längst EOL:coffee2:) mit unterschiedlichen HDD-Grössen (12* 3TB - 10TB, total 46TB nutzbar), quasi als Recycling. Das Ding läuft nur selten und eher, um Media vom XPEnology zu archivieren.
  4. Auf 2 Raspis laufen PiHole & HomeAssistant.
  5. Dazu kam ein Asrock X300 (4650G, 32GB, 2TB NVMe SSD) um mich wieder mit Docker vertraut zu machen (und ich liebs). Aktuell laufen ca. 20 Container drauf (Portainer, Watchtower, Nginx Proxy Manager, Uptime Kuma, Changedetection, 2 Jellyfin-Instanzen, diverse eigene Web-Applikationen, Homepage-Dashboard, Ntfy-Server, diverse Torrent-Apps für Linux-Isos.
Dazu hab ich noch rumliegen:
  • 2x Mellanox SFP 10Gbit MCX311A-XCAT CX311A (gekauft vor 4 Jahren, aber auch nach diversen Anläufen nicht zum Laufen gebracht)
  • 2x HBA LSI 9211-8i (nicht mehr 100% sicher, dass es dieses Modell ist)
  • SATA-SSD: Crucial MX500 1TB

Ihr seht, es hat sich etwas Blech angesammelt. Gerne möchte ich mind. die Server 1-4 in einem neuen Home Server vereinen, der 24/7 läuft, verhältnismässig sparsam ist und leise ist. Der neue Server dürfte dann wieder rund 10 Jahre seinen Dienst verrichten, mit kleinen Änderungen. Ich will umziehen und geh davon aus, dass ich dann ein kleines Büro haben werde oder dass der neue Server vielleicht auch versteckt irgendwo im Wohnzimmer stehen wird.
Des Weiteren hab ich mir überlegt:
  • Formfaktor: präferiert mATX, ATX gänge auch. Wenn die Kiste in ein unscheinbares Case ginge wäre natürlich auch geholfen. Mini ITX wäre natürlich spannend, da fehlt mir aber die Erweiterbarkeit für die nächsten 10 Jahre.
  • Speicherplatz: Da ich aktuell rund 100TB habe, die zu 90% voll sind, brauch ich noch etwas mehr Storage:
    • 3*16TB Seagate Exos bereits vorhanden
    • 1*18TB Seagate Exosbereits vorhanden
    • 4*20TB zusätzlich als RAID5/Z1 bzw. 5*20TB als RAID6/Z2
    • 2TB SSD für OS, VMs, Container
  • Erweiterbarkeit: evtl. 10Gbit (Mellanox Adapter die ich noch hab oder vielleicht doch 10GBASE-T?)
  • OS/Software: Habe Proxmox als OS vorgesehen, wichtig ist mir dann dass die Hardware wirklich kompatibel ist und OS-Upgrades einfach vonstatten gehen.
    • VM TrueNAS Scale/Core: Will einen grossen ZFS Pool haben, den ich aus den Containern/VMs bespiele.
    • VM XPEnology: Mag diverse Synology-Apps (Photos, Drive, HyperBackup auf Offsite-Syno) einfach sehr gut, vielleicht kann ich die mit der Zeit anderweitig ersetzen.
    • VM Ubuntu/CentOS als Dockerhost: Hier sollen dann die ganzen Docker Container ihr Zuhause finden.
    • VM HomeAssistant: Da unter Docker nicht voll nutzbar, als eigene VM.
  • CPU: Aufgrund der genannten Applikationen hätte ich etwas im Midrange angedacht, auch wegen der Effizienzanforderung. Also irgendwie 4-8 Kerne? Idealerweise auf einem Sockel, auf dem ich später noch ein Upgrade vornehmen könnte, sollte ich mehr CPU-Power benötigen, dann halt zulasten des Energieverbrauchs.
  • Nice-to-have:
    • GPU (idealerweise als APU): Für Transcoding. Alternativ würde ich solche Dinge halt weiterhin auf dem X300 laufen lassen.
    • IPMI/ILO oä: Hatte ich bei den HP Servern zwar, viel genutzt hab ich das jedoch nicht. Mit PiKVM könnte man das noch nachrüsten, wenn doch noch Bedarf wäre?
  • Budget: Grob <1000.- exkl. Disks. Gebraucht oder neu spielt mir weniger eine Rolle.

Fragen:
  1. Idee allgemein mit Zusammenlegen sinnvoll? Oder würdet ihr das anders aufteilen? Speziell die Speicheranforderung sehe ich im Konflikt mit dem tiefen Energieverbrauch.:fresse2:
  2. Proxmox als OS - ist das wartungsarm mit einem Systemvorschlag zu betreiben? Wie oben geschrieben hatte, musste ich doch relativ viel Frickeln mit dem ML310e. Oder eher ein anderes Host-OS?
  3. Speicher Pool: Wie kann ich den Speicher sinnvoll aufteilen, damit ich ca. 20TB habe, wo ich die aktuellsten Daten vorhalten kann, wenn aber nötig ich einfach auf den grossen Pool zugreifen kann, wenn nötig, sonst soll der im Ruhezustand verbleiben? Also irgendwie 1 HDD läuft dauernd, der ZFS-Pool kommt online bei Zugriff - geht das mit ZFS?
  4. Ist es weiterhin so, dass ZFS 1GB je 1TB verwalteten Speicher benötigt? Dann würd ich mir eher überlegen, welche Daten effektiv ZFS benötigen (vermutlich <20TB) und der Rest weiterhin über die Synology als RAID5.
  5. Systemvorschläge ;)
  6. Passende Cases für die Mühle. Finde Jensbo N1, N2, N3 schön, aber halt nur miniITX und selbst der N3 dürft für die vielen Disks nicht reichen? Vielleicht Fractal Node 804?

Vielen Dank vorab für die Hilfe!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dazu hab ich noch rumliegen:
  • 2x HBA LSI 9211-8i (nicht mehr 100% sicher, dass es dieses Modell ist)
Hardware-Raid ist meines Erachtens nicht mehr zeitgemäß.

Des Weiteren hab ich mir überlegt:
  • Formfaktor: präferiert mATX, ATX gänge auch. Wenn die Kiste in ein unscheinbares Case ginge wäre natürlich auch geholfen. Mini ITX wäre natürlich spannend, da fehlt mir aber die Erweiterbarkeit für die nächsten 10 Jahre.
  • Speicherplatz: Da ich aktuell rund 100TB habe, die zu 90% voll sind, brauch ich noch etwas mehr Storage:
Also bei 100TB++ wird selbst ATX eng. Hier wird langsam ein 19"-Rack interessant. Micro-ATX ist auf jeden Fall raus. Außer bei einer externen Lösung.

  • CPU: Aufgrund der genannten Applikationen hätte ich etwas im Midrange angedacht, auch wegen der Effizienzanforderung. Also irgendwie 4-8 Kerne? Idealerweise auf einem Sockel, auf dem ich später noch ein Upgrade vornehmen könnte, sollte ich mehr CPU-Power benötigen, dann halt zulasten des Energieverbrauchs.
  • Nice-to-have:
    • GPU (idealerweise als APU): Für Transcoding. Alternativ würde ich solche Dinge halt weiterhin auf dem X300 laufen lassen.
Bei Interesse hätte ich hier einen Ryzen 5 Pro 4650G rumzuliegen. Lässt sich via UEFI auf 35 Watt drosseln.

Zu allem anderen kann ich noch nicht viel sagen.
Beitrag automatisch zusammengeführt:

Also bei 100TB++ wird selbst ATX eng. Hier wird langsam ein 19"-Rack interessant. Micro-ATX ist auf jeden Fall raus. Außer bei einer externen Lösung.

Die Aussage ziehe ich mal zurück. :sneaky:

Beim Fractal Node 804 kommt man wohl bei RaidZ2/Raid6 auf ca. 160 TB. Aber ich habe auch nicht alle Gehäuse im Kopf.
 
Zuletzt bearbeitet:
Hardware-Raid ist meines Erachtens nicht mehr zeitgemäß.
Die HBA hatte ich stets im IT-Mode (lange her), also stets als Software-RAID genutzt. HW-RAID käm mir auch nicht mehr in den Sinn. :⁠-⁠)

Rack geht halt nicht aus diversen Gründen: zu gross und v.a. zu laut:LOL:
 
- Die CPU "obenrum" zu limitieren macht keinen Sinn, solang Case+Kühler das abführen können; an der Idle-Leistungsaufnahme ändert der Eco-Modus nämlich rein gar nichts.
Abgesehen davon: Der 4650G/4750G oder 5650G/5750G ist sicher eine interessante und relativ sparsame Plattform, es kommt aber immer auch v.a. aufs Board und andere Hardware an, wie sparsam ein System wird.
Wenn man viel I/O-Bandbreite und PCIe-Geräte will, wird halt ein 5600 und höher, also non-APU, interessant da die PCIe gen4 können und auch den x16-Slot ein kleinwenig flexibler nutzen können (Aufteilen auf 4 Geräte a 4 Lanes ist damit möglich, die G-Serie kann nur x8x8 und x8x4x4 aufteilen (immerhin flexibler als Intel 1700) )

- das 804 würde ich mir stark überlegen, denn die Festplatten sind daran aufgehängt wie an Stimmgabeln. Je nach HDDs und restlichen Einbauten kann (muss nicht) das durch deren Schwingungen zu unschönen Resonanzeffekten führen, sprich die Kiste fängt in solchen Fällen dann das Brummen/Vibrieren an.
Wichtig: Airflow für die HDDs. Die dicken Enterprise-HDDs werden schnell heiss.

- warum sollte Micro-ATX "raus" sein? Casemässig potentiell ja, aber sicher nicht vom Mainboard-Formfaktor.

- Nein, ZFS braucht nicht zwingend 1GB Ram pro 1TB Poolkapazität. Das ist eine reine Legende; erst aktive Deduplizierungs-Funktion wird Ram überproportional notwendig.
Richtig ist, das ZFS bzgl. Performance enorm von Ram profitiert, es kommt aber immer drauf an: wieviele Prozesse greifen auf die Daten in welcher Art und weise zu.
Ohne Speicher für VMs zu brauchen: Go for 16, besser 32GB Ram. Damit ist ein "Datengrab" mit nur leichten Zugriffen schon brauchbar ausgestattet.
Plus das, was VMs/Container benötigen. Ram ist relativ billig noch zur Zeit und davon kann man eigentlich nicht genug in der Kiste haben. Aber bitte keinen hochgezüchteten Gaming-Ram mit "bling bling", sondern soliden 3200er ECC-Ram (Udimms, kein registered). Damit laufen dann auch normalerweise 4x32GB Module (hab ich ja zweimal so im Einsatz).


- Zu der Frage "3" (einzelne ruhende und laufende HDDs mit ZFD) : Nope, das geht nicht. ZFS ist kein Unraid. Spindown kann man machen, wird aber nicht empfohlen. Wenn, dann alle HDD idle oder alle HDD drehend.
Du kannst aber z.B. in der gleichen Maschine zwei ZPools machen: einen für ständig benutzten Kram und einen für Cold Storage/Media Inhalte. So hab ich das gelöst, der ständig benutzte Kram und VMs liegt alles auf SSD-Pools, seltener benutzte Sachen auf dem HDD-Pool. VMs gehören eh nicht mehr auf HDD-Pools.


Das Jonsbo N3 sieht durchaus insteressant aus, wenn man ein mini-ITX z.B. von Asrock Rack verbaut. Allerdings sollte man wohl die Lüfter austauschen gegen leise, das Case wird zwar mit 100mm Lüfter angegeben, die Schrauben passen aber ebenso für 92mm. Also kann man wunderbar Arctics, BeQuiets oder Noctuas verbauen. Die Frage wird sein: wieviel Luft geht da durch bei der engen HDD-Bestückung und reicht das, um die kapazitätsstarken und gerne recht warmen Enterprise-HDDs (Exos, Ultrastar) zu kühlen.
Ein bissl Sorgen macht mir die Lüfterbauhöhe für das Board da drin, da wird man sich mit der CPU-Leistung etwas zurückhalten müssen.
Aber: Könnte der Selbstbau-Nachfolger des HP Microserver G8 werden.


Btw: Beispielkonfigs siehe meine Signatur.
 
Zuletzt bearbeitet:
- warum sollte Micro-ATX "raus" sein? Casemässig potentiell ja, aber sicher nicht vom Mainboard-Formfaktor.
Bezog sich auf das Case.. Hatte ich aber auch gleich revidiert.

Und ich starte gerade erst im Serverbereich. Bitte um etwas Nachsicht.
 
Ich mach hier mal mit, ich bin in ähnlicher Situation.

wird halt ein 5600 und höher, also non-APU, interessant da die PCIe gen4 können
... ach der 4650G kann nur PCIe 3.0, das ist also die Sache, die ihn so billig macht.
Der 5750G kostet halt fast das 3-fache, für realistisch wohl die gleiche Leistung... :d
x16-Slot ein kleinwenig flexibler nutzen können (Aufteilen auf 4 Geräte a 4 Lanes ist damit möglich, die G-Serie kann nur x8x8 und x8x4x4 aufteilen
Bei allen MBs so?
Ich hab mir nämlich ein Asus B550 rausgesucht, kann ECC, hat Intel 2.5Gbit LAN (das passt mir erstmal)...
Wie wäre das denn mit dem 4650G, 8-4-4 wäre ja eigentlich okay. Oberer M2 hängt eh direkt an der CPU, bei belegter unterer M2 wären das dann 8/4 PCIe 3.0 lanes auf den beiden großen (x16 mech.) Slots, wenn ich richtig verstehe?
Damit könnte ich dann eine 10G NIC und eine Schnittstellenkarte (SAS oder U3 in Zukunft, vorerst sollten mir 6 SATA reichen) versorgen - was für mich okay wäre.

Gibts nen Grund das anders zu machen - also im überschaubaren Rahmen?

VMs gehören eh nicht mehr auf HDD-Pools.
Offenbar kennst du dich überdurchschnittlich gut aus, lass mich dich noch etwas fragen :d...
Ich hab jetzt einiges über OMV gelesen, bin noch unschlüssig, was es am Ende wird (und ob baremetal oder VM), dort legen sie gern das OS auf einen USB-Speicher (würde ich jetzt nicht, macht wohl auch diverse Probleme) und das Docker-Zeug auf eine SSD, wobei sie da über die hohe TBW Last jammern. Gibt wohl ein Plugin, das die Schreiblast am Flash verringert.

Ich für meinen Teil würde eigentlich gern OS und den Rest auf eine M2 SSD legen, bleibt die Frage, was man da kauft.
Mit/ohne DRAM Cache? Mit/ohne PLP? Wie hoch ist die Schreiblast wirklich?
... ich mein eine 970 Evo Plus 1TB gibts für 55€, da muss ich mich nicht mitm (fast genau so teuren) USB-Stick herumquälen. Ne Micron/Samsung Datacenter mit/ohne DRAM-Cache (was denn nun) und PLP (ob man das "braucht") gibts auch für unter 150€, wenn das Ärger spart, ist das im Prinzip ja gut angelegtes Geld.


So Späße wie USV, redundantes Netzteil und so fallen raus, das wäre einfach nicht Verhältnismäßig für mich.
 
Nein, der mech. x16-Slot bei diesem Board hat nichts mit den CPU-Lanes zu tun, der kommt immer vom Chipsatz.
Wenn, musst Du den x16 GPU-Slot mit Adapter-Riserkarten/-Kabeln aufteilen.
Btw, Bifurcation (=Aufteilung der Lane-Bündel) muss nicht zwangsläufig bei nem AM4-Board gehen; es muss vom Bios+Board auch unterstützt sein. Bei dem genannten Board hab ich keine Erfahrung, ob es damit geht.

Btw, der 5650G+5750G können auch nur PCIe3 (keine AM4-APU kann gen4) , haben aber Zen3-Kerne mit deutlich höherer Singlethreadleistung, etwa +20-25% pro Kern bei gleichem Takt.
Wenn man 10G fahren will mit Samba => go for maximale Singlethread-Leistung. SMB ist vielfach nur singlethread (ausser Solaris und ich meine OmniOS).

2.5G Lan ist eine bisweilen etwas schwierige halbgare Sache; nicht alle Hypervisoren können damit umgehen. ESXI z.B. kann bei einer Intel X550, obwohl die 2.5G kann, nur 1G oder 10G einstellen.

OS pack ich nie nur auf USB-Sticks; das war mal zu Zeiten älterer ESXI-Systeme so.
Meine Meinung: SSDs immer mit Dram-Cache. Idealerweise mit PLP, das würde ich aber immer auf die jeweilige Nutzung ankommen lassen. Mein großer Server hat mit PLP (2x 8TB Samsung PM9A3) auf dem SSD-Pool, der kleine hats nicht (2x 4TB WD SN850X). Als OS-Drive hab ichs normal ohne PLP; eine 970er setz ich da recht gern ein.

Zu OMV kann ich nichts sagen: nie probiert, nie eingesetzt.
 
Zuletzt bearbeitet:
@pwnbert Ist nicht ganz richtig. Hier mal ne kleine Ryzenkunde. ;)

Zum einen gibt es den 5750G bereits für 244,- € bei Amazon. Ich hab meinen sogar für 190,- € im Angebot bekommen. Also grad mal das doppelte. Deswegen hab ich jetzt auch einen 4650G über.
Dazu liegt er nur in der Spieleleistung knapp über dem 5600. Bei reiner CPU-Leistung sind wir im Bereich 5700X/5800X.
Dazu hat der 4650G volle 24 Lanes. Also 16/4/4 oder 8/8/4/4. Auch ist der 4650G ein vollwertiger Zen2, also 3. Generation. Der Unterschied zum 3600 ist der L3-Cache, der nur 8MB statt 32 MB beträgt und wie erwähnt PCIe 3.0 statt 4.0 bei den 3000ern. Alles Punkte für Gaming. Als Server-CPU macht das aber nichts und ist auch kaum messbar. Vor allem, weil SAS-HBAs maximal 8 Lanes haben und meist nur auf PCIe 2.0, maximal 3.0 laufen. Selbst bei 2.0 laufen auf den 8 Lanes noch 4000 MB/s, bei 3.0 also 8000 MB/s durch. Ausreichend für 8 SSDs.

Ich habe meinen 5750G (davor den 4650G) auf einem Prime X370-Pro laufen. Das Board hat neben den hauseigenen 8 Sata-Ports ohne Sharing noch 2 SLI-fähige PCIe 3.0 Slots. Damit bekomme ich, wenn ich wollte, 24 SSDs auf volle Geschwindigkeit. Bottleneck wäre hier nur noch das Case. Beim Prime X470 wären dass immer noch 22 SSDs, dazu aber noch eine zweite M.2 mit 3.0 x2. Beide Boards können mit den PRO Ryzen auch ECC, von Asus bestätigt.

Da kann ein B550 mit 5600 sicher nicht mehr mithalten. Egal ob PCIe 4.0 oder 32 MB L3.

Zur 970 Evo kann ich sagen, dass diese gerade im 256/512-GB-Bereich alles einstampft. Keine Ahnung wo Samsung den Cache her hat. Ab 1 GB nehmen sich die guten Riegel nicht mehr viel. Da sind Crucial P3, WD SN570, Corsair MP510 oder jede Marken-4.0 (im 3.0-Slot) mehr als ausreichend.
 
Zuletzt bearbeitet:
Du bekommst die SSDs, die am Chipsatz hängen, nicht voll ausgelastet wenn Du dessen Ports voll nutzt.
Weil an Bandbreite nur etwa 3,4-3,5GByte/s zwischen CPU und Chipsatz möglich ist ; die Anbindung ist 4 Lanes gen3 bei der APU. Da muss alles drüber, was Du an PCIe und SAta dranhängst.
8 Ports Sata mit hochwertigen SSDs erzeugt Dir seriell schon 4 GByte/s traffic.
Wenn da dann auch noch PCIe-SSDs oder 10G drüber soll => oh oh.....da wirds arg duster (Bei gleichzeitiger Nutzung, also z.B. SSD-Raids).
Das Hauptproblem bei den 300er und 400er Chipsätzen ist dann noch, dass alles PCIe da dran nur PCI gen2 ist. Man limitiert sich da deutlich.

Darum bin ich auf auf dem grossen und kleinen Server auf X570 bzw. B550 und ne Non-APU; damit ich die I/O-Bandbreite von AM4 deutlich besser ausnutzen kann.

Aber, ich stimme Dir zu, der 5750G ist durchaus ne sehr nette CPU; drum hab ich den im Desktop-Hauptsystem. :-)
Die 4000er und 5000erAPUs können die gpu -lanes auch x8x4x4 aufteilen (nicht nur x8x8) , die non-apu auch x4x4x4x4 (jeweils plus x4 SSD plus x4 chipsatz natürlich).

Aber, unterm Strich, mit gut konfigurierten AM4-System kann da schon einiges bzgl. Serverdiensten aufbauen, ohne dass man den Stromverbrauch und Preis der grossen Sockel bemühen muss.

Btw, SAS-HBA mit gen2 sind schon etwas leicht angegraut. Für HDD-Pools okayisch (solange man ohne Expander arbeitet), für SSD-Pools klarer Engpass.
 
Zuletzt bearbeitet:
Klar, hast du Recht mit den Limits an 3.0. Aber wann wird das tatsächlich alles so voll ausgereizt?!? Und LAN läuft ja dann über den Chipsatz. Ich wollte nur aufzeigen, was mit 4650G auf X370 bzw. X470 nur über die GPU-Lanes möglich ist.
Wem das nicht ausreicht, der geht dann wie du auf mehrere System, wahrscheinlich auch im Cluster oder gleich auf Epic, Threadripper oder Xeon.
 
Ich würde dir immer zwei Server empfehlen:

Einen stromsparenden 24/7 Hypervisor mit SSDs und einen Fileserver auf dem ggf non 24/7 Dienste laufen…

Ich schalte meinen TrueNAS Scale Server nachts per CRON Job aus - der sparsame Thin Client läuft 24/7
 
Vorab bitte ich das Thread Hijacking zu entschuldigen, ich denke aber, dass es halbwegs hier her passt.

2.5G Lan ist eine bisweilen etwas schwierige halbgare Sache; nicht alle Hypervisoren können damit umgehen. ESXI z.B. kann bei einer Intel X550, obwohl die 2.5G kann, nur 1G oder 10G einstellen.
Bei TrueNAS schimpfen alle über 2.5G (besonders aber wohl, weil >90% dieser Chips Realtek sind) bei OMV tönt das alles recht positiv.
Wenn man 10G fahren will mit Samba => go for maximale Singlethread-Leistung. SMB ist vielfach nur singlethread (ausser Solaris und ich meine OmniOS).
Ist so ein 4650G dann auf einem Core schon ein Bottleneck für 10G Samba?
Der 5650G ist halt schon arg teuer im Vergleich (und arg mies lieferbar), immerhin +~ 110% für mehr oder weniger die gleiche CPU mit bissl mehr IPC (wie sieht das mit Energieverbrauch im Idle aus?). Aber erst nen 4er kaufen und dann nen 5er nachrüsten macht ja auch keinen Sinn.
Wollte vermeiden, dass das Projekt ausufert, ihr kennt das ja, aus 4650 wird 5650, aus 16gb werden 64gb ecc, ausm vorhandenen b550 wird ein neues b550 mit Intel NIC und ECC.... und so...

Ich hätte aber gern in jedem Fall eine APU mit Grafik, für alle Fälle und Testzwecke, ich hätt schon gern Bildausgabe ohne extra Grafikkarte.
Nein, der mech. x16-Slot bei diesem Board hat nichts mit den CPU-Lanes zu tun, der kommt immer vom Chipsatz.
Höh, lt. B550 Blockbild kommen doch 20 von der CPU, 16 davon aufn 1. 16er Slot, 4 davon auf den 1. M2.
Vom Chipset gibts dann noch die 2 zum SATA (weil das Board ja 6 SATA hat), 4 3.0er bleiben dann noch für die 2. M2.
Woher dann die Lanes für die PCIe 3.0 x1 Slots kommen hab ich kein Plan, teilt sich nicht der untere x16 Slot mit dem unteren M2 Slot und so das irgendwie? Da steig ich bissl aus bei der B550 Logik.

Und wie das jetzt mit einer PCIe 3.0 CPU anders ist, uhm...
Meine Meinung: SSDs immer mit Dram-Cache. Idealerweise mit PLP
Hab gelesen, dass PLP bessere Filesysteme wie Ext4 und ZFS wohl nicht brauchen sollen.
Micron 7400 pro hat beides, die 7450 pro keinen Cache, die vergleichbare Samsung mit PLP gibts imho auch nur ohne Cache.
Zur 970 Evo würd ich tendieren, weil mir die überbleiben wird in absehbarer Zeit (sonst halt die 7400 pro, aber um das Geld könnte ich auch Zen 3 statt Zen 2 kaufen...).

Bin für das Thema gerade etwas empfänglich, weil ich mir gerade erst mit kaputtem DDR4 (non-ECC) ein Windows auf NTFS zerschossen habe :d... hat während der Updateinstallation Page Faults geregnet :d... war aber auch das erste Mal, dass ich in 25 Jahren so einen Scheiß hatte (war dann aber eine knappe Woche [Freizeit]-Arbeit).
Zum einen gibt es den 5750G bereits für 244,- € bei Amazon. Ich hab meinen sogar für 190,- € im Angebot bekommen.
Da find ich nix. Und 5700G kann kein ECC. 5750G für 244€ würde ich natürlich kaufen. Einen passenden Link würde ich dankend annehmen :d.
Da kann ein B550 mit 5600 sicher nicht mehr mithalten.
Ne, das ist okay, mag bissl stromsparen und es nicht komplett ausufern lassen. Bevor ich mir hier 5 alte 4 TB Platten zum Raid mach, kauf ich lieber eine neue 20 TB. Die großen 19er Gehäuse sind ja auch nicht gerade bilig. Backup braucht es ja eh irgendwie, Raid schützt ja nicht vor Pech und Blödheit (deren Risiko ich als höher Einstufe als den Plattentod).
6 SATAs sind erstmal nicht viel, aber fürs Budget kommt es mir erstmal verhältnismäßig vor, und eine entsprechende Controllerkarte liese sich ja anschaffen, die volle Bandbreite brauch ich auch nicht überall zugleich.
Weil an Bandbreite nur etwa 3,4-3,5GByte/s zwischen CPU und Chipsatz möglich ist ; die Anbindung ist 4 Lanes gen3 bei der APU. Da muss alles drüber, was Du an PCIe und SAta dranhängst.
Für meine Zwecke in Ordnung. Das muss man erstmal übers LAN bekommen.
Naja dann kann ich wählen ob ich ECC oder Grafikeinheit will. 5600x/5700x hätte natürlich auch seinen Reiz, Aber für so 100% Headless fühl ich mich einfach viel zu Noobig bei dem Thema.
Ich möcht mir die Möglichkeit den Rechner mit "normalen" OS zu booten nicht total verbauen, wird zwar kaum eintreten, aber nachdem es ja doch ein vollwertiger Rechner mit Leistung ist, wäre das für komische Situationen durchaus ein brauchbares Backup (war erst froh, dass ich den 3570k noch hier stehen hatte).


Ich schalte meinen TrueNAS Scale Server nachts per CRON Job aus - der sparsame Thin Client läuft 24/7
Das ist ohnehin ein eigenes Thema.
 
Höh, lt. B550 Blockbild kommen doch 20 von der CPU, 16 davon aufn 1. 16er Slot, 4 davon auf den 1. M2.
Vom Chipset gibts dann noch die 2 zum SATA (weil das Board ja 6 SATA hat), 4 3.0er bleiben dann noch für die 2. M2.
Woher dann die Lanes für die PCIe 3.0 x1 Slots kommen hab ich kein Plan, teilt sich nicht der untere x16 Slot mit dem unteren M2 Slot und so das irgendwie? Da steig ich bissl aus bei der B550 Logik.

Und wie das jetzt mit einer PCIe 3.0 CPU anders ist, uhm...
Asus RS B550: Der PCIe x16_1 läuft voll mit 16 Lanes. Der PCIe x16_2 hat nur 4 Lanes und teilt diese mit PCIe 1, 2 ,3. Entweder der x16 mit 4 Lanes oder alle 4 mit je 1 Lane.
Der M.2_1 läuft voll auf 4 Lanes. Der M.2_2 teilt sich die Lanes mit Sata 5/6. Ist eine NVME im M.2_2 fallen Sata 5/6 weg.
Steckt eine PCIe 3.0 CPU im System, läuft alles mit 3.0 auf den Lanes wie angegeben.
Da find ich nix. Und 5700G kann kein ECC. 5750G für 244€ würde ich natürlich kaufen. Einen passenden Link würde ich dankend annehmen :d.

5750G bei Amazon
 
Ah, der liefert aber nicht in mein Land :d...

Danke für die Erklärung.
 
Österreich, 20€ versand, lol... na ich werd mir schon was finden. Mit der Beschaffungsfrage mag ich hier aber den Thread nicht zumüllen.
Sind ja noch paar Fragen offen.

Interessant wäre auch wie sich X470 zu B550 verhält vom Stromverbrauch her, Chipsetkühler von meinem B550 wurde nie wirklich heiß, der X570 am Asrock wird richtig schön warm (so dass das passiv beim Semi-Passiv eher selten ist). Ohne das jetzt zu messen, ist da ein ordentlicher Unterschied (Energieerhaltungssatz :d).

Von der Ausgangslage bin ich ja ähnlich wie der TE, bloß sinds bei mir keine 100TB sondern eher 20-30, wobei durch steigende Auflösung die Datenmenge eher zunimmt, ich dafür schon "ready" sein möchte für die nächsten Jahre, 10G ist auch (noch) kein Thema, 2,5G wird mir erstmal reichen, aber 10G "ready" sollte es schon auch sein.

Die eierlegende Wollmilchsau halt, leise und sparsam wie ein 4-bay-NAS, vielseitig und Leistungsstark wie ein Epyc/Xeon :d...
 
Hab gelesen, dass PLP bessere Filesysteme wie Ext4 und ZFS wohl nicht brauchen sollen.
Wenn das wo so steht oder jemand geäussert hat, ist das ein ziemlicher Unsinn. Wenn die SSD Daten in ihrem Cache nicht wegschreibt, egal ob Nutzerdaten oder Verwaltungsdaten des Controllers => welcome korrupte Daten.
Da helfen Dir Filesysteme wie ZFS auch nicht. Jedes Filesystem muss sich drauf verlassen, dass die Daten die es ans Hardwaredevice schickt und von dort bestätigt sind, so auch 100,00000% geschrieben sind.
Selbst redundante vdevs wie Mirror oder Raidz1/2/3 werden Dir da nicht verlässlich helfen, weil die ja potentiell auch korrupt sein könnten, wenns z.B. den Strom vom NT wegzieht oder das Mainboard plötzlich gehimmelt ist.
=> PLP alleine bringt nicht den Segen, aber es ist ein wichtiger Baustein in einem Konzept, die Wahrscheinlichkeit von korrupten Daten zu verringern.

Bin für das Thema gerade etwas empfänglich, weil ich mir gerade erst mit kaputtem DDR4 (non-ECC) ein Windows auf NTFS zerschossen habe :d... hat während der Updateinstallation Page Faults geregnet :d... war aber auch das erste Mal, dass ich in 25 Jahren so einen Scheiß hatte (war dann aber eine knappe Woche [Freizeit]-Arbeit).
Und wenn das nicht nur ein Windows-System ist, sondern bei einem Pool mit wichtigen Daten (deren letzter Stand evtl. auch noch nicht gebackupped ist) passiert, dann steigt der Adrenalinpegel recht schnell. Kann ich Dir versichern; alles schon erlebt.
 
Wenn das wo so steht oder jemand geäussert hat, ist das ein ziemlicher Unsinn. Wenn die SSD Daten in ihrem Cache nicht wegschreibt, egal ob Nutzerdaten oder Verwaltungsdaten des Controllers => welcome korrupte Daten.
Klingt als wäre das eine brauchbare "Schadensbegrenzung" im FS, so wie ich das verstehe (so viel versteh ich davon aus wieder nicht) verhindert das wohl in erster Linie die Zerstörung des Filesystemes (NTFS kann das ja recht gut). Ich versteh schon, was du meinst.
Also doch PLP und nix Evo? Mh.

Ich werd eh erstmal beginnen müssen und auf echter Hardware bissl was probieren, so ganz ohne Hands-On kann man sowas eh nicht ideal planen beim ersten Mal...
 
Das was in der Wiki steht, ist beschreibt Copy-On-Write bei ZFS. Das hilft Dir aber ggf. nix, wenn die SSD Verwaltungsdaten für den Controller (=> da steht vereinfacht gesagt drin, welcher Datensektor wo auf welchem Chip steht) noch nicht weggeschrieben hat. Dann können Dir im Ernstfall evtl. auch ruhende Bestandsdaten auf der SSD korrupt werden, wenn der Controller die gerade umlagert auf andere Chips.

Am Ende ist es ein "Spiel mit den Wahrscheinlichkeiten" und was ist man bereit dafür auszugeben, um die Wahrscheinlichkeit von Datenverlust (bzw. Aufwand zur Wiederherstellung) zu reduzieren. Am Ende kann das nur Dein Use-Case und die Brieftasche entscheiden.

=> Zum Rumspielen/Ausprobieren und Lernen braucht man sicher keine PLP, für einen einfach Media-Datenpool auch nicht wenn da nur Backups vorhandener optischer Datenträger drauf sind. Sind da dagegen essentielle Daten/Dokumente drauf, die man nicht verlieren will/darf, und nicht instant bnzw. sehr schnell Backups davon hat, würde ich dagegen immer PLP wählen.

In vielen Fällen passiert nichts, aber falls es dann mal passiert, dann kann je nach Dateninhalt schnell unschön werden. Also wie bei ECC/Non-ECC. => Wie gesagt, es ist eine Frage von Wahrscheinlichkeiten.

Ein Punkt dazu auch: Datacenter-SSDs mit PLP haben halt auch höhere Idle-Leistungsaufnahme unter anderem deswegen. Weil sie ständig ihre PLP-Stützkondensatoren geladen halten müssen für den Fall der Fälle.
Eine PM9A3 zieht Idle deutlich mehr Strom als eine typische highperformance Consumer-SSD wie eine SN850X, 980pro oder 990Pro.
 
Ein Punkt dazu auch: Datacenter-SSDs mit PLP haben halt auch höhere Idle-Leistungsaufnahme unter anderem deswegen. Weil sie ständig ihre PLP-Stützkondensatoren geladen halten müssen für den Fall der Fälle.
Logisch. Aber das kann nicht im ernsthaft interessanten Bereich liegen, oder?
Ich mein so schnell entladen sich die Kondensatoren ja nicht, deren Kapazität ist ja auch überschaubar (muss immerhin reinpassen dort). Das können ja nicht mehr als ein paar Milliwatt sein... also bestimmt deutlich unter 1W... oder überseh ich was?
 
Das ist nur ein Teilaspekt, auch gehen Enterprise-SSDs nicht in Idle weil dort ja kürzeste Latenzen gefragt sind.

Die Menge der SSDs macht die Musik, eine PM9A3 7.68TB und 15.36TB zieht z.B. ~3,5W Idle, das ist nicht weit weg vom Idle von aktuellen Helium-HDDs...
Wenn man sich da nen Pool baut, wird das IMO für den Heimbereich durchaus relevant, in Überlegungen mit einzubeziehen. Und auch die erzeugte Wärmemenge der SSDs, die ja dann im Idle mehr als bei Consumer-SSDs ist, muss ja raus aus dem Case.
 
Danke dir für deine Antworten und deinen Input, das hilt mir wirklich weiter.
Muss ich mal überdenken alles.

Nochwas, wie ist denn das nun mit der Schreiblast auf der System-SSD bzw. speziell auf der, für das Containerzeug?
Im TrueNAS und OMV Forum haben sie bissl gejammert, dass sie sich damit ziemlich SSDs verbraucht haben, wobei das durchwegs alte kleine SSDs waren (so aus der SATA 60-240gb Ära), gerade nachgesehen, meine 840 Evo 250gb hat 73 TBW, eine 1 TB 970 Evo Plus hat 600 TBW, die Micron 7400 960gb hätte 1.7PB (standard), 6.7PB (sequentiell)

Ich denk nicht, dass ich so viel brauchen werd. Aber ich hab kein Gefühl und keine Erfahrung, was das Dockerzeugs so im Idle schreibt.
 
  • Formfaktor: präferiert mATX, ATX gänge auch. Wenn die Kiste in ein unscheinbares Case ginge wäre natürlich auch geholfen. Mini ITX wäre natürlich spannend, da fehlt mir aber die Erweiterbarkeit für die nächsten 10 Jahre.
  • Speicherplatz: Da ich aktuell rund 100TB habe, die zu 90% voll sind, brauch ich noch etwas mehr Storage:
    • 3*16TB Seagate Exos bereits vorhanden
    • 1*18TB Seagate Exosbereits vorhanden
    • 4*20TB zusätzlich als RAID5/Z1 bzw. 5*20TB als RAID6/Z2
    • 2TB SSD für OS, VMs, Container
  • Erweiterbarkeit: evtl. 10Gbit (Mellanox Adapter die ich noch hab oder vielleicht doch 10GBASE-T?)
  • OS/Software: Habe Proxmox als OS vorgesehen, wichtig ist mir dann dass die Hardware wirklich kompatibel ist und OS-Upgrades einfach vonstatten gehen.
    • VM TrueNAS Scale/Core: Will einen grossen ZFS Pool haben, den ich aus den Containern/VMs bespiele.
    • VM XPEnology: Mag diverse Synology-Apps (Photos, Drive, HyperBackup auf Offsite-Syno) einfach sehr gut, vielleicht kann ich die mit der Zeit anderweitig ersetzen.
    • VM Ubuntu/CentOS als Dockerhost: Hier sollen dann die ganzen Docker Container ihr Zuhause finden.
    • VM HomeAssistant: Da unter Docker nicht voll nutzbar, als eigene VM.
  • CPU: Aufgrund der genannten Applikationen hätte ich etwas im Midrange angedacht, auch wegen der Effizienzanforderung. Also irgendwie 4-8 Kerne? Idealerweise auf einem Sockel, auf dem ich später noch ein Upgrade vornehmen könnte, sollte ich mehr CPU-Power benötigen, dann halt zulasten des Energieverbrauchs.
  • Nice-to-have:
    • GPU (idealerweise als APU): Für Transcoding. Alternativ würde ich solche Dinge halt weiterhin auf dem X300 laufen lassen.
    • IPMI/ILO oä: Hatte ich bei den HP Servern zwar, viel genutzt hab ich das jedoch nicht. Mit PiKVM könnte man das noch nachrüsten, wenn doch noch Bedarf wäre?
  • Budget: Grob <1000.- exkl. Disks. Gebraucht oder neu spielt mir weniger eine Rolle.

Fragen:
  1. Idee allgemein mit Zusammenlegen sinnvoll? Oder würdet ihr das anders aufteilen? Speziell die Speicheranforderung sehe ich im Konflikt mit dem tiefen Energieverbrauch.:fresse2:
  2. Proxmox als OS - ist das wartungsarm mit einem Systemvorschlag zu betreiben? Wie oben geschrieben hatte, musste ich doch relativ viel Frickeln mit dem ML310e. Oder eher ein anderes Host-OS?
  3. Speicher Pool: Wie kann ich den Speicher sinnvoll aufteilen, damit ich ca. 20TB habe, wo ich die aktuellsten Daten vorhalten kann, wenn aber nötig ich einfach auf den grossen Pool zugreifen kann, wenn nötig, sonst soll der im Ruhezustand verbleiben? Also irgendwie 1 HDD läuft dauernd, der ZFS-Pool kommt online bei Zugriff - geht das mit ZFS?
  4. Ist es weiterhin so, dass ZFS 1GB je 1TB verwalteten Speicher benötigt? Dann würd ich mir eher überlegen, welche Daten effektiv ZFS benötigen (vermutlich <20TB) und der Rest weiterhin über die Synology als RAID5.
  5. Systemvorschläge ;)
  6. Passende Cases für die Mühle. Finde Jensbo N1, N2, N3 schön, aber halt nur miniITX und selbst der N3 dürft für die vielen Disks nicht reichen? Vielleicht Fractal Node 804?

Just my 2 cents (ohne bisherige Kommentare gelesen zu haben:

vergiss ITX und nimm mind mAtx oder Atx (da bringt man gut 2-3 Pcie Karten unter) ... mATX hat sich bewährt

Überleg mal ob du 100TB Storage wirklich aktiv laufen haben mußt (sowas habe eigentlich nur Blueray Junkies daheim)
Ich sags mal so, für den Preis von 100TB gut gesichertem Speicher (inkl Backup) bekomm ich locker 10-20 Jahre alle streamingdienste :)

10GBe/SFP+ ist ein "nice to have" aber nur nötig um große Mengen an Daten schnell zu schaufeln steigert aber den Verbrauch und die Komplikation des ganzen Ökosystems hoch, 2,5GBe reicht sonst für alles und ist recht sparsam.

Proxmox kommt gut mit jeglicher normaler HW zurecht (ich hab bisher nichts wirklich gesehen was damit nicht läuft (da es ja im prinzip Debian ist)

wenn du ne APU brauchst musste explizit definieren wofür da einige Sachen nur die Intel IGP kann aber sonst die AMD IGP sehr potent ist.
"Transcoding" hört sich nach Versuchen an mit Plex auf eine IGP zuzugreifen, was nur sehr wenige CPUs können

IPMI macht das build schnell mal um 200-300€ teurer , brauchst du das wirklich ?
 
Zuletzt bearbeitet:
Danke für die vielen Inputs. Ich versuch das mal zu konsolidieren:

  • Gegen eine AM4-Plattform hat sich glaub ich niemand ausgesprochen. mATX wurde auch eher bestätigt.
    • CPU: Den R7 Pro 4750G ist aktuell am günstigsten von den ECC-fähigen CPUs. Mit 8 Cores aber vermutlich fast schon zu kräftig im Moment. Welche Ansätze könnte man hier fahren, um die CPU relativ sparend zu betreiben? Undervolting, Cores deaktivieren? Oder einfach stock belassen?
      Der 5750G ist in der CH grad unverschämt teuer, vielleicht ändert sich das wieder. Aber auch hier: Wie könnt ich die effizient betreiben?
    • MB: Könnt ihr ein paar Board-Empfehlungen machen, die mit Proxmox keine Mucken machen und idealerweise 4 RAM-Slots haben? mATX, möglichst viel PCIe-Steckplätze, stabiles BIOS, ECC-kompatibel. Idealerweise mit 2.5Gbit-NIC.
    • RAM: Wie ihr schon gesagt habt im Moment relativ günstig, da würd ich mal mit 2*32GB starten. Habt ihr hier noch Empfehlungen?
    • Case: Jonsbo N3 nimmt ja leider nur ITX auf, daher raus, hab ich eher als Referenz angegeben. Sonst bin ich noch aufs Fractal R5, Nanoxia Deep Silence 8 Pro gestossen, allesamt halt nicht mehr wirklich kompakt. :/
    • Netzteil: Was würdet ihr mit ca. 8 HDDs, 1 NVMe-SSD, 1 SATA-SSD empfehlen?
  • TrueNAS
    • Core/Scale: Für meine Zwecke beide denkbar? Was sind die Vor-/Nachteile?
    • Sind die ZFS-Pools auch so einfach remote mountbar wie die Synology-Pools?
    • Sollte das Board nicht ausreichend SATA-Anschlüsse haben, würd ich den HBA in Proxmox an TrueNAS durchreichen. TrueNAS kann damit dann gut umgehen?
    • TrueNAS virtualisieren ist bedenkenlos?
  • Was meint ihr zur folgenden Pool-Aufteilung:
    • Pool #1 4*16TB Z1 für aktuelle Medien und wichtige Daten (aktuell ca. 10TB) (Pool läuft durch)
    • Pool #2 4*20TB Z1 für Archiv (Pool geht in den Spindown nach x Minuten)
  • 2.5/10GBit: Kann sicher gut mal mit 2.5Gbit starten, Switches kosten ja auch nicht mehr alle Welt. 10Gbit mit den Mellanox wären ja nur grad 1zu1-Verbindung gewesen.
  • Integrierte GPU: Korrekt, habe aktuell Jellyfin auf dem X300 am laufen, den Container würd ich dann auf den neuen Server umziehen.
  • IPMI hab ich als nice-to-have deklariert: in den letzten 10 Jahren hab ichs ein halbes Dutzend mal wirklich gebraucht, also vernachlässigbar.

Ich würde dir immer zwei Server empfehlen:

Einen stromsparenden 24/7 Hypervisor mit SSDs und einen Fileserver auf dem ggf non 24/7 Dienste laufen…

Ich schalte meinen TrueNAS Scale Server nachts per CRON Job aus - der sparsame Thin Client läuft 24/7
Hab ich mir auch überlegt. Der oben beschriebene Pool 1 (aktuelle Medien) müsste jedoch 24/7 online sein. Der Pool 2 (Archiv) könnte das vertragen. Aber dann hab ich halt wieder einen weiteren Server rumstehen... Was nimmt eine Seagate Exos HDD im Standby? :d
 
Die 4000er und 5000er APUs kannst Du einfach stock laufen lassen, die sind Idle da schon extrem sparsam (rumstellen dran bringt de facto nix); können aber bei Bedarf auch ordentlich Rechenleistung.
Genau drum hab ich nen 5750G in meinem Desktop. Supersparsam, ECC, aber annähernd die Leistung eines 5700X bei Bedarf.

Pack nen Pure rock 2 oder Thermalright Peerless Assasin 120 drauf als Kühler.

In einem Deskmini X300 kannst damit stock Windows mit 7-8W im Idle laufen lassen...
 
Was nimmt eine Seagate Exos HDD im Standby? :d

Seagate Exos X20: 5.4W im Leerlauf
IronWolf Pro: 5W bis 20TB, die 22TB benötigt 6W
Angaben laut Datenblatt.

Bei meinen Seagate Platten stimmen die Datenblatt Werte mit den von mir ermittelten Werten (Voltcraft SEM6000) überein.
 
Zuletzt bearbeitet:
@Cantor - Wie wurden die Datenblattwerte mit den realen Messwerte denn verglichen?

bitte um Bilder bzw. Video vom elektrotechnischen Messaufbau. Übliche Genauigkeitsklasse und Messmethoden bitte auch beachten.

Irgendwelche Schwurbler Software Auslese-Werte sind sindlos. Siehe Smart-Werte usw.
Beitrag automatisch zusammengeführt:

Idee allgemein mit Zusammenlegen sinnvoll? Oder würdet ihr das anders aufteilen? Speziell die Speicheranforderung sehe ich im Konflikt mit dem tiefen Energieverbrauch.

Leider gibt es öfters unvorhergesehene Effekte.

Persönlich würde ich das PiHole behalten.
Den Rest in ein System tun.

Warum man sich auf MATX beschränken will verstehe ich nicht.
Ich sehe die Anforderung im Lastenheft der Erweiterbarkeit. Dies ist mit Matx und kleinem Gehäuse nicht gegeben.

Ich sehe auch die Anforderung auf Upgradefähigkeit.

Ich würde auf X670 gehen mit vielen PCIE Schächten. Den Rest muss man mit niedrig getakteten RAM, deaktiverten Mainboard Features usw. Regeln. Und auch die Auswahl der Komponenten bezüglich Redundanz und Energieverbrauch wird interessant.

Man hat gesehen, eine Ryzen 1700 als Beispiel mit sehr alten DDR4 RAM kann man auf fast allem verbauen inoffiziell, z.B. MSI B550 Gaming EDGE WIFI. In 10 Jahre wird es sicherlich ein kompatibles Ersatzmainboard geben für z.B. einen Ryzen 7600 mit DDR5 RAM.
 
Zuletzt bearbeitet:
Ehrliche Meinung zu AM5:

+ Interessant wg. mehr Konnektivität
+ Zukunftsfähiger
- jedoch erkauft man sich das derzeit mit erheblicher Basis-Leistungsaufnahme im Idle:
- es gibt noch keine APUs, so dass die CPUs bei weitem nicht so sparsam sein können
- die Chipsätze (X670 sogar derer zwei, denn das ja zweimal ein B650) selber ziehen auch Power, da hilft Dir Features abschalten nix.
- man ist zwischen CPU und Chipsatz weiterhin auf 4 Lanes gen4 limitiert, wie bei X570. So dass die ganze Konnektivität nicht sooo viel bringt
wenn man die ganzen Slots und Ports wirklich parallel auslasten will.
- Plattform derzeit deutlich teurer als AM4.
 
Hypervisor - stromsparenden Optionen
  • Lenovo M720q mit 8700T und 64GB RAM (kein ECC)
  • Asrock Deskmini mit 4650G und 64GB RAM (kein ECC)
  • Intel i3 8100/9100 mit c246 Mainboard und 64GB ECC RAM
Fileserver (mit ECC)
  • 4650G mit B550 und 64GB RAM
  • 5600X mit AsrockRack x470/x570 mit IPMI
  • alle nicht 24/7 relevanten Dienste, nachts runterfahren, HDD Spindown nach x Minuten
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh