[Kaufberatung] Stromrechnung erhalten - Homelab muss umgebaut werden

teqqy

Enthusiast
Thread Starter
Mitglied seit
30.07.2012
Beiträge
1.166
Ort
Rheinhessen
Hallo zusammen,

das mein Zeug im Keller Strom frisst war mir bewusst und ist entsprechend einkalkuliert worden. Die meisten Dinge sollen auch weiterhin 24/7 laufen, allerdings muss ich das Zeug etwas zusammen fassen bzw. durch andere Komponenten ersetzen. Derzeit setze ich folgendes ein:

Server
SuperMicro X9SCM-F | Xeon E3-1230 | 32 GB ECC RAM | 2 x 256 GB SSD (JBOD) | ESXi 6
Storage
ASRock E3C226D2I | i3-4330 | 16 GB ECC RAM | 6 x 2 TB RaidZ2 | Free NAS 9.3
Firewall
Gigabyte H77-N | G1610 | 8 GB RAM | 64 GB SSD | Sophos UTM Home
Switch
HP 1810-24G
Apple TimeCapsule

Zudem habe ich noch eine 128 GB SSD und eine neue 500 GB SSD hier rumliegen. Die können natürlich gerne mit verbaut werden. :)

In Summe liege ich bei ca 200 W Verbrauch. Da bei FreeNAS die ganze Zeit die Platten laufen (außer ich mach den Umweg über ein USB Log Device) ist das im Prinzip auch der idle Wert. Heißt das ganze muss einmal komplett umgebaut und am liebsten zusammen gefasst gefasst werden. Die Netzteile sind übrigens alle 80 W Gold von Seasonic oder BeQuiet.

Nutzungsverhalten:
Die UTM wird fast den ganzen Tag aktiv genutzt. Ich arbeite 4 von 5 Tagen aus dem Homeoffice und die UTM baut die Site-2-Site Verbindung in die Firma auf.
Auf dem NAS liegen Mediendaten sowie die normalen Bewegdaten von meiner Freundin und mir. Gesichert wird ausschließlich offsite in die Cloud.
Der ESXi hostet meinen internen DC (bedingte DNS Weiterleitung in die Firma -.-), meine Heimautomatisation via FHEM, WLAN Controller und so zeug. Zudem ist es auch meine "Spielwiese" und Basis für meine privaten Weiterbildungen.

Am liebesten hätte ich jetzt nur noch ein System. Dann werden mir die 32 GB RAM aber nicht mehr reichen. Die UTM benötigt mindestens 4 und ein StorageSystem zwischen 4 und 8 GB (je nach OS / Dateisystem). Heißt ich muss auf C6xx Chipsätze setzen. Mainboard, CPU und RAM kommen so auf mindestens 900 Euro. Dann benötige ich noch einen SATA Controller um das Storage wieder anständig zu lösen (RDM nur extrem ungern).
Von den Leistungswerten würde mir ein Xeon-D vollkommen ausreichen. Am CPU Limit bin ich (lt. meinem internen Monitoring) nie. Anzahl der Kerne sowie RAM ist eher ein wichtiger Punkt.

Ich drehe mich mit meinen Ideen derzeit im Kreis und hoffe durch diesen Beitrag auf Anregungen wie ich das Ganze am Besten löse. Ziel ist es von 200 W auf unter 100 W im idle zu kommen! Anschaffungspreis ist jetzt erst mal egal, möchte aber natürlich so viel als Möglich der Komponenten übernehmen. Rest kommt in den Verkauf. Gebraucht käme natürlich in Frage. Bei S2011-3 (wg. RAM) gibt es halt nix was wirklich günstiger als Neukauf ist.

Wenn euch Informationen fehlen, liefere ich diese gerne nach.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei knapp über 6 kWh. Unerwarteter Mehraufwand durch das Lab sind ca. 1 kWh.

Ja, rechnerisch dauert das ein wenig bis sich Neuanschaffung wieder vollständig amortisiert hat. Strom wird aber auch nicht günstiger und wir sind schon beim günstigsten Anbieter (welcher über verschiedene Portale ermittelt worden ist).
 
In einer ähnlichen Situation war ich auch. Ich habe es folgendermaßen gelöst:

Ich habe überlegt welche Daten/Anwendungen/Dienste brauche ich wirklich 24/7 und gleichzeitig Ausfallsicherheit/Verfügbarkeit mit einkalkuliert.
Ich hatte vorher 2 Proxmox Server und 2 NAS Systeme am laufen gehabt inkl. Raid Kontroller. Jetzt bin ich bei 1 Server, 3 NAS Systeme und 1 x Firewall.
Die Firewall und der PVE Server laufen 24/7. 1 NAS zur Datensicherung läuft zeit gesteuert nur Nachts. 1 NAS für Anwendungen und Testsysteme welches ich nach Bedarf per WOL einschalte. Das 3te NAS für meine Mediensammlung welches ich auch per WOL einschalte wenn ich es benötige.

Also ich konnte meinen Verbrauch so sehr stark reduzieren.
Meine 24/7 Systeme sind z.Zt.:
1 x PVE Server ( X10SL7-F, Xeon E3-1231, 32 Gb RAM, 4 x 2 TB HD mit ZFS Mirror - VM 24/7 Windows SBS, Sonstige VMs: Diverse Linux und Windows Clients) Verbrauch im durchschnitt ca 60-70 Watt
1 x Firewall UTM (Asrock 1900D2Y, 4GB, 1 x 60GB SSD, PicoPSU 60 W) Verbrauch im durchschnitt ca 10 Watt

Bei Bedarf:
1 x N54L 5 x 1 TB Raidz1, 8 GB RAM, OS: OMV (Datensicherungsmachine) Läuft 2-3 Std. Nachts
1 x N54L 5 x 2 TB Raidz1+1 x 256 GB L2ARC. 8GB RAM OS: OMV (ISO, VM Images) (nach Bedarf)
1 x Aspire H341, 4 x 1TB, 4 GB RAM, Xpenology 5.2, (Mediathek) (nach Bedarf)

Dir Raid Kontroller habe ich zum Teil verkauft.
Neuanschaffung war PVE Board, CPU und das Board für die Firewall. Alles andere habe ich wieder verwendet.

Vielleicht hilft Dir das weiter?
 
Zuletzt bearbeitet:
Wieso willst du überhaupt komplett neu anschaffen?

Selbst wenn 12 GB für die UTM und ein Storage System entfallen, bleiben immer noch 20 GB übrig.
Nach dem was du beschrieben hast, reicht das 5 mal.

Sockel 2011-3 rechnet sich nicht, was den Stromverbrauch angeht. Du landest vielleicht nicht mehr bei 200 Watt, aber wenn du ein bisschen Zubehör reinbaust (6-8 Rams, Quad Nic, Raidcontroller, deine HDD's) liegst du ganz schnell wieder über 100 Watt.
 
Zuletzt bearbeitet:
PS: Die Firewall hatte ich auch virtualisiert. Aber das macht kein Sinn da der Server hin und wieder neu gestartet werden muss und dann fällt INet komplett aus. Lieber als separate Maschine betreiben.
 
PS: Die Firewall hatte ich auch virtualisiert. Aber das macht kein Sinn da der Server hin und wieder neu gestartet werden muss und dann fällt INet komplett aus. Lieber als separate Maschine betreiben.

Blödsinn im Home-Bereich.
Meine UTM starte ich häufiger neu weil das wegen Updates nötig ist, als aus Hostsystemgründen.
 
Zuletzt bearbeitet:
Bei mir war es von Vorteil die FW vom Hauptsystem zu trennen. Aber jeder wie er es braucht.
 
Dann werden mir die 32 GB RAM aber nicht mehr reichen. Die UTM benötigt mindestens 4 und ein StorageSystem zwischen 4 und 8 GB (je nach OS / Dateisystem). Heißt ich muss auf C6xx Chipsätze setzen.

Oder auf 23x - die können auch mit 64 GB umgehen.
 
@GuNa: Vielen Dank für deine Ausführung hat mir geholfen.

@all: Ich möchte zu Lernzwecken mich mich Konfigurationsmanagement a la puppet etc beschäftigen, da werden halt eher mal viele Systeme gebootet und ich möchte dann nicht direkt am Anschlag sein. Daher möchte ich mir die Option für 64 GB einfach offen halten.

Das S2011-3 so viel mehr Saft braucht hätte ich fast befürchtet. Daher wollte ich nachfragen.

Wie würde sich denn die Kombo machen:
1 x Intel Xeon E3-1230 v5, 4x 3.40GHz, boxed (BX80662E31230V5)
1 x Crucial DIMM Kit 32GB, DDR4-2133, CL15, ECC (CT2K16G4WFD8213)
1 x ASRock Rack E3C236D4U

Bin da am überlegen ob ich entweder eine M2 mit 512 GB als Datastore für ESXi nehme und die SATA dann an eine VM weiter reiche, oder ob ich ein Controller kaufe, den weiter reiche und ein SSD Raid 10 aus den onboard SATA HDDs mache.

Was wäre dann davon zu halten?
 
200 Watt für Alles?
OMG , das hat ja schon mein "Alter" So1366 i7 -950 geschluckt, als der noch 8 HDDs mit Raidcontroller drin hatte - im IDLE.
Bei Vollast hatte der locker auf 300 Watt "aufgedreht" - bei Übertaktung sogar Richtung 400 Watt.
Mit 2HDDs und 1 SSD und ohne Raidcontroller sind's aber immer noch über 120 Watt :)

Aber mal im Ernst, selbst wenn du jetzt sagen wir mal 80 Watt durch Konsolidierung der Systeme einsparst lohnt sich das durchaus - der Spaß am Basteln kommt oben drauf.

0,08 KW * 24h/Tag * 365Tage/Jahr * 0,3 €/KWh = 210 €/Jahr

Hardwarekosten Neu = 800 €
Erlös durch Verkauf der alten Hardware: 400 - 450 €
Kosten = 350-400 €
Amortistation in ca. 1,5-2 Jahren

Mit dem von dir gewähltem Board, wird es mit der Virtualisierung des NAS schwierig, da nur ein Controller (8x SATA via Chipsatz) an Board. Soweit ich weiß kann ESXI selbst von USB booten, der Datastore auf USB (für die NAS VM) wird offiziell nicht unterstützt - es soll aber wohl möglich sein.

BTW:
Wenn du das NAS auf NAS4Free wechselst, kannst du die HDDs in den Spindown schicken - wundert mich, daß FreeNAS das nicht hat/kann (oder hast du das übersehen?)
Nachteil, bei Zugriff gibt es dann immer so eine nette "Gedenkminute", bis die HDDS Ihren Spinup durch haben und die Anfrage erfüllen können.
HDD-Spindown wird zwar im allgemeinen als nicht "Best Practise" bezeichnet, ich ahtte aber in der Zeit wo ich das aktiviert hatte keine wirklichen Problem damit gehabt - mich nervte nur die Gedenkminute.

Ersparnis etwa 3-5 Watt/HDD = 18-30 Watt - für "lau".
 
Zuletzt bearbeitet:
Mit dem von dir gewähltem Board, wird es mit der Virtualisierung des NAS schwierig, da nur ein Controller (8x SATA via Chipsatz) an Board. Soweit ich weiß kann ESXI selbst von USB booten, der Datastore auf USB (für die NAS VM) wird offiziell nicht unterstützt - es soll aber wohl möglich sein.
Was wird denn da schwierig?
Am besten wäre natürlich ein zusätzlicher Raid Controller und den komplett durchreichen (ich denke mal das vorgeschlagene Board dürfte ja IOMMU Fähig sein)
Ansonsten bliebe noch Raw Device Mapping übrig, aber sauberer ist natürlich die andere Lösung.
 
Ich habe mir jetzt folgende Lösung überlegt:

1 x Samsung SSD PM951 128GB, M.2 (MZVLV128HCGR-00000)
1 x Intel Xeon E3-1220 v5, 4x 3.00GHz, boxed (BX80662E31220V5)
1 x Crucial DIMM Kit 32GB, DDR4-2133, CL15, ECC (CT2K16G4WFD8213)
1 x Supermicro X11SAE-M (MBD-X11SAE-M-O)

Auf die SSD kommt der ESXi sowie die Storage VM. Den C236 Controller würde ich dann gerne an die VM Weiter reichen. Dort kommen dann 4 SSDs sowie 4 HDDs für zwei Pools dran. Als Storage werde ich XPenology verwenden. Liegt an den AddOns (Azure Backup sowie Plex) welches ich direkt in dem System erstellen kann.
 
Diese CPU hab ich auch. Auf nem FSC 3417B.
Zusammen mit diesem RAM. (der auch noch etwas günstiger ist)
Samsung DIMM 16GB, DDR4-2133, CL15, ECC (M391A2K43BB1-CPB) Preisvergleich

@Digi
AMT ist nicht ganz so nett wie IPMI. (gerade die initialconfig ist echt bescheiden, mit extratools)
IPMI ist dagegen fast ne DAU-Lösung.
Aber die Grundsachen (Starten/KVM/ISO-Mount) aber völlig ausreichend.
IPMI würde ich aber vorziehen, wenn es passen sollte.

EDIT:
Auf die SSD kommt der ESXi sowie die Storage VM. Den C236 Controller würde ich dann gerne an die VM Weiter reichen.
Wie soll das gehen? Die SSD am C236 dran und gleichzeitig durchreichen wird nicht gehen.

2ndEDIT:
Ich konnte in der BDA auch keinen Hinweis finden, ob bei Nutzung der M2 Schnittstelle evtl. SATA Ports wegfallen.
Passiert nicht, weil der Port nur PCIe ist und kein SATA.
 
Zuletzt bearbeitet:
Oh. Auf die IGP Geschichte mal wieder nicht geachtet. -.- Danke. Zudem ging ich mal wieder leichtgläubig davon aus, dass ein Kit günstiger wäre. Nundenn. Auch geändert.

Ist denn IPMI 2.0 iKVM? Weil die 2.0 haben fast alle neuen SM Boards.

Mit ESXi auf SSD meine ich auf die PCIe M2 SSD. Wenn die auch direkt am Chipsatz hängt funktioniert das natürlich nicht. Ich bin davon ausgegangen, dass sie eigenständig angebunden ist, wie alle PCIe Geschichten.

1 x Samsung SSD PM951 128GB, M.2 (MZVLV128HCGR-00000)
1 x Intel Xeon E3-1225 v5, 4x 3.30GHz, boxed (BX80662E31225V5)
2 x Samsung DIMM 16GB, DDR4-2133, CL15, ECC (M391A2K43BB1-CPB)
1 x Supermicro X11SAE-M (MBD-X11SAE-M-O)
 
IPMI ist vieles. Enthält auch KVM.
IPMI haben aber nur die "-F" Boards. Du hast keines ausgewählt.

Ich kenne den Controlleraufbau nicht genau. PCH-Kontroller habe ich selber noch nie durchgereicht.

Des Weiteren handhabe ich das immer so, dass alles SATA hat. Das ermöglicht mir vieles in Richtung Backup, Restore, Fehlersuche etc. So handhabe ich das für mich.
Schon mSATA ist nen Exot bei mir. (aber mit Adaptern handlebar)
 
Okay, dann werde ich das Board noch mal wechseln:
1 x Intel Xeon E3-1220 v5, 4x 3.00GHz, boxed (BX80662E31220V5)
2 x Samsung DIMM 16GB, DDR4-2133, CL15, ECC (M391A2K43BB1-CPB)
1 x Supermicro X11SSM-F retail (MBD-X11SSM-F-O)

Mir fehlt dann noch ein HBA/Raid-Controller. Zumindest wenn ich das Block-Diagramm richtig verstehe. Die IBM 1015 sind ja mittlerweile extrem teuer geworden (im Gegensatz zu früher). Was empfiehlt sich denn jetzt? Am besten einer der nicht direkt 40 W aus der Steckdose zieht.
 
Hmm, doch so "teuer". Aber gut. Vielen Dank für eure Hilfe. Dann werde ich wohl morgen mal bestellen. Wer Interesse an den "alten" Sachen hat, kann sich ja schon mal melden. Fliegt dann sonst in zwei Wochen in en MP.
 
Okay, dann werde ich das Board noch mal wechseln:
1 x Intel Xeon E3-1220 v5, 4x 3.00GHz, boxed (BX80662E31220V5)
2 x Samsung DIMM 16GB, DDR4-2133, CL15, ECC (M391A2K43BB1-CPB)
1 x Supermicro X11SSM-F retail (MBD-X11SSM-F-O)

Mir fehlt dann noch ein HBA/Raid-Controller. Zumindest wenn ich das Block-Diagramm richtig verstehe. Die IBM 1015 sind ja mittlerweile extrem teuer geworden (im Gegensatz zu früher). Was empfiehlt sich denn jetzt? Am besten einer der nicht direkt 40 W aus der Steckdose zieht.

Das Board gibts für je ca 100 Euro Aufpreis auch mit LSI 3008 HBA (12G SAS/Sata) und Intel 10G nic
Die 10G nic ist aber noch nicht gut unterstützt.

Ich habe das Board mit 10G und SAS Controller sowie 16GB ECC und G4400 CPU gerade mit ESXi/ ZFS/OmniOS am Testen (komplett 700 Euro)

siehe ZFS Stammtisch
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Meine Einschätzung wäre

Adaptec + ZFS = nein
Raid-5 Controller + ZFS = nein

LSI HBA all the way
 
Danke für eure Meinungen.

Zu 10 GBe:
Grundsätzlich natürlich eine interessante Sache. Switches mit 10 GBe Ethernet Ports sind mir aber derzeit noch gut zu teuer. Auch wenn ich längerfristig denke, würde ich eher eine 10 GB SFP+ zzgl. Switch holen. Die Kombi wird erst mal ne Zeit lang günstiger sein. Da alles zusammen in einem Rack hängt auch entsprechend praktikabel.

Zum X11SSL-CF
Das Board ist dann diesbezüglich eine gute Alternative. Schlussendlich sogar 50 Euro günstiger als das andere Board zzgl HBA.

Zu M.2
Ich wollte in meiner ursprünglichen Überlegung ESXi und die Storage VM da drauf packen. Die eigentlichen SATA Ports dann durchreichen (ohne RDM). Das scheint aber nicht zu funktionieren.
 
naja, nvme hat auch seine Vorteile bei vielen VMs :)

aber ja, man kann auch die Intel Sata nutzen mit normalen SSDs/Hdds
... reicht für daheim weit aus
 
Zuletzt bearbeitet:
Zu 10 GBe:
Grundsätzlich natürlich eine interessante Sache. Switches mit 10 GBe Ethernet Ports sind mir aber derzeit noch gut zu teuer. Auch wenn ich längerfristig denke, würde ich eher eine 10 GB SFP+ zzgl. Switch holen. Die Kombi wird erst mal ne Zeit lang günstiger sein. Da alles zusammen in einem Rack hängt auch entsprechend praktikabel.
wie kommst darauf, das 10 GBase-T teuerer ist ist als SFP+?

Bei SFP+ kommen die Transceiver dazu (entweder für Glasfaser oder für Kupfer).

Man kann 10 GBE auc als Direktlink ohne Switch nutzen - zwischen 2 Hosts.
10 GBE Switche werden auch preislich langsam interessanter, ein 8-Port 10 GBase-T Switch gibt es mitlerweile für schlappe 733 € - das ist doch billig, wenn man bedenkt was ein Flugzeug kostet :)
Das gemeine: der billigste Switch, der überhaupt mehr als einen 10 GBE Port hat kostet auch schon 370 Tacken und hat nur 2 SFP+ Ports (24x GBE +2x 10GBE)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh