Stromverbrauch Home-Server mit Xeons

Kosta

Enthusiast
Thread Starter
Mitglied seit
18.02.2005
Beiträge
227
Hallo,

ich werde zwei 4110 und dazupassende 128GB RAM kostenlos bekommen.
Aktuell habe ich eine Hardware-Firewall auf einem i3 (Sophos Home), und eine Synology NAS mit 8 HDDs.
Daher überlege ich rundum einen Server zu bauen. Ein ASUS oder ähnliches Mainboard, gehen um so ca. €500, ein Fantec 19zoll Gehäuse (12 HDD), ein Netzteil, NVMe als Storage im RAID, Netzwerk-Karte mit 4 Ports.
Überlege alles zu virtualisieren. Firewall, NAS (FreeNAS), ggf. VMs für AD oder sonstige Spielereien.
Aber, ich mache mir Sorgen um den Stromverbrauch bei zwei Xeons. Schon mein i7 Skylake Rechner verbraucht im Vergleich zu der i3-Firewall und Synology wesentlich mehr.
Vorteil der Sache natürlich ist dass ich später auch von einem Server-Mainboard auf ein Consumer-Mainboard wechseln kann, denn die Xeons eigentlich so für Privatgebrauch zu teuer sind.
Hat jemand Erfahrung damit?

Danke
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Generell kann man sagen, je mehr PCIe Lanes aktiv sind, je mehr Speicherkanäle aktiv sind, desto mehr Leistung zieht ein System. Im Umkehrschluss kann es natürlich auch mehr Daten von a nach b befördern.
Für privat mag ein 8 Kerner mit 16 Threads bei nur 2-3Ghz oft schlechter sein, als ein 4 Kerner mit 8 Threads und 3-4Ghz.
Und du hast zwei dieser 8C/16T CPUs. Wenn du nicht ein NVMe Raid für mehrere Rechner als Storage einrichten willst und dieses mit 10Gibt/sec Ethernet und mehr an die Clients verteilst, wird dein System unnötig Däumchen drehen und dabei Abwärme produzieren. Der Sockel FCLGA3647 ist leider mehr für viel Bandbreite ausgelegt. AMDs Epyc noch mehr. Privat leider meistens überdimensioniert.
Der Speicher wird registerd ECC-RAM sein, passt daher auch nicht auf Consumer Mainboards.
 
Schätze, du wirst bei ca. 100-150W landen - ist aber alles abhängig von den Steckkarten, die Du verbaust. Und ohne HDDs. Mein ESXi mit einem 4108 und diversen Steckkarten (siehe Signatur) liegt aktuell bei ca. 130W. Allerdings ist ESXi kein Stromspar-OS und ich hab 4 Karten drin (GPU, 100Gbit-NIC, HBA und USB-Karte, auch alles keine Stromspar-Wunder).
 

Da haste nen groben Anhaltspunkt, im Idle nehmen. sich die S3647 nicht viel.
 
Danke.
Also 100-150W schrecken mich jetzt nicht besonders.
Aktuell rennt mein Win10 Rechner 24/7, verbraucht Idle rund 60W glaub ich, dann kommen noch die Synology 8-bay NAS und eine i3-Firewall, und da sind wir ja schon bei 100W durchgehend.
Die Sache ist, mein PC rennt eigentlich nur weil Plex fürs Heimkino drauf ist (inkl. Transcoding fürs Mobiltelefon). Sonst könnte ich die Kiste abdrehen.
Synology ist schon relativ alt, glaub 2014 oder so, hat nur ne Atom-CPU und wäre sicher bald fällig.
Die Firewall ist ziemlich neu, da wäre kein Bedarf.
Ich brauche aber auf jeden Fall eine Virtualisierungsplattform. Aktuell ist es mein Win10 Rechner mit der Hyper-V Rolle, um gewisse Sachen zu testen und lernen. Aktuell wird das Projekt Sophos XG angegangen, daher wäre natürlich praktisch alles virtualisiert zu haben.
Wären eigentlich die Xeons ausreichend um FullHD Bluray bzw. 4K in Echtzeit zum Streamen (transkodieren)? Ich hab keine Ahnung ob da mehr Kerne oder mehr Single-Core-Performance notwendig wird?? Ich weiß nur dass es die Synology nicht packt, und mein i7 6700K aber schon.
Beitrag automatisch zusammengeführt:

Generell kann man sagen, je mehr PCIe Lanes aktiv sind, je mehr Speicherkanäle aktiv sind, desto mehr Leistung zieht ein System. Im Umkehrschluss kann es natürlich auch mehr Daten von a nach b befördern.
Für privat mag ein 8 Kerner mit 16 Threads bei nur 2-3Ghz oft schlechter sein, als ein 4 Kerner mit 8 Threads und 3-4Ghz.
Und du hast zwei dieser 8C/16T CPUs. Wenn du nicht ein NVMe Raid für mehrere Rechner als Storage einrichten willst und dieses mit 10Gibt/sec Ethernet und mehr an die Clients verteilst, wird dein System unnötig Däumchen drehen und dabei Abwärme produzieren. Der Sockel FCLGA3647 ist leider mehr für viel Bandbreite ausgelegt. AMDs Epyc noch mehr. Privat leider meistens überdimensioniert.
Der Speicher wird registerd ECC-RAM sein, passt daher auch nicht auf Consumer Mainboards.
Genau so ist es auch.
Beim Consumer müsste ich PSU, RAM und CPU kaufen, bin aber mit 64GB meistens begrenzt. Beim Xeon habe ich 128GB.
Ich würde auch behaupten dass die Xeon-Maschine stabiler wird... jedoch, ich kann mich nicht erinnern wann mein Win10 Rechner das letzte mal abgeschmiert ist (und ist auch auf 4.8Ghz übertaktet).
Letztendlich übersetzen sich die Kosten der Hardware-Anschaffung im Consumer Bereich in die Kosten des höheren Stromverbrauchs bei einem Xeon-Server.
Kein Thema, die 2x 4110 Maschine würde sich bei mir zu Hause absolut fadisieren. Aber Krux ist - ist umsonst.

Wenn schon bei dem Thema Server-Aufbau: also, CPUs, inkl. Kühler (kommen aus einem DL380 Gen10), die RAM-Riegel und 2x PSU (HP) sind vorhanden.
Sind die Teile mit einem Fantec Gehäuse kompatibel?, bspw. dieses hier: https://www.fantec.de/produkte/serv...dukt/details/artikel/2163_fantec_src_2612x07/
Das Maiboard hätte ich mir dieses angeschaut: https://geizhals.at/asus-z11pr-d16-90sb0670-m0uay0-a1727836.html?hloc=at
Beitrag automatisch zusammengeführt:


Da haste nen groben Anhaltspunkt, im Idle nehmen. sich die S3647 nicht viel.
Danke. Ja, eben die 130W sind ja nicht die Welt, das Ding wird auch kaum auf Volllast laufen. Und das ist mit den Golds, die 4110 haben weniger TDP, 85W, da dürfte sogar noch was runtergehen.
 
Zuletzt bearbeitet:
Wuerd ich die CPUs und RAM geschenkt bekommen, würde ich nicht groß drueber nachdenken. Die Leistung fuer Plex reicht locker. Ich wuerde allerdings nen richtiges Mainboard kaufen (Supermicro) und keine Consumerbrand. Allein das BMC usw von SM ist das Geld wert.
 
Wenn du nicht vor hast, später mal SAS-HDDs zu verwenden, kannst du gerne auf die minimale Anzahl der SATA-Ports beim gewünschten Mainboard zurück greifen. Jeder Chip für SATA oder SAS weniger bringt etwas an Stromersparnis. Am Anfang ist es ggf. auch sinnvoll erstmal nur mit einer CPU zu arbeiten und erst bei Bedarf die zweite zu installieren. Musst halt schauen ob alle bisherigen Speichermodule an einer CPU Platz finden oder nicht.
100 Watt = 0,1kW
0,1kW * 24h * 365 Tage * 0,30 Cent je kWh = 262,80 Euro je Jahr bei "nur" 100 Watt. Wobei ja die Preise je kWh aktuell erhöht wurden bzw. noch werden. Also nach nicht mal 4 Jahren schon über 1000 Euro rein für die Stromkosten. Bei 160-200 Watt entsprechend 60% bis 100% mehr... da würde sich eine mikro Photovoltaik-Anlage schon recht schnell rechnen, bis max. 600 Watt.
Für Virtualisierung ist halt was mit NVMe über mindestens vier PCIe 3.0 Lanes nett und fürs Datengrab kann man ja aktuell schon 18 TB für ca. 430 Euro als einzelne HDD kaufen, welche im Leerlauf bei nur 6 Watt liegt. Die Backups kannst du ja immer noch von Zeit zu Zeit über das alte System abwickeln.
 
Wuerd ich die CPUs und RAM geschenkt bekommen, würde ich nicht groß drueber nachdenken. Die Leistung fuer Plex reicht locker. Ich wuerde allerdings nen richtiges Mainboard kaufen (Supermicro) und keine Consumerbrand. Allein das BMC usw von SM ist das Geld wert.
Danke, das Supermicro MB was du gepostet hast, kostet ja auch nicht mehr. Der einzige Grund warum ich eigentlich Asus wollte, ist weil die m.2 onboard sind. Aber die PCIe Karte kostet ja nur paar € eigentlich. Ich würde vorerst auch kein RAID bei m.2 machen, sondern nur eine single m.2 mit 1TB (Samsung Pro vermutlich). Die Backups habe ich eh auf einer externen Platte (kleine Backup-NAS mit einem Raid1). Im Falle des Servers wird wohl eine zweite werden.
Wenn du nicht vor hast, später mal SAS-HDDs zu verwenden, kannst du gerne auf die minimale Anzahl der SATA-Ports beim gewünschten Mainboard zurück greifen. Jeder Chip für SATA oder SAS weniger bringt etwas an Stromersparnis. Am Anfang ist es ggf. auch sinnvoll erstmal nur mit einer CPU zu arbeiten und erst bei Bedarf die zweite zu installieren. Musst halt schauen ob alle bisherigen Speichermodule an einer CPU Platz finden oder nicht.
100 Watt = 0,1kW
0,1kW * 24h * 365 Tage * 0,30 Cent je kWh = 262,80 Euro je Jahr bei "nur" 100 Watt. Wobei ja die Preise je kWh aktuell erhöht wurden bzw. noch werden. Also nach nicht mal 4 Jahren schon über 1000 Euro rein für die Stromkosten. Bei 160-200 Watt entsprechend 60% bis 100% mehr... da würde sich eine mikro Photovoltaik-Anlage schon recht schnell rechnen, bis max. 600 Watt.
Für Virtualisierung ist halt was mit NVMe über mindestens vier PCIe 3.0 Lanes nett und fürs Datengrab kann man ja aktuell schon 18 TB für ca. 430 Euro als einzelne HDD kaufen, welche im Leerlauf bei nur 6 Watt liegt. Die Backups kannst du ja immer noch von Zeit zu Zeit über das alte System abwickeln.
Die angedachte Verwendung wäre: NVMe für die VMs, 8x HDD aus Synology für die NAS. Ich habe noch paar SSDs rumliegen, die könnte ich ggf. für irgendein Caching verwenden, falls sowas überhaupt mit FreeNAS möglich ist. Ich glaub ich hab 2x 256, 1x 512 und 1x 128GB. Im Gehäuse bleiben mir dann noch 4x externe 3,5-Schächte, die ich für weitere Platten verwenden kann... zweiter Array mit ZFS1 o.ä.
In Österreich sind die kWh daweil immer günstiger als in DE gewesen. Der aktuelle Durchschnitt ist bei 15-21 cent. Photovoltaik wäre denkbar natürlich, es ist bei uns schwierig mit den Leitungen, da wir nur ein kleines Rohr zum Dach haben (Reihenhaus). Ob das überhaupt umsetzbar ist, ist die Frage. Freilich muss man die Kosten, was die FW, Synology und mein Rechner, der aktuell 24/7 rennt, abziehen.

Aber jetzt mal die richtige Frage:
Wie schließe ich alles an? Kommt das Fantec Gehäuse mit den Backplanes wo die Festplatten stecken? Was für welche? Brauche ich was mehr außer Gehäuse, Netzteil, Mainboard und Kühler? Lassen sich die Festplatten direkt an das Mainboard stecken oder brauche ich etwas zusätzlich? Wieviel RAM für FreeNAS (ZFS)?
 
Das Board war nur nen Bsp. gibt X verschiedene, mit 10g Nics usw. Es hat bzw nen NVMe Slot...


Deinen letzten Fragen zufolge solltest dich aber defintiv tiefer in die Materie einlesen bevor du Case/Mobo/etc kaufst.

Hersteller Manuals/Reviews usw.
 
Natürlich, fragen kann ich ja. Server-technisch hatte ich selten was mit dem Bau eines Servers, arbeite zwar täglich drauf, haben in der Firma HP Gen7 und Gen10, dort ist alles ja plug&play sozusagen. Und die Teile bekomme ich auf Bestellung - das technische wird im Hintergrund geklärt. Die o.g. Teile kommen ja aus einem DL380 Gen10, da dieser auf 2x 6244 und 256 RAM upgegradet wurde.
Auch wenn es vielleicht interessant wäre, ich habe ehrlich gesagt so viel um die Ohren, tendiere ich vielleicht auch zu einem Barebone. Aus Erfahrung, sind Barebones teurer als Selbstbau?
 
Aber jetzt mal die richtige Frage:
Wie schließe ich alles an? Kommt das Fantec Gehäuse mit den Backplanes wo die Festplatten stecken? Was für welche? Brauche ich was mehr außer Gehäuse, Netzteil, Mainboard und Kühler? Lassen sich die Festplatten direkt an das Mainboard stecken oder brauche ich etwas zusätzlich? Wieviel RAM für FreeNAS (ZFS)?

In deinen Links zu Fantec Gehäuse und Asus Board steht das doch alles...
Fantec: 3x SFF-8087: je 4x SAS/SATA zu 1x SFF-8087 pro Backplane
Asus: 3x SATA 6Gb/s (C621), 8x SATA 6Gb/s (via SFF-8643, C621)

Bräuchtest also Adapterkabel und könntest so 2 Backplanes anschließen, ABER:
Für die FreeNAS VM unter ESXi solltest du den HBA durchreichen. C621 ist allerdings kein HBA, sondern Intel Onboard. Alternativ einen LSI HBA nachrüsten.
Besser nach einem Supermicro Board schauen, inklusive 10GbE. Supermicro hat oft onboard LSI HBAs, die sich auf IT-Mode flashen und durchreichen lassen.

HP PSU werden wohl nicht passen, denke ich. CPU Kühler und RAM am besten selbst prüfen, obs aufs Board bzw ins Gehäuse passt. Bedenke auch, dass das Gehäuse nur 2u ist mit 3x 80er Lüftern.

Firewall würde ich auf dem i3 lassen.
 
Gibt's nen Grund warum du hier explizit auf ESXi ansteuerst? (mit dem Kommentar FreeNAS VM unter ESXi...). Ist da ein Vortail dem Hyper-V gegenüber?
 
Gibt's nen Grund warum du hier explizit auf ESXi ansteuerst? (mit dem Kommentar FreeNAS VM unter ESXi...). Ist da ein Vortail dem Hyper-V gegenüber?
Weils der performanteste Hypervisor, und derjenige, mit der größten Kompatibilität an Gastsystemen ist.
 
Hm, da muss ich recht geben, obwohl ich eigentlich nur eine Firewall und FreeNAS bräuchte... und die beiden laufen unter Hyper-V.
Immerhin wäre interessant die Sache alternativ kennenzulernen, mit VMware habe ich wenig zu tun im Berufsleben.
Beitrag automatisch zusammengeführt:

Firewall würde ich auf dem i3 lassen.
Warum eigentlich? i3 würde ich anderwertig gut brauchen können.

Und noch was:
Was spricht eigentlich gegen Consumer-Hardware für einen Server?
Von wegen Verlässlichkeit könnte mir das so gut wie egal sein, das Ding wäre nicht "produktiv". Wenn es 2-3 Tage steht, wird nichts untergehen.
Bestimmt sparsamer.
Silent Data Corruption? Könnte mir egal sein sofern ich FreeNAS mit ZFS einsetze und alle Daten sich dort befinden?
Und letztendlich leichter (=kostengünstiger) upzugraden? Ich kann nicht denken, was mich kosten würde ein Echtserver-Upgrade in paar Jahren zu machen. Dagegen sind Mobo/Ram/CPU aus dem Consumerbereich wesentlich günstiger.

Als Beispiel: Ryzen 3900X (€500), irgendein Board für rund €200, €600 für 128GB RAM... + Gehäuse und Netzteil. Kostet mich genausoviel wie alleine das Gehäuse und Mainboard für die Server-Hardware (RAM und CPU nicht inkludiert). Und dazu kommen noch ggf. 10Gbit Karte und HBA (auf jeden Fall).
Es wird im Netz auf rund 50W Verbrauch geschätzt...
 
Zuletzt bearbeitet:
Würde das eher anderes sehen,
was für Serverhardware spricht:
- ECC (ob man den Zusatz an Sicherheit will sollte jeder selbst entscheiden)
- Vernverwaltung / IPMI
- Besser erprobte getestet
- Bei den großen Plattformen mehr RAM und Kerne möglich

Ist einem das alles nicht so wichtig kann man easy auch Consumer Hardware nehmen. Das Problem ist eher, man merkt den unterschied erst wenn was Probleme macht.
 
Wie gesagt, EEC wäre mir nur dann wichtig, wäre es für DATEN wichtig. Spricht Fotos, Videos usw.
Für die VMs ist es mir egal, die VMs kann ich ersetzen, neu aufsetzen, ich kann das ganze System kübeln und neu aufsetzen. Übung macht den Meister.
Aber korrupte Fotos und/oder Videos kann ich nicht reparieren.
Also, wenn EEC bei FreeNAS mit ZFS keine Rolle spielt, dann ja, es ist mir egal.
IPMI - irrelevant. Server steht im Technikraum neben der Waschmaschine... einen alten Bildschirm stell ich drauf...
Erprobt? Mein Win10 rennt bereits tagtäglich, und den letzten Crash kann ich mich nicht mal erinnern. BSOD? What is that...
Sollte ich jemals Bedarf nach mehr als 128GB RAM und 12/24 Kerne haben, werde mein eigenes Business eröffnen. Für Privatzwecke - kaum notwendig denke ich.
Lässt sich ESXi nicht draufinstallieren, dann Proxmox. Hyper-V ginge auch sicher...
Jemand hat ja vorher schon gesagt, GHz wichtiger als Anzahl Kerne.
 
neee... im Zweifel RAM wichtiger als GHz und Kerne... ;)
 
OK, aber es muss wohl kein Xeon (oder Xeons in diesem Fall) sein. Ich könnte alleine die RAMs aus dem Server nehmen, und sie mit einem Consumer Mainboard und Ryzen kombinieren?? Im Endeffekt spielen Stromkosten schon eine Rolle, wenn das Ding 100W täglich mehr frisst als was ein Ryzen würde. Das spiegelt sich schon in mehreren Jahren.
 
Wenn der RAM aus der Kiste stammt, aus dem auch die 2 CPUs aus dem Eingangspost herkommen, vermute ich mal, dass es sich bei den RAM-Riegeln um registered RAM bzw. RDIMMs handelt. Consumer-Mainboards wie Du sie für den Ryzen benötigst (oder Threadripper oder alle i-CPUs von Intel oder die kleinen Xeons) können aber nur non-registered bzw. unregistered bzw. UDIMMs.

Dürfte also nicht funktionieren.

Aber wenn Du den Kram nicht brauchst bzw. benutzen willst, würde ich Dir für einen schmalen Taler abnehmen. :d
 
An den Punkt bzgl. Stabilitaete glaube ich eig. nicht um ehrlich zu sein.
Wenn du eh spaerlich ausstattest und wenig Anforderungen hast tut da sicherlich auch Consumer Hardware ihren Dienst.

Wenn dir Stromkosten wichtig sind ist so ein Consumer System auch keine schlecht Wahl.
Wobei man sagen muss das bei Enterprise Hardware eben haeufig Fernwartung+Raid Controller dabei ist.
Wenn du selbst baust kannst du das ja auch schon weg lassen. Das gibt sich dann im Endeffekt nicht so viel.
 
Und mal wieder was gefunden:
Wenn man dem Bericht glaubt, verbrauchen Dual 4110s nur 70W. Da sind die 20W wiederrum egal...
Beitrag automatisch zusammengeführt:

Wenn der RAM aus der Kiste stammt, aus dem auch die 2 CPUs aus dem Eingangspost herkommen, vermute ich mal, dass es sich bei den RAM-Riegeln um registered RAM bzw. RDIMMs handelt. Consumer-Mainboards wie Du sie für den Ryzen benötigst (oder Threadripper oder alle i-CPUs von Intel oder die kleinen Xeons) können aber nur non-registered bzw. unregistered bzw. UDIMMs.
Hmmm... genau. Da hast du Recht. Ich habe die DIMMs nicht bei mir, aber sie sind ziemlich sicher RDIMMs.
Gut, also ich glaube ich mache folgendes:
Nachdem mir jetzt die HW zur Verfügung steht, baue ich rundum, und schaue was dabei rauskommt.
In einigen Jahren, wenn das Upgrade fällig wird, kann ich immer noch entscheiden, ob ich gebrauchte Server-HW kaufe, oder auf Consumer wechsle - dafür müsste ich sowohl MOBO, CPU und RAM tauschen (UDIMM).
Klingt das nach einem Plan?
 
Zuletzt bearbeitet:
Noch was: Thema Netzteil. Wie groß soll ich dimensionieren? 2x 4110, Supermicro Mainboard, 4 Riegel RAM, bis zu 12 HDDs, NVMe, 4-Port HBA...? Reichen 400W?
 
Der von dir zitierte Test gibt ~200 Watt gemessen vor dem Netzteil, netzseitig an. Rechne deine 12x 6-14 Watt je HDD dazu. Hier ggf. auch die Ampere der Disks bei 12 Volt und 5 Volt mit dem Netzteil vergleichen.
HBAs haben in der Regel nettes Datenblatt mit genauer max. Aufnahme. Für PCIe normal max. 25 Watt, typisch eher so 12-15 Watt.
 
Mit den CPUs und RAM hast Du Enterprise Grade Hardware und zwar nicht aus der untersten Schublade, sondern schon aus einem gehobeneren Regal. Mit dem passenden Supermicro-Brett baust Du damit nen Server, der neu und zwar vor gar nicht langer Zeit an den 5.000 Schleifen kratzt(e) (allerdings inklusive Gehäuse, redundante Netzteile und bissi Storage) und Du denkst ernsthaft darüber nach, das mit Müll aus der Consumer-Grabbelkiste zu ersetzen für zweiEurofuffzig Ersparnis bei der Stromrechnung...

Klar, kann man machen mit dem Argument der Umwelt und Überflussvermeidung (meine ich durchaus ernst!)...aber verstehen muss ich das nicht. Dann baut man das Ding TROTZDEM und wirft es halt nur an, wenn man es braucht. „Aus“ spart immer deutlich mehr als “X Watt weniger“ - Spindowm, idle states & Co. hin oder her.
 
Problem sind ja oft nicht die Anschaffungskosten, sondern die laufenden Unterhaltskosten, welche schnell in die tausende von Euros über eine handvoll Jahre gehen kann.
Wenn ich meine Geräte nicht nur bei Bedarf anmachen würde, wäre die Stromversorgung mit 35A auch etwas wenig bei drei Phasen.
 
besterino, glaube mir, ich verstehe deinen Standpunkt. Nicht so lange her hatte ich eine vergleichbare Diskussion mit dem Inhaber einer sehr bekannten IT-Firma in Deutschland, der unter anderem auch IT-Seminare für Mitarbeiter eines großen DE-Konzerns hält (nur mal die Größenordnung zu verstehen).
Es ginge allerdings um das Thema "was zu Hause bauen". Er zeigte mir auch dass er einige riesige Server hatte, Hunderte Euros Stromkosten pro Monat, dann die Photovoltaik-Anlage... und am Ende hat er (zu Hause) alles auf 3x i7 Shuttle-PC reduziert. Grund: Stromkosten und einfach finanziell nicht sinnvoll (obwohl sicherlich finanziell tragbar). Die Dinge idlen viel, und die Leistung ist mehr als ausreichend, auch mit Consumer-Hardware. Weiterhin stabil und schnell.
Wäre für mich die Sache so "klar", wären die Dinger bereits im eBay oder sonst wo (oder nicht).
Die einzige Sache die ich nicht will ist in die Kosten-Falle einsteigen - es muss berechnet sein.
Und nein, es sind NICHT potenziell "zweiEurofuffzig ", sondern wesentlich mehr. Und das leppert sich oft schnell zusammen.

Also, wenn ich das halbwegs richtig rechne, würde das Ding mit 8 Platten idlen bei ca. 120W, was heißt beim kWh-Preis von 21cent ca. €200 pro Jahr. Und das ist nicht wenig.
 
Wo bekommt man ne kwh fuer 21cent? :d Need!
21c ist aktuell der Maximum. Geht von 15c aufwärts, je nach Bundesland. Ich glaube wir sind bei 19c. In Österreich :whistle:
Beitrag automatisch zusammengeführt:

Habe mich auch ein bisschen in das Thema HBA eingelesen...
Verstehe ich das richtig, wenn ich 12 Platten haben will, habe ich damit 3x SFF-8087.
Die HBAs wie M1015 oder 9207-8i haben aber ja nur 2 Ports.
SAS Expander? Oder was anderes? Wenn das erstere, was für welche?
 
Ahso, AT, hier in DE sinds 28-30cent/kwh. Bzw was viel Energie spart ist die richtige Wahl der HDDs.

Zum Thema HBA, jedes C621 SM Brett hat eigentlich 10+ Sata Ports. Ergo ja nach Boardwahl kannst dir das direkt sparen.
 
130 Watt idle... ist doch ein etwas größerer Unterschied zu der Angabe mit nur 70 Watt.
Und bevor ich es vergesse, für ZFS ist ECC-RAM Pflicht! Wie soll es sonst bei einem Speicherfehler wissen, ob nun die Metadaten oder die Nutzdaten falsch sind, bei unterschiedlicher Prüfsumme. Nutzdaten können ebenso falsch gespeichert werden, mit einer dafür korrekt berechneten Prüfsumme.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh