ZFS-Heimserver/NAS mit Atom C3000 (Denverton) oder Xeon D

rigel

Profi
Thread Starter
Mitglied seit
25.02.2018
Beiträge
58
Hallo zusammen,

nachdem ich als stiller Mitleser eine Menge an Ideen und Vorschlägen durch diesen Bereich des Forums erhalten habe, möchte ich demnächst mein altes QNAP TS-239 Pro durch ein leistungsfähigeres, selbstgebautes NAS ersetzen. Von FreeNAS als All-In-One-Lösung bin ich mittlerweile abgerückt. Stattdessen möchte ich eine dedizierte Storage-VM unter ESXi laufen lassen, zu der ich den SATA-Controller durchreiche.

Folgende Hardware stelle ich mir vor:

4 Western Digital WD Red 10TB, 3.5", SATA 6Gb/s (WD100EFAX)
1 Kingston ValueRAM DIMM 16GB, DDR4-2400, CL17-17-17-32, ECC (KVR24E17D8/16)
1 Supermicro A2SDi-8C-HLN4F retail (MBD-A2SDi-8C-HLN4F-O)
1 be quiet! Silent Wings 3, 140mm (BL065)
1 Lian Li PC-Q25B schwarz, Mini-DTX/Mini-ITX
1 be quiet! Pure Power 10-CM 400W ATX 2.4 (BN276)

Das Board verfügt definitiv über genügend SATA-Ports, aber ich konnte bislang keine zuverlässigen Informationen darüber finden, ob sich der Onboard-Controller wohl problemlos durchreichen lässt, und (falls ja) in welcher Konstellation. Perfekt wäre es natürlich, wenn die 8 mini-SAS-Anschlüsse an einem separaten Controller hängen, sodass ich die vier normalen Anschlüsse sowie den m.2-Slot unter ESXi-Kontrolle belassen könnte. Die Optionen im BIOS deuten an, dass es so sein könnte (siehe Handbuch ab S. 73).

Gibt es hier Erfahrungswerte oder hat jemand von euch sogar eins der Denverton-Boards bereits selbst ausprobiert?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Im von dir verlinkten Manual steht bereits auf Seite 68 ganz oben etwas vom Support von VT-d. Damit kannst du also Karten durchreichen.
So wie sich die Beschreibung auf Seite 73 liest, könntest du wirklich die Sata-Ports am PCH vom Prozessor separat ansteuern. Das Manual ist aber für die gesamte Serie "A2SDi-HLN4F". Wäre also gut möglich, daß sich da je nach SoC noch kleine Differenzen ergeben.
 
Lies mal den Artikel bei Anandtech zu den neuen Xeon-D 2xxx durch, deren integrierter Lewisburg Chipsatz hat zwei SATA Host Controller:



Warte entweder auf Boards mit den neuen Xeon-D, dann hast auch gleich 10GbE oder hoffe das auch der integrierte Chipsatz von Denverton so aufgebaut ist und die sich wirklich einzeln durchreichen lassen.
 
...

Das Board verfügt definitiv über genügend SATA-Ports, aber ich konnte bislang keine zuverlässigen Informationen darüber finden, ob sich der Onboard-Controller wohl problemlos durchreichen lässt, und (falls ja) in welcher Konstellation. Perfekt wäre es natürlich, wenn die 8 mini-SAS-Anschlüsse an einem separaten Controller hängen, sodass ich die vier normalen Anschlüsse sowie den m.2-Slot unter ESXi-Kontrolle belassen könnte. Die Optionen im BIOS deuten an, dass es so sein könnte (siehe Handbuch ab S. 73).

Gibt es hier Erfahrungswerte oder hat jemand von euch sogar eins der Denverton-Boards bereits selbst ausprobiert?

Das Board hat zwei SATA-Controller, die auch separat passthrough-fähig sind. Habe hier schon mal was dazu geschrieben.
 
Vielen Dank für eure Antworten, insbesondere @oelsi für die endgültige Bestätigung. Damit steht mein Plan also grundsätzlich noch und muss nur noch etwas präzisere Form annehmen.

@Holt: Die neuen Xeon-D 2xxx sind sicherlich sehr interessant, aber im Gegensatz zum Vorgänger scheint mir der Fokus hier noch deutlich mehr in Richtung Leistung und somit weg von minimaler Energieaufnahme zu liegen. Diese Mehrleistung benötige ich aber nicht. Es soll zwar kein ganz primitiver Netzwerkspeicher sein, aber zwei VMs mit wenigen einfacheren Diensten (z.B. Nextcloud, Streaming-Server, IRC-Bouncer, SVN-Server), sollte der 8-Kern-Denverton mühelos bewältigen.

Gibt es an der sonstigen Zusammenstellung bis hierhin etwas Grundsätzliches auszusetzen? Ich habe alternativ noch an das A2SDI-H-TF gedacht, aber 10 GbE wird bei mir in nächster Zeit garantiert noch keinen Einzug ins Heimnetzwerk halten. Natürlich wäre es theoretisch zukunftssicher und abwärtskompatibel, aber der Stromverbrauch des Controllers wird wahrscheinlich auch ein Stück höher sein.

Ich benötige natürlich noch ein Bootmedium für ESXi und die Storage-VM. Würde da eine ganz billige SSD ausreichen?
1 Transcend MTS400 32GB, M.2 (TS32GMTS400)

Und dann stellt sich noch die Frage, ob ich eine geplante Anwendungs-VM (z.B. ein Debian oder dergleichen) auf den ZFS-Speicher ablege, den die Storage-VM per NFS bereitstellt, oder ob zu diesem Zweck eine weitere SSD sinnvoller wäre.
 
Besonders performant ist die ja nicht, aber dies dürfte ja keine große Rolle spielen und der M.2 Slot auf dem Board unterstützt ja auch M.2 SATA SSDs. Ich habe in meinen Heimserver eine Optane Memory als Bootlaufwerk verbaut.
 
Genau, ob ich eine SATA- oder PCIe-SSD in den M.2-Slot packe, sollte egal sein, sofern ich den zugehörigen Onboard-Controller nicht doch an die Storage-VM durchreichen will (dann würde nur PCIe gehen). Mit Boot-Optane meinst du sowas hier?

Intel Optane Memory 32GB, M.2 (MEMPEK1W032GAXT)

Ginge natürlich auch, wirkt aber etwas wie "Perlen vor die Säue". ;)

Ich muss ja auch noch überlegen, wo ich meine andere VM ablege. Muss der Speicher dafür zwingend durch die Storage-VM bereitgestellt werden? Oder kann ich unter ESXi auch eine zweite SSD zu diesem Zweck verwalten?
 
Die Frage ist dann aber, an welchem der beiden Controller denn der SATA Port des M.2 Slots hängt. Es gibt ja wohl je einen mit 6 und einen mit 8 Ports, also 14 und das Board reicht nur 12 SATA Ports raus, zwei sind also übrig und einer davon dürfte am M.2 Slot sein. Vermutlich gehören die 8 die über SFF-8643 ausgeführt sind, zu dem einen mit 8 Ports, aber ganz sicher kann man da nicht sein.

Genau mit Optane Memory meine ich so eine, wobei ich nur die 16GB habe, die ist zwar recht voll, reicht aber für meine CentOS 7.4 Installation aus und auch wenn sie voll sind, werden die Optanes ja nicht langsamer. Perlen vor die Säue ist relativ, die Optane wollte ich damals sowieso testen und haben mir damals gleich eine der ersten gekauft die überhaupt verfügbar waren und verwerte sie halt nun dort weiter. Das Vorteil ist halt, dass sie keine Data-Loss-Protection braucht weil sie keinen DRAM Cache hat und trotzdem beim Lesen und Schreiben kleiner Dateien extrem schnell ist.

Im Vergleich zu den Gesamtkosten des Servers und der Platten darin, kommt es auf die paar Euro fürs Systemlaufwerk auch nicht an, da will ich dann schon eine die auch einigermaßen zuverlässig ist und da der Server im Dauerbetrieb läuft, ist eine gewisse Sicherheit vor Problemen durch unerwartete Spannungsabfälle nicht verkehrt.
 
Zuletzt bearbeitet:
@rigel
Finger weg von billigen SSDs. Dem ESXi ist das egal, aber zumindest die meisten SATA-SSD haben ein Plastikgehäuse, das sehr zuverlässig jeden Luftzug blockiert. Dadurch und durch jeden Schreibzugriff auf die SSD erhitzt sich diese intern unerwartet hoch, weil inzwischen Schreibverlustleistungen von 5W völlig normal sind. Der ESXi kennt als Server-OS auch keinen Idle-Betrieb. Folglich schickt er die SSD auch nicht in den DeepSleep-Zustand, worin die meisten SSDs nur noch wenige Microwatt aufnehmen. Bei meiner Sandisk SSDPlus-240 hatte sich das böse gerächt. Die SSD ist nach knapp 10 Monaten nicht mehr ansprechbar und somit als Komplettausfall durchgefallen.
 
Was schreibst Du für einen Blödsinn? Die anständigen Consumer SSDs wie die von Samsung oder auch die von Crucial haben Metallgehäuse und keine Temperaturprobleme wenn ein gewisser Luftzug über sie hinweg zieht. Außerdem nehmen SSDs die 5W wenn überhaupt, allenfalls bei Dauerlast auf, vor allem Schreibend brauchen sie meist mehr als Lesend, aber für Dauerschreiben sind solche Consumer SSDs sowieso eher nicht gemacht und wenn dies wirklich erfolgt, sollte man schon wegen der Haltbarkeit Enterprise SSDs wählen, da kosten die TBW dann nämlich weniger. Deine SanDisk Plus war immer nur eine Billigst-SSD die nicht einmal einen DRAM Cache hat und sowas sollte man schon gar nicht erst kaufen, erst recht nicht für eine Serveranwendung. Die Temperaturen dürften aber nichts damit zu tun haben das die nur 10 Monate durchgehalten hat.
 
Zuletzt bearbeitet:
Es ging ja zunächst einmal um die Bootplatte, auf der ESXi und die Storage-VM liegen werden. Da ich hier eine M.2-Variante wählen möchte, spielt die Metallgehäuse-Diskussion wohl eher eine untergeordnete Rolle. :cool:

Im Forum wird hier meist die Meinung vertreten, dass sogar ein USB-Stick reichen würde, da die Schreiblast gering ist und ESXi mit Solaris/napp-it im Notfall recht schnell wieder aufzusetzen ist. Also sollte die verlinkte Transcend oder auch diese hier doch allemal ausreichen, oder (es geht um einen privaten Heimserver)?:

Transcend MTS800S 64GB, M.2 (TS64GMTS800S)
 
Das ist eine M.2 SATA SSD und damit hängt es vom Board ab, ob die reicht, denn nicht alle Boards haben auch einen SATA Port am M.2 Slot und wenn, dann kostet es einen zuweilen einen oder sogar zwei normale SATA Ports, wenn man dort eine SATA SSD verbaut. Dies sollte man vorher anhand des Handbuches des Mainboard abklären und sehen ob man ggf. damit leben kann. Ebenso sollte man vorher klären ob die Länge passt und wenn der M.2 Slot auf der Rückseite ist, wie es dort mit dem Platz und ggf. der Kühlung aussieht.

Keine Ahnung wie viel Platz Du brauchst, aber mir haben die 14,4GB die die Optane Memory 16GB in Wahrheit nämlich nur hat, für das CentOS 7.4 meines Heimservers gereicht und die Optane Memory 16GB gibt es ab 24€, nur ob dann bei Dir noch die Storage-VM mit drauf passen, bezweifel ich doch. Besser als mit einem Stick solltest Du mit der Transcend MTS800S auf jeden Fall fahren.
 
Wie im Eingangspost geschrieben plane ich ja momentan mit dem Supermicro A2SDi-8C-HLN4F, welches am M.2-Slot auch SATA SSDs verträgt (laut Handbuch kostet das nicht einmal einen der anderen Ports, was aber für mich vollkommen egal wäre, da mir die 8 Ports des zweiten Controllers, den ich ja durchreichen würde, völlig für Storage ausreichen).

Eine andere Variante wäre das X10SDV-4C-TLN4F, welches nur sechs SATA-Ports an einem Controller hat. Somit wäre ich hier auf jeden Fall auf eine PCIe-SSD wie die Optane angewiesen, da die SATA-Ports ja alle an die Storage-VM durchgereicht werden.

Ich glaube, ich muss noch einmal gründlich darüber nachdenken, welches der beiden Boards ich nun tatsächlich kaufen möchte. Wenn man die Preise vergleicht, muss man wohl zugeben, dass man bei dem Xeon-D-Board deutlich mehr fürs Geld bekommt. Das Board hat sowohl 1Gbit-, als auch 10GBit-Ports. Letztere könnte ich zum Stromsparen deaktivieren, solange das Heimnetz nicht umgerüstet ist (was auch noch langer der Fall sein wird). Da ich mit 4 HDDs + 1-2 SSDs plane (Bootlaufwerk dann per PCIe), wären die sechs SATA-Ports gerade ausreichend. Der Xeon-D hat zwar nur die halbe Kernzahl, dürfte aber unterm Strich dem Atom tendenziell überlegen sein.

Gegen das Xeon-D-Board spricht, dass die Plattform schon etwas angestaubt ist, der Nachfolger in den Startlöchern steht, der Stromverbrauch im Idle vermutlich ein ganzes Stück höher sein wird und die 6 SATA-Port eben nicht viel Spielraum bieten.

Wenn ihr euch entscheiden müsstet, welches der beiden Boards würdet ihr favorisieren?
 
Der Atom C3758 hat 16 SATA Ports von denen aber "nur" 12 auf dem Supermicro A2SDi-8C-HLN4F verfügbar sind, ein 13. dürfte für den M.2 Slot benutzt werden. Wegen der 10GbE würde ich das Xeon-D Board nehmen, wenn Du mit 6 SATA Ports auskommst. Die Idle Leistungsaufnahme dürfte sich übrigens gar nicht so groß unterscheiden, denn alleine die Aspeed IPMI brauchen leider schon einiges an Leistung, die Leistungsaufnahme der SoC dürfte im Idle nicht so unterschiedliche sein, die brauchen ja nicht ständig so viel wie die TDP angibt, sondern nur unter Last.

Was die Performance angeht, so findest Du hier einen Review des Atom C3558 mit 4 Kernen bei gleichem Takt und auch mit dem Xeon-D 1518 und dem Pentium-D 1508 2 Kerner im Vergleich. Da der 1508 einen Turbo bis 2,6GHz hat, ist er bei der Singlethreadperformance besser als der 1518, beide liegen aber in der Hinsicht vor dem Denverton.
 
Danke für den Link zum Test des kleineren Denverton. Die Verbesserung zum Vorgänger Avoton (C2000) ist schon bemerkenswert. Im Singlethread hat der Xeon-D zwar noch die Nase vorn, aber ich sehe auch, dass der Abstand nicht mehr besonders groß ist. Die Frage ist nun: Wie relevant ist die Singlethread-Performance in meinem oben beschriebenen Anwendungsfall überhaupt? Ich habe ja vor, zumindest zwei VMs mit ESXi laufen zu lassen (Storage und Anwendungen). Schreit Virtualisierung nicht eher nach vielen Kernen?

Leider wurde in den Tests nie der 8-Kerner C3758 untersucht, aber es gibt Ergebnisse der 16-Kern-Variante C3958. Wenn man nun zwischen C3558 und C3958 interpoliert, dürfte der C3758 im Multithread-Betrieb gleichauf mit dem Xeon D-1518 sein. Der Xeon-D unterstützt allerdings AVX2, was in Zukunft eventuell einmal zum Vorteil werden könnte.

Auch, wenn ich inzwischen etwas mehr zum D-1518 tendiere, fällt mir diese Entscheidung momentan extrem schwer. Wenn ich mich erst einmal zwischen Supermicro A2SDi-8C-HLN4F und X10SDV-4C-TLN4F entscheiden habe, wird die restliche Planung wohl sehr einfach.

Habt ihr noch gute Argumente, die mir diese Entscheidung etwas erleichtern? :)
 
Schwierige Entscheidung aber:

Für den Atom:
- Etwas Spaarsamer
- zwei Sata Controller

Für den Xeon:
- 2x 10G
- 16x PCI-E + 4x PCI-E (M.2)
- 2x USB 3.0

Denke von der Leistung her nehmen sich die beiden nicht so viel Beide haben 8 Threads und um ne kleine VM zu bedienen reicht meist auch HT. Wenn du wirklich viel Leistung willst / brauchst ist denke ich keines der beiden Boards das richtige.

Denke auch wenn der Xeon-D "älter" ist hat er mehr Potential in die Zukunft. 10G ist schon da und du hast noch nen vollen PCI-E 16x Steckplatz statt nur nen 4x. NVMe als Host-Storage + 6x Sata in der Storage VM kann ja fürs erste reichen.
 
Bei Verwendung des NVMe fällt einer von den 6 SATA Ports weg (zumindest beim z.B. X10SDV)
 
Bei Verwendung des NVMe fällt einer von den 6 SATA Ports weg (zumindest beim z.B. X10SDV)

War mir nicht bewusst, dachte mit NVMe hat man noch die 6 Port's; dass bei m-Sata einer weg ist ja klar.

Trotzdem denke ich das die Option mit dem Xeon-D besser als mit dem Addon ist. Sonst braucht man noch nen HBA.
 
Gut, dass wir darüber noch mal sprechen. :) Falls ein SATA-Port beim X10SDV tatsächlich immer wegfällt, sobald man den M2-Slot verwendet, könnte ich als VM-Storage keine zwei SSDs als Spiegel vorsehen, sondern nur eine einzige.

Ich glaube aber ehrlich gesagt nicht, dass das für NVMe gilt. Im Handbuch stehen u.a. folgende Aussagen:

M.2 Socket (Shared with I-SATA0 when a SATA device is installed in M.2)
...
The X10SDV M.2 is mux with the I-SATA0 port for legacy SATA SSD devices

Scheint also wie vermutet nur dann zu gelten, wenn man im M.2-Slot eine herkömmliche SATA-SSDs betreibt, aber nicht bei NVMe. Untermauert wird das auch durch die Konfiguration im STH-Test:

SSD: 6x Intel DC S3700 400GB, 1x Samsung XP941 512GB, 1x Intel DC P3600 400GB(add-in HHHL card)

@Anarchist: Da du ein Board aus der Reihe hast: Bist du dir wirklich sicher, dass es so ist, wie du geschrieben hast?
 
@rigel, ich bin bisher nur davon ausgegangen. Aber so wie es scheint und v.a. auch die Konfig bei STH zeigt dürftest du recht haben und NVMe und 6 Ports ist möglich.
 
In Ordnung, mein aktueller Vorschlag sieht nun wie folgt aus:

1 Supermicro X10SDV-4C-TLN4F retail (MBD-X10SDV-4C-TLN4F-O)
1 Kingston ValueRAM DIMM 16GB, DDR4-2400, CL17-17-17-32, ECC (KVR24E17D8/16)
1 Intel Optane Memory 32GB, M.2 (MEMPEK1W032GAXT)
4 Western Digital WD Red 10TB, 3.5", SATA 6Gb/s (WD100EFAX)
1 Lian Li PC-Q25B schwarz, Mini-DTX/Mini-ITX
1 Corsair SF450 450W SFX12V (CP-9020104-EU)

Meine Anmerkungen/Fragen:

  1. Als Netzteil habe ich nun zum Corsair gewechselt, da die Effizienz im unteren Lastbereich noch etwas besser als beim BeQuiet sein soll und das SFX-Format im ITX-Gehäuse von Vorteil sein dürfte.
  2. Als Bootlaufwerk die Optane, da im NVMe-Bereich noch unter den günstigsten. Zur Sicherheit nun doch die 32-GB-Version, aber wie viel Speicher benötige ich für ESXi + OmniOS + napp-it denn nun tatsächlich? Ich will nicht bei 95 % disk usage landen und der Aufpreis für 32 GB macht den Kohl jetzt auch nicht mehr fett (Preisrahmen ist sowieso schon überzogen :heul:), aber wenn 16 GB sicher ausreichen, nehme auch gerne die kleinere Optane.
  3. 16 GB RAM sollten als Heimuser auch bei ZFS fürs Erste ausreichen, oder? Kann ich problemlos DDR4-2400 nutzen, obwohl das Board nur DDR4-2133 verträgt, oder erkaufe ich mir damit einen Nachteil? DDR4-2133er Module haben ja i.d.R. etwas bessere Timings.
  4. Wo ist der Unterschied zu den Kingston Server Premier, lohnt sich der Aufpreis?

Als Ablage für die Anwendungs-VM benötige ich noch eine zuverlässige SSD. Da ich eigentlich keine 256 GB brauche, dachte ich zunächst an eine günstige von Intel:
Intel SSD 545s 128GB, SATA (SSDSC2KW128G8X1)

Der Preis/GB ist aber gar nicht so überragend (256 GB scheint halt mehr oder weniger die neue Untergrenze bei SSDs), daher scheint mit die Crucial ganz brauchbar zu sein. Die hat sogar immerhin eine Power-Loss-Protection für ruhende Daten:
Crucial MX500 250GB, SATA (CT250MX500SSD1)

Die echte Server-Variante wäre dann sowas, aber die Schreib-Geschwindigkeit scheint mir etwas niedrig:
Intel SSD DC S4500 240GB, 2.5", SATA (SSDSC2KB240G701)

Fahre ich da nicht mit der Crucial insgesamt besser? Wenn ich eh vorhabe, auf der SSD ZFS einzusetzen, in welchen Szenarien würde mir die echte Power-Loss-Protection etwas bringen?
 
Bei Verwendung des NVMe fällt einer von den 6 SATA Ports weg (zumindest beim z.B. X10SDV)
Nein tut es nicht, nur wenn man eine M.2 SATA SSD in den M.2 Slot packt, dann fällt einer der SATA Ports weg! Bitte verbreite keinen solchen Unsinn! Ich habe selbst ein X10SDV, nämlich das Supermicro X10SDV-TLN4F retail (MBD-X10SDV-TLN4F-O), nutze alle 6 SATA Ports und habe eine NVMe SSD (die Intel Optane Memory) als Systemlaufwerk im M.2 Slot.

Stueckchen und rigel, vergesst das also wieder, denn es ist definitiv nicht korrekt, Anarchist kennt offenbar den Unterschied zwischen einer M.2 SATA und einer M.2 PCIe NVMe SSD nicht!

- - - Updated - - -

rigel, ja Du kannst auch 2400er RAM nutzen, die ersten Xeon-D (1520 und 1540) haben nur 2133er unterstützt, die zweite Generation wie der 1541 unterstützt 2400er, aber für den 1518 gibt Intel nur 2133 an, denn laufen die RAMs eben nur als 2133er, aber bei nur einem Riegel ist der RAM Durchsatz sowieso gering, da man für Dual Channel zwei gleiche Riegel braucht.

Die Schreibrate der Intel SSD DC S4500 ist gering, wird aber dafür auch über die ganze Kapazität erreicht, die MX500 oder 545s schaffen die angegebene seq. Schreibrate nur über ein paar GB die in den Pseudo-SLC Cache passen, dann bricht die Schreibrate dort auf ähnliche Werte ein. Die IOPS Schreibend sind bei Enterprise SSDs wie der Intel SSD DC S4500 auch im Steady State angegeben, also so viele IOPS schafft sie immer mindestens, meisten, z.B. wenn sie leer ist auch viel mehr. Bei den Client SSDs wie der 545s und MX500 werden die IOPS schreibend dagegen im Optimalzustand angegeben, die schaffen also die angegebenen IOPS nur bei leerer SSD über einen kleinen Adressraum und nur für kurzes Zeit, wenn sie dauerbeschrieben werden, schaffen sie vermutlich sogar weniger IOPS schreiben als die Intel SSD DC S4500.

Außerdem hat die Intel SSD DC S4500 eine Full-Power-Loss Protection und für einen Server ist dies nicht uninteressant, zumal sie damit immer ihren Schreibcache nutzt, auch wenn das BIOS oder die SW diesen deaktivieren um Datenverlust zu vermeiden. Dann wäre bei den anderen die Schreibperformance richtig mies, während es bei der DC S keinen Einfluss hat da sie weiterhin ihren Schreibcache nutzt, sie kann die Daten ja auch im Falle eines Spannungsverlusts noch wieder zurückschreiben.

Von den dreien würde ich Intel SSD DC S4500 als die zuverlässigste SSD ansehen.

Was die HDDs angeht, bedenke das die WD Red nur eine UBER von 1:10^14 haben, bei einem RAID mit einfacher Redundanz besteht damit zumindest theoretisch nur eine Chance von weniger als 0,5% das dies ohne einen unkorrigierbaren Lesefehler abläuft. Die Seagate IronWolf 10TB hat eine UBER von 1:10^15 und damit beträgt die Chance dann 77%. Bei den großen IronWolf muss man aber bzgl. der Befestigungslöcher aufpassen, denn die haben die mittleren Gewinde nicht, sondern seitlich und unten nur die je 4 äußeren Gewinde.

PS2: Schau Dir vielleicht mal das Supermicro X10SDV-4C-TLN2F an, da ist anders als bei Geizhals angegeben der Xeon-D 1521 drauf, der hat 2,4GHz und einen Turbo bis 2,7GHz und kostet sogar etwas weniger. Dem fehlen die Gigabit Board vom Intel i350 was auch eine gewisse Energie einspart und die 10GBASE-T Ports unterstützen auch Gigabit, der i350 ist also verzichtbar und die 45W TDP bedeuten nur bei Last mehr Leistungsaufnahme, aber dafür ist die dann ja auch schneller. Oder schau Dir das Supermicro X10SDV-6C+-TLN4F retail (MBD-X10SDV-6C+-TLN4F-O) mit dem Xeon-D 1528 6 Kerner mit 35W TDP und 1,9GHz bis 2,5GHz an, dies kostet dann aber mehr als das welches Du ausgewählt hast.

Beachte übrigens beim Zusammenbau den Hinweis bzgl. der Spannungsversorgung, denn bei den X10SDV darf anderes als es üblich ist nur entweder der 24 polige ATX Stecker oder der 4 polige Stecker daneben angeschlossen werden, aber nicht beide gleichzeitig, wie es sonst nötig ist! Das liegt daran, dass die bei Anschluss des 4 Poligen Steckers die anderen Spannungen selbst erzeugen und die Spannungswandel kaputt gehen, wenn diese leicht von denen des Netzteils abweichen.
 
Zuletzt bearbeitet:
Danke für die ausführlichen Erläuterungen, Holt, ich bin durch deine Hilfe inzwischen zu einer Entscheidung gekommen und die Sachen sind gestern bereits geliefert worden (nur die HDDs habe ich noch nicht bestellt, da ich mir hier noch nicht 100%ig sicher bin und mit dem restlichen System sowieso erstmal genug zu tun habe). :)

Als SSD für VMs ist es die DC S4500 geworden, beim Mainboard habe ich es nun beim X10SDV-4C-TLN4F belassen, da es mir in meinem Anwendungsfall doch passender erscheint, als das etwas schnellere X10SDV-4C-TLN2F.

Nach dem gestrigen Zusammenbau habe ich zunächst probeweise ESXi auf die Optane installiert. Das hat auch soweit problemlos funktioniert, aber der Idle-Verbrauch entspricht momentan überhaupt nicht dem, was ich erwartet hatte. Unter ESXi messe ich (ohne eine installierte, geschweige denn laufende VM) exakt 35 W, im ausgeschalteten Zustand 10 W (Messgerät ELV Energy Master). Das Deaktivieren der 10GbE-Ports per Jumper hat beide Werte um gerade einmal 2 W reduziert. Und ich habe noch nicht einmal Lüfter oder die große SSD angeschlossen. Es läuft nur das Board mit RAM und der M.2-Optane.

Mir ist klar, dass Werte aus irgendwelchen Tests immer mit Vorsicht zu genießen sind, aber wie können bei STH 4,8 W bzw. 22,3 W gemessen worden sein? Mache ich irgendetwas falsch?
 
Nein. Ich hatte auch 10,x Watt im Power-off gemessen. Das wird sich aus BMC + 10G ergeben, da sichtbar das 10G aktiv ist, obwohl das BMC ein eigenen LAN Port hat. Nur 2W fürs 10G? Ich werde das auch mal prüfen, ich hatte mehr auf 5W getippt, da das Supermicro-BMC auf einer anderen Platine 5,x W nimmt.
 
Die 10W dürften von der IPMI (also dem Aspeed AST2400) verbraucht werden, die sind leider nicht sehr sparsam. Die 2W für die 10GbE Ports sind normal, die brauchen heuzutage weit weniger Strom als die meisten glauben, früher waren die PHYs deutlich weniger sparsam, aber heute ist 1W pro Port durchaus normal. 35W nur unter ESXi scheinen mir aber viel zu sein, die Optane Memory nimmt ein 1W (die 800P sind im Idle sparsamer wenn entsprechende Energiespareinstellungen aktiviert werden), werden da keine Energiespareinstellungen unterstützt? Installiere doch zum Spaß mal Windows und schau mit HWInfo64 (dort unter Sensors) was für eine Leistungsaufnahme dort fürs RAM und die CPU im Idle angegeben wird.
 
Ich habe zwar das X10SDV-TLN4F also mit dem Xeon-D 1541 8Core/16Thread aber ich kann die 9-10W im Power-Off bestätigen, auch den hohen Verbrauch unter ESXi kann ich bestätigen. Da gab es auf STH auch mal ein Update bei irgendeinem Artikel, dass spätere Serienboards deutlich mehr verbraucht haben als die ersten die sie getestet haben.
Falls Du aber doch noch rausfinden solltest wie man das sparsamer bekommt wäre ich auch sehr interessiert.
 
Interessanter Punkt, snipor. Du weißt nicht zufällig noch, wo genau das stand mit dem unterschiedlichen Verbrauch zwischen Serien- und Vorserienboards?

Ich bin deinem Vorschlag mal gefolgt, Holt, und habe Windows 10 direkt auf die Optane installiert. HWiNFO64 zeigt im Idle etwa 9,4 W bzw. 2,2 W an:

watt.png

Außerdem habe ich noch kontrolliert, ob die Kerne sauber heruntergetaktet und die tieferen C-States erreicht werden:

cstates.png

Das scheint der Fall zu sein. Unter Windows messe ich einen Idle-Verbrauch von etwa 31 Watt, also minimal sparsamer als ESXi, was nicht unerwartet ist.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh