[Sammelthread] HP ProLiant G10 X3216/X3421 MicroServer

Ubuntu 16.04 LTS mit ein paar Cache optimierungen und einem mdadm SW-Raid + LVM und ext4 Dateisystem -> ohne LVM und stattdessen XFS wäre ev. noch mehr zu holen, aber ich werde eher mal nen transparenten Cache mit ner zusätzlichen SSD erstellen. Ach ja System ist auf einer 32GB microSD Karte, Daten werden über Samba an Windows / MAC und Co verteilt. Über Gbit mit 90-115 MB / sec und über 10 Gbit mit 300 -380 MB /sec. Aktuell sind 10GB Ram im Würfel wovon der Großteil als Cache dient.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Speed-Test am HP Gen8:
Windows 2012 R2 Storage Spaces mit Parity am G8 mit 4 x WD Red 4 TB im IDE Modus: 127,4 MB/s Read.
Testprogramm: OS-Read-Funktion mit einer einzelnen, bestehenden Datei mit 1,17 GB und 10 MB Read-Buffer im Testprogramm.

In diesem Fall also weder 300 MB/s noch 30 MB/s Read sondern irgendwas dazwischen :)

CrystalDiskMark hat offenbar massive Probleme mit Storage Spaces. Ein Test (obiges System) über ein Netzwerklaufwerk ergab vergleichbare Lesegeschwindigkeiten (jedoch beschränkt auf das Gigabit-LAN), der selbe Test mit dem selben Programm direkt am Gen8-Server mit Storage Spaces ergab stark schwankende Ergebnisse (30-200 MB/s).

Anmerkung: Windows ist irgendwie gefinkelt, sobald die Datei kleiner ist, als der freie Arbeitsspeicher, und man den Test wiederholt, erhält man Lesegeschwindigkeiten im 3-4 GB/s Bereich, bis man den "freien Speicher" mit einem weiteren, großen Lesevorgang überschreibt. Getestet habe ich das Verhalten mit 8 GB freiem Arbeitsspeicher, erst sobald ich mehr als 8 GB an Dateien mehrfach "gelesen" hatte, sank die Lesegeschwindigkeit wieder auf das normale Maß (in meinem Fall ~140 MB/s von einer einzelnen WD Blue). Mir war es wichtig, ein eigenes Testprogramm zu schreiben welches ganz normale Windows-Read-Funktionen verwendet (so wie auch die meisten anderen Programme, die von einem Laufwerk lesen).
 
Zuletzt bearbeitet:
Ich verfolge den Thread schon eine Weile. Da heute die ersten Gen10 Microserver eingetroffen sind wollte ich auch mal meine Anmerkungen dazu schreiben aus der Sicht von jemand, der Microserver bei Kunden einsetzt als eine Art Appliance auch mal in etwas grösserer Stückzahl.
Im Vergleich zu Gen8:
- Montageschrauben hinten sind nun in vereinfachter Ausführung
- Frontpanel schliesst z.T. nicht immer sauber ab, so dass leichter Spalt oben sichtbar ist
- Es lassen sich weiter HP 654540-001 2.5" Adapter verwenden
- Es gibt nun UEFI... allerdings ist der Legacy-Boot Modus verhunzt. Konfiguriert man auf Legacy, dann funktioniert der VGA Ausgang zum Setup nicht mehr. Ich musste Displayport Monitor anschliessen. Ärgerlich: Wenn kein Monitor dann am Displayport, dann hängt er irgendwo beim Booten. Schrödingers Boot? (Hab auf aktuelles BIOS manuell vorher aktualisiert, da Update mittels SPP nicht klappte.)
- 2017.7.1 SPP startet zwar, scheitert allerdings während des Inventory auf localhost. (Hinweis am Rande: Das 2017.7.1 enthält wohl nur noch Gen9/Gen10 Firmwares. HPE hat da für ältere ein alternatives SPP.)
- Sieht auf den ersten Blick so aus, dass write-cache der Festplatten by-default aktiv ist. Sollte man dran denken zu deaktivieren, wenn man keine USV am Start hat.
- Grober sysbench Lauf im Vergleich zum G1610T: Mit 1.2GHz ist der X3216 ca. 33% langsamer als der G1610T. Mit 1.6GHz ca. 33% schneller. (War nur ein kurzer Test auf CentOS 6.)
- Vorteil: AES, Arbeit mit Festplattenverschlüsselung entlastet spürbar die CPU.
- Die fest verlötete CPU... X3216 mag ein vergleichbarer Ersatz für die G1610T sein. X3421 so als Ersatz für E3-1220LV2 und vielleicht gerade noch so für E3-1220V2. Ich setze auch 1230v2 und 1240v2 ein, mit deaktiviertem Turbo ist der Betrieb auch unter Last unproblematisch. Dieser Leistungsbereich kann mit dem Gen10 nun nicht mehr abgedeckt werden.
- Das fehlende iLO spielt in meinen Einsatzszenarien keine Rolle.

Tja, mein Fazit: Die VGA und SPP Probleme könnten mit BIOS Updates und dem nächsten SPP schon behoben sein. Abwarten also. Ich denke, ich werde weiter Gen8 Bestände kaufen und nochmal in einem Jahr schauen. Im Moment kommt es mir jedenfalls vor: N54L -> 3 Schritte vorwärts -> Gen8 -> 2 Schritte zurück -> Gen10. Schade.
 
Zuletzt bearbeitet:
- 2017.7.1 SPP startet zwar, scheitert allerdings während des Inventory auf localhost. (Hinweis am Rande: Das 2017.7.1 enthält wohl nur noch Gen9/Gen10 Firmwares. HPE hat da für ältere ein alternatives SPP.)

Das ist wohl normal, da die SPPs nur mit ILO zusammen funktionieren. Beim ML10 Gen9 sieht das nämlich genau so aus.
 
Der G10 sieht für mich recht gut aus.
Ich plane gerade meinen VMware Server Zuhause gegen einen G10 zu ersetzten.

Der Plan wäre:
* G10 mit der X3421 CPU und 32Gb Ram
* 4x 10Tb HDD
* 1x 256Gb SSD als ZFS Cache (entweder via PCI-E oder 5x SATA Port)
* 1x 10Gbit Karte

Als Software wird Debian mit ZFS eingesetzt. Meine VMware VMs konvertiere ich auf KVM um. Sind ca. 6 VMs.
Die Leistung der CPU sollte reichen da ich nur Linux verwende mit Services die nicht so viel CPU benötigen (Apache/CheckMK/Samba/MPD/Teamspeak/Plex/usw...)

Hat schon jemand die Erfahrung gemacht mit größeren HDDs als 4Tb in diesem Gerät? Ich will die HDDs sowieso nur durch den Kontroller schleifen damit ich im OS sauber mit ZFS arbeiten kann. Die Frage ist ob es hier irgendwelche Probleme gibt weil HP mal wieder meinen könnte das sie das nicht wollen.
 
Mich würde jetzt tatsächlich mal der Stromverbrauch der "Performance" Variante interessieren.
X3421 mit OS SSD und zum Beispiel 2 HDDs als Storage.

Hier schreibt jemand was von 29W im idle, er schreibt aber tatsächlich leider nichts zur hardwaremässigen Ausstattung in diesem Moment
Comparing the HPE ProLiant Gen10 MicroServer BETA to Previous MicroServers - Page 2 - Microserver Gen 10 - RESET Forums (homeservershow.com)

- - - Updated - - -

At idle I'm seeing a power requirement of about 29.7W with my current configuration: HPE ProLiant MicroServer Gen10 BETA 32GB RAM (2 x KVR24E17D8/16) Windows 10 Pro x64 with HyperV enabled OS Dr...
leider sieht man dann nicht mehr ganz was noch im Server steckt. Wenn da jetzt noch Platten hinzu kämen ist der Verbauch zum Gen8 mit Low Voltage Xeon nicht nennenswert..
 
@ nr8: Ein Setup mit PCIe-SSD und 10Gbit gleichzeitig: ist nicht (sinnvoll). Denn einer der beiden PCIe-Slots ist elektrisch nur ein 1x Slot. Zu langsam für 10Gbit und massivst zu langsam für PCIe-SSD. Auch der verbaute Sata-Controller ist sehr alt und schlecht angebunden (nur 2x PCIe 2.0)

Debian mit ZFS on Linux? Kann kein Trim für SSDs. Bzgl. "SSD-Cache" musst Du auch genau überlegen "welcher Zweck" (L2ARC ("Readcache") oder als SLOG-Device (dafür willst Du keine Consumer-SSD)). Anwendungs-Szenarien, wo man wirklich von L2ARC und/oder SLOG profitiert, sind im Heimumfeld nicht so häufig und in solchen Szenarien ist der Gen10 Microserver eher eh ne Nummer zu klein.


@kosch0815: Ja, der Gen10 ist IMO definitiv ein Fall "Design-to-cost" (und sollte eher Gen 7.5 heissen...) aufgrund des Ergebnisdrucks, um Herstellkosten zu drücken. Man könnte auch unschöner "Reste-Rampe" schreiben...
Das Ding ist IMO nur für ne ziemlich enge Nische; nix für Enthusiasten, nix für Unternehmen. Fast schon wie der Versuch nachzuweisen, das man sich vom Produkt "Microserver" trennen will weil die Absatzzahlen so schwach sind.
 
Zuletzt bearbeitet:
Hier schreibt jemand was von 29W im idle, er schreibt aber tatsächlich leider nichts zur hardwaremässigen Ausstattung in diesem Moment

Das hat Joe_Miner gepostet der mal zugegeben eher nichtssagende Reviews macht auch die Beta Review vom Gen10 war sein ohne größeren Informationsgehalt und miesem Audio leider.
In den Videos hat er Platten verbaut und er zeigt das die Kiste läuft aber mehr leider nicht. Ob die Platten auch im Idle waren erfährt man nicht.
Ich würde das ignorieren bis mal jemand eine vernünftige Review gemacht hat.
 
Testet den Server wegen Stromverbrauch bitte "nackt". Vllt maximal ne SSD als OS Platte. Ich denke das Zeug was man selber einbaun will dessen Strombedarf wird man in etwa kennen.
Sobald einer 2 HDDs reinbaut, den Ram noch aufrüstet und vllt noch ne Erweiterungskarte reinsteckt damit kann man am Ende dann kaum noch was anfangen. HDDs haben auch einen sehr unterschiedlich hohen Strombedarf je nach Platter Anzahl, wenn man dann noch mehrere hat summiert sich das alles usw.

@nr8: wegen ZFS Cache benutz einfach etwas mehr Ram. Aber wie Trambahner schon schreibt muss man daheim auch erstmal die Anwendungen haben um davon zu profitieren. Beim reinen Datengrab eher weniger. Dokumente benutzt man dann auch eher selten ständig die selben Dateien. Für VMs kann es sich lohnen eigentlich. Wobei hier in meinen Augen der Trend sowieso schon klar zu SSD geht, sprich da brauchste es dann so gesehen eigentlich auch net mehr.
Es macht dann sowieso viel mehr Sinn 2 Pools zu haben, einmal SSD und einmal HDD und sich dann überlegen was man wo drauf speichert. Videos zum Achivieren kommen dann auf die HDDs, genauso wie Dokumente. VMs kommen auf die SSDs usw. Hat auch den Vorteil dass die HDDs sich schlafen legen können was sie nicht können wenn darauf noch VMs am tun und machen sind.
 
Zuletzt bearbeitet:
Und für einen SSD-Pool ist der eingebaute Marvell viel zu langsam, das geht sinnvoll nur mit einem HBA in dem 8x-Slot. Nur: dann geht weder 10Gbit sinnvoll noch eine PCIe-SSD. Insofern sind performante Aufrüstwege bei der Kiste extrem begrenzt und in meinen Augen nicht wirklich sinnvoll darstellbar.

Als kleiner Mediaserver-/Player oder nackt ein BSD installieren mit HDD-only Storage und dann die eine oder andere kleine VM über Virtualbox oder bhyve: ja, sowas geht mit dem Ding. Ich denke, die Hauptzielgruppe düfte Mediaserver und -Player sein; angesichts der verbauten Grafik.
 
Zuletzt bearbeitet:
Im Datenblatt ist der mit Anbindung max. PCIe 2.0*2 , also 1 GB/s abzüglich Protokolloverhead, damit kommst also bei ~ 850 Mb/s raus. => 2 SSD und die Anbindung ist am Anschlag und limitiert bereits.
4 schnelle 7200er HDD (also z.B. HGST Deskstsar NAS) werden also bei sequentiellen Zugriffen in den äusseren Plattenzonen auch schon leicht limitiert.
 
Zuletzt bearbeitet:
Über PCIe 2.0 x2 gehen real maximal so 750 bis 800MB/s, mehr schafft der also auf keinen Fall.
 
Damit ist er für 4*5400er oder 5900er HDD gut, 7200er auch noch wenn man mit kleinen Einschränkungen in der Spitze leben kann. In der Realität gibts ja eh nicht nur sequentielle Zugriffe, insofern kann man ihn für Platten-Arrays mit max. 4 Platten bzgl. Durchsatz wohl noch brauchen. Und genau das passt ja in die Kiste. Für SSD-Arrays aber ungeeignet.

Ich sag ja: Medienspeicher mit TV-Anschluss.
 
HDDs schaffen die maximalen Transferraten nur auf den äußersten Spuren, auf den inneren normalerweise die Hälfte und von Daher sind auch bei 4 3.5" HDDs mit 7200rpm im RAID 0 die bei PCIe 2.0 x2 maximal möglichen Transferraten nur beim Lesen bestimmter Bereiche zu überschreiten, wobei neben der Drehzahl auch die Datendichte der Platten für die Transferraten wichtig ist.
 
Seh ich etwas anders Trambahner. Wenn ich da jetzt 2x HDD für Daten und 2x SSD für VMs reinpacke reicht das auch noch aus. Bei SSDs sind in dem Fall ja nicht die maximalen Datenraten so das wichtigste sondern die Zugriffszeiten. Ich meinte jetzt kein SSD Array für den Maximalen Datendurchsatz. Out of the Box hat er ja 2mal Gbit LAN, also mehr wie 250MB/s wird man da eh erstmal nicht rein oder raus transportieren ohne weitere Netzwerkkarten.
Ich persönlich denke an jeweils ein Raid1 jeweils aus 2mal HDD und 2mal SSD und 2x1Gbit reicht mir. Da sehe ich jetzt nicht so den wirklichen Flaschenhals.
 
Zuletzt bearbeitet:
Das Ding ist IMO nur für ne ziemlich enge Nische; nix für Enthusiasten, nix für Unternehmen. Fast schon wie der Versuch nachzuweisen, das man sich vom Produkt "Microserver" trennen will weil die Absatzzahlen so schwach sind.

Ein HPE Mensch sagte mir mal, dass sie damit Markanteile bei Single CPU Systemen steuern. Deswegen war der kleine Gen8 vergleichsweise günstig zu haben. Gut möglich, dass sie da drauf gezahlt haben pro System. Vielleicht kam jetzt die Vorgabe auch damit Geld zu verdienen...
 
@Trambahner und @CommanderBond:
PCI-E 3.0 1x sollte bis zu 985Mb/s schaffen. Das ist schon nah an 10Gbit dran. Damit würde ich schon zurecht kommen ;-)
Als Cache hätte ich nur L2ARC genommen. Auf den Write Cache würde ich verzichten.

Die 4x SATA Einschübe hängen ja an dem Marvell der mit PCI-E 2.0 2x angebunden sind. Sprich 1Gb/s Durchsatz. Wo hängen die beiden anderen zwei Ports dran? Also Port 5 und 6?

Bin am überlegen ob ich doch auf den Gen8 gehen soll mit einem Xeon drin aber ich finde das der Gen10 für mich persönlich mehr Vorteile bietet.

Vorteile aus meiner Sicht:
2x PCI-E -> wenn ich nur die 10Gbit Karte einbaue habe ich noch einen Slot frei für was auch immer. Zum Beispiel eine TV Karte.
32Gb Ram die verbaut werden können.
6 SATA Ports. Zum Beispiel 4x 10Tb SATA + 2 SSD für OS und Cache oder auch VMs.
Dies alles hat der Gen8 nicht wenn ich richtig informiert bin. Dafür bekommt man ihn super billig mit dem Celeron. Dann müsste man noch eine CPU nach kaufen.

Ich bin aber gerne für eure Meinungen offen :-)
 
Du hast nur 5x SATA einer kommt von der APU direkt. 6 Ports hatte nur der Beta im Test wenn ich mich nicht irre.
für den g8 wäre der i3-3250 ein günstiges Upgrade läuft dann auf 1220L Niveau.
 
Zuletzt bearbeitet:
Nr8: Pcie-Lane-Bandbreite ist brutto, da darfst etwa 20-25% für Protokoll/Handshake abziehen.

Viele 10Gbit-Nics sind PCI2.0 8x, da wären also max. 350-400 Mb/s drin. Unidirektional only.
Viel zu starke Einschränkung IMO.
 
Oder man sucht sich gebraucht einen Intel Xeon E3-1260L. Dann hätte man wieder einen Quadcore.
@Trambahner: Ja dann müsste ich die Nic in den 8x PCIE stecken.

Jedoch kann ich mich irgendwie nicht entscheiden zwischen G8 und G10.
Ich habe leider im Datenblatt nicht gefunden wie der Kontroller im G8 angebunden ist.
Hat der G8 nur die vier Ports oder gibt es dort auch vielleicht einen 5. + 6. Port?
 
Im G8 gibt es auch nur 5 Ports und da gibt es keinen Controller das sind die SATA Ports vom Intel Chipset nur HP nennt das halt B120i ...
 
Hallo ich bin neu im Forum und freue mich an der Diskussion teilnehmen zu können.
Ich habe noch eine Frage bezüglich dem g10 und der Laufwerkseinschübe. Brauche ich dazu nun einen Schlitten oder brauche ich den nicht? Dann gab es noch Fragen bezüglich der Leistungsaufnahme. Gibt es dazu nun das konkrete Zahlen? Und dann meine letzte Frage kann ich auf dem G10 auch nas4free laufen lassen?
 
Ich habe noch eine Frage bezüglich dem g10 und der Laufwerkseinschübe. Brauche ich dazu nun einen Schlitten oder brauche ich den nicht?

Die Laufwerke werden ohne Rahmen eingeschoben. Als Führung dienen die Köpfe von 4 Schrauben, die in die Laufwerke eingeschraubt werden. Die Schraubenköpfe laufen in Nuten der Laufwerksschächte.
 
Im G8 gibt es auch nur 5 Ports und da gibt es keinen Controller das sind die SATA Ports vom Intel Chipset nur HP nennt das halt B120i ...
Wenn der G10 aber einen "echten" Controller hat wäre dies durchaus ein Vorteil denn so kann man den komplett durchreichen in eine VM was man beim G8 nur durch den Einsatz einer Controller Steckkarte erreichen würde.

Die VMs könnten dann auf einer PCIe NVM liegen beispielsweise.
 
Zuletzt bearbeitet:
Wenn die Laufwerke über die Schrauben eingeführt werden, verursacht das nicht mehr Geräusche?
 
Da es ein Server ist, wird auf so etwas eher weniger bei der Entwicklung geachtet.
Ja, das übertragen von Vibrationen wird so begünstigt. Es ist aber nicht dramatisch.

Gesendet von meinem XT1635-02 mit Tapatalk
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh