[Sammelthread] HPE ProLiant MicroServer Gen10 Plus G5420/E-2224

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
hm, nen low Profile Karte mit 2x M.2 kenne ich ehrlich gesagt nicht ...

Software Raid 1 vom Bootmedium konnte schon FreeNAS 9.x mit 2x USB Sticks, wenn man das so sehen will ;)
 
Sagen wir mal so:

Wir ignorieren das Preisschild, welches HPE an der HPE Artikelnummer

P12965-B21 HPE NS204i-p x2 Lanes NVMe PCIe3 x8 OS Boot Device

dran hat, und sehen davon ab, dass diese PCIe Karte nicht offiziell für den MSG10+ freigegeben ist.

Dann spricht nichts dagegen, dieses Hardware RAID1 mit 0,5 Drive Writes Per Day als Bootplatz für das Serverbetriebsystem zu nutzen
 
Hallo in die Runde,

da das P12965-B21 HPE NS204i-p x2 Lanes NVMe PCIe3 x8 OS Boot Device bei meinen Distries im Moment nicht lieferbar ist, habe ich verschiedene, in diesem Thread als funktionierend gemeldete, PCIe NVMe Karten versucht.
Jedoch ohne Erfolg, einmal gelang es mir Win2019ESS Sever auf der NVMe SSD zu installieren.
Allerdings war es bei den diversen Neustarts eine Glücksfrage, ob der Server korrekt hochkam.
Sehr oft ging der Server schon vor dem Boot in den Error Mode (orange LED) und startete neu oder blieb einfach hängen, bevor er das POST beendet hat.
Ich habe gleichzeitig auch die ILO Karte verbaut, diese funktioniert einwandfrei.
Ziemlich oft sah ich auch in die folgende Bildschirmausgabe via ILO.

fehler.PNG

Ich habe die Kombi aus Adpaterkarte und NVMe SSD in meiner Workstation getestet, funtionierte anstandslos.
Zum Test habe ich meinen 10G NIC (Asus XG-C100C) aus der Workstation in den HPE MS Gen.10+ eingebaut.
Das Ergebnis, war ähnlich, Server startet nicht, bleibt beim POST hängen oder schmeißt obiges Bild.
Für mich sieht das sehr stark nach einem Hardware Fehler am Server aus, oder kennt jemand dieses Verhalten und weiß, wie man es beheben kann?
Letztes BIOS (v2.54) ist drauf, das letzte HPE Gen10 SPP (2021.10.0) auch und als Workload habe ich HPC gewählt.
Eine komplette Installation auf einer SATA SSD vorne im Schacht hat reibungslos funktioniert.
Wäre sehr dankbar, wenn hier die ein oder andere Einschätzung, meines Problems rein käme.
Weil ich nämlich drauf und drann bin , den Server als defekt an den Lieferanten zurückzuschicken.

Gruß Sput71
 
Da das Ding von HPE ist wundert es mich nicht, dass Hardware, welche nicht auf der Kompatibilitaetsliste steht, nicht funktioniert.
Generell erwarten die Enterprise Dinger oft hauseigenen Stallgeruch. Nur weil eine aehnliche, unsupportete Kombination bei jemandem funktioniert muss das beim naechsten nicht auch so sein.
Das Teil als defekt zurueck zu schicken halte ich demnach fuer falsch.
 
Ohne "Stallgeruch" gings glaub ich nur bei den Dell T20/30 sowie HP ML-10 ohne ILO.
Die managed Server werden in aller Regel immer i.W. nur eigene Hardware akzeptieren oder die ILO dreht z.B,. die Lüfter weit auf oder ähnliches,

Ansonsten, wenn man frei Hw verbauen will, ist Selbstbau mit Supermicro oder Asrock Rack angesagt.
 
@sput71 : Jeder der großen Hersteller unterstützt offiziell nur seine eigenen Adapterkarten, und das aus gutem Grund.
Ich behaupte einfach mal, dass an Deinem Server gar nichts defekt ist, bevor ich nicht den Gegenbeweis via HPE Diagnosetool im Intelligent Provisioning habe.
Die von Dir ausgesuchten Drittanbieterkarten können einfach mit dem iLO5 nicht kommunizieren, da liegt das Hauptproblem.
Ich verwende keine der vordefinierten Workload Konfigurationen, weder bei meinem noch bei meinen Kundenmaschinen. Alles von Hand eingestellt.

Die für diesen Monat angesagten Firmwarestände (entsprechen dem SPP 2021.10.0) mit Ausnahme des BIOS 2.54:


System ROM U48 v2.54 (10/21/2021)
System Programmable Logic Device 0x09
Server Platform Services (SPS) Firmware 5.1.4.303
Redundant System ROM U48 v2.54 (10/21/2021)
Intelligent Provisioning 3.70.46
Intelligent Platform Abstraction Data 7.4.0 Build 15
Intel(R) I350 Gigabit Network Connection 1.2839.0
iLO 5 2.55 Oct 01 2021
HPE Smart Array E208i-p SR Gen10 4.11
Embedded Video Controller 2.5
 
Ich behaupte einfach mal, dass an Deinem Server gar nichts defekt ist, bevor ich nicht den Gegenbeweis via HPE Diagnosetool im Intelligent Provisioning habe.
Moin,

das Problem ist ich komme ja gar nicht erst ins Intelligent Provisioning, vorher schmiert die Kiste mit oben gezeigten Screenshot ab, bzw. der POST wird nicht beendet (grüner Balken bleibt kurz vor Schluß hängen).

Gruß Sput71
 
So bin einen Schritt weiter.

Habe den Server mal ohne den NVME Adapter gestartet und bin in's Intelligent Provisioning und habe mal die Server Hardware Diagnostic durchlaufen lassen. Da gibt ihr mir doch glatt nen Fehler aus, siehe Screenshot.
Denke das Teil hat ne Macke.

fehler2.PNG


Gruß Sput71
 
Steckt da eine Nicht-HP-Branded NIC in der Kiste?
 
Da steckt im Moment nur das HPE MicroSvr Gen10+ iLO Enablement Kit (P13788-B21) drin.
Ich nehme das jetzt mal raus und checke mal lokal, was los ist.

Update:

Habe alles ausgebaut, inkl. der Riser Card und per Intelligent Provisioning nen Server Reset gemacht.
Ergbenis wie oben im Screenshot ein Fehler bei der Hardware Diagnose.
Denke der Server ist tatsächlich defekt, werde mal den Händler kontaktieren.

Gruß Sput71
 
Zuletzt bearbeitet:
Bei meinem MicroSvr Gen10+ nur mit zusätzlichem Raid Controller von HPE kommt beim System Test beim NIC
der selbe Fehler. Sonst laufen die Test problemlos durch. Auf meinem Server läuft sonst alles ohne Fehler.
Habe Windows Server 2019 ohen Probleme am laufen.
Habe bezüglich dieses Fehlers einen Support Request bei HPE aufgemacht. Leider erfolglos da ohne Lösung.

Gruß Eugen
 
Ok, dann hat der Onboard I350 Intel Ethernet Controller wohl einen Schlag -> HPE Support, wird auf Boardtausch herauslaufen.
Und bloß beim Support nicht erwähnen, dass da schonmal Fremdhardware drin war
(Wenn HPE die Logs auf dem defekten Board auswertet, sehen Sie es eh)
Der Server sollte jedoch mit gesteckter Riserkarte und iLO Enablement Kit keine Fehler werfen.
Ich teste das aber auch gleich selber noch an meinem.
 
So, nachdem ich jetzt gerade eben selbst den Test durchgezogen habe, finde ich das Ergebnis überraschend.

_uefi_diagnostics_systems_fast_test_01.png


Also mein Server ist im Produktivbetrieb, warum habe ich gerade den Verdacht dass das Diagnosetool Mist verzapft ?
 
Mein System läuft auch seit Monaten durchgehend problemlos. Kein Fehler bisher aufgetreten.
Das Problem des Tests dürfte der UEFI Treiber für den Intel NIC sein. Der efi Treiber passt entweder nicht zum Sytsem ROM
des NIC oder der Treiber liefert Werte zurück mit der die tolle Testroutine nicht rechnet. Das ist meine Vermutung.
 
Moin,

ich konnte meinen Server zurückschicken und habe gleich nochmal einen Neuen bestellt.
Das neue Gerät habe ich erst einmal ohne Hardware Veränderungen in Betrieb genommen und hab sofort eine Hardware Diagnose gemacht.
Ergebnis, alles i.O.
Dann habe ich die ILO Karte und den PCIe-NVMe Adapter eingebaut.
Der Server erkannte die neue Hardware und bootet normal, die Hardware Diagnose lieferte jedoch den PCI-E Fehler wie oben.
Die Fehler ID ist zwar eine Andere, aber es betrifft eindeutig den Intel NIC, wie oben.
Mir ist aufgefallen, das der Fehler nicht kommt, wenn KEIN LAN Kabel angeschlossen ist.
K.A. was da los ist, denn das Netzwerk läuft ohne Probleme.
Auch die Installation (2019Srv Ess) auf der NVME SSD lief fast ohne Probleme.
Denn der Server macht den Neustart nicht sauber, sondern geht in den Error Mode (orange LED) und schaltet sich ab.
Schalte ich ihn wieder ein, kommt der Server normal hoch und alles ist i.O.
Also wenn ich den Server runter fahre und ihn anschliesend wieder starte ist alles OK.
Wähle ich jedoch statt "Herunterfahren" den "Neustart" aus geht der Server in den Error Mode und schaltet sich ab.
Kennt dieses Verhalten jemand bzw. hat jemand einen Tip für mich, wie man das beheben kann?

Gruß Sput71
 
Okay, dann haben wir bis jetzt folgende Ergebnisse:

- Bei Sput71 erster Server definitiv etwas defekt gewesen, der neue scheint sauber.
- Der Oberwitz, dass die Hardwarediagnose nur dann nicht fehlschlägt, wenn keine Kabel angeschlossen sind.
- Der Server mag den Drittanbieter NVMe Adapter nicht

Ich würde wie folgt vorgehen:
1. Ausbau des NVMe Adapter
2. Aktualisierung des Servers mit SPP 2021.10.0
3. Aktualisierung des iLO5 auf 2.60
4. Installation Intelligent Provisioning 3.70.46

Und dann eine manuelle Installation (nicht per Intelligent Provisioning) auf eine Standard SATA SSD oder HDD mit WS2019 Essentials machen.
Viel Erfolg
 
Hallo in die Runde,

Mein erster Server hatte definitiv ne Macke und der hat mir dabei eine Samsung PM9A1 gecrasht, die war nicht mehr zu gebrauchen, einfach kaputt.

Habe dann eine Crucial P2 eingebaut und auf dieser den Server 2019 Ess. installiert. Hier hatte ja der Reboot nicht sauber funktioniert,
der Server crashte und schaltete sich ab bzw. startete neu.

Dann kam eine neue Samsung PM9A1 bei mir an. Diese eingebaut und die Installation vom Server 2019 Ess. wiederholt.
Hier war dann wiederum alles in Ordnung. System lief sauber und auch der Neustart funktionierte so, wie gewohnt.

Dann habe ich die PM9A1 ausgebaut und die P2 wieder reingesteckt. Darauf habe ich dann ein Windows 10 Pro installiert und siehe da,
alles funktioniert auch der Neustart läuft sauber.

Also eine SSD verwenden, die HP in anderen Modellen auch verbaut und alles ist Gut. Beim NVME Adapter ist es m.E. nach egal welchen man verwendet.
Denn der leitet ja nur stumpf die SSD auf PCIe durch, ohne irgendwelche aktiven Bauteile auf dem Board, mal abgesehen von evtl. LED’s.

Gruß Sput71
 
Moin, ich hab ja schon gelesen das der E208i-p SR Gen 10 seine Problemchen hat aber das ist doch nicht normal oder ?

Siehe Bilder: (Einmal 4x MX300 2TB als RAID 10 und einmal als JBOD)
 

Anhänge

  • E208_test_1x_2TB_ssd_09-01-_2022_02-54-58.jpg
    E208_test_1x_2TB_ssd_09-01-_2022_02-54-58.jpg
    208,8 KB · Aufrufe: 193
  • E208_test_4x_2TB_ssd_09-01-_2022_02-54-58.jpg
    E208_test_4x_2TB_ssd_09-01-_2022_02-54-58.jpg
    216,4 KB · Aufrufe: 187
Sorry, dass ich mich jetzt erst wieder zurück melde.


  1. Der SATA Controller hat noch keinerlei Probleme bereitet
  2. Die QVO SSD hat bei meiner Nutzung nun nach 1400 Stunden 14TBW. Das trotz aktivierter Dateidedublizierung (die bei mir erstaunlicherweise sehr viel bringt). Das ich in die Drosselung von nur noch 160MB/s Schreibrate komme, ist bisher kaum passiert. Ich war mir der Nachteile im Vorhinein bewusst.
  3. Ich habe den Pentium gegen einen I3 9100f gewechselt und bin relativ enttäuscht. Gerade bei Vollast kein Effiziensvorteil zum 1270v2 des G8 (ohne Turbo). Allerdings hat mich das Upgrade mit verkauf der alten CPU auch nur 35€ gekostet und die Singlecore wirklich nochmal einen Tick besser.
Inzwischen konnte ich auch den Stromverbrauch messen.
Verbaut sind 4x8TB White Label, die Samsung QVO 4TB SSD, die ILO Karte und die SATA Karte sowie 2x8GB Speicher. An USB ist eine externe 2,5er Festplatte angeschlossen.

Stromverbrauch Idle mit HDD Spindown (VM's laufen) liegt bei 24W. Beim Hochfahren habe ich Peaks bis zu 100W.

Ich habe auch nochmal mit ASSSD und Cristal Disk Mark getestet. Für mich sieht es danach aus als wäre im Raid 10 bei JBBerlin der Schreibcache komplett deaktiviert.

[Read]
Sequential 1MiB (Q= 8, T= 1): 557.958 MB/s [ 532.1 IOPS] < 15007.07 us>
Sequential 1MiB (Q= 1, T= 1): 525.093 MB/s [ 500.8 IOPS] < 1995.67 us>
Random 4KiB (Q= 32, T=16): 330.549 MB/s [ 80700.4 IOPS] < 6337.22 us>
Random 4KiB (Q= 1, T= 1): 32.650 MB/s [ 7971.2 IOPS] < 125.20 us>

[Write]
Sequential 1MiB (Q= 8, T= 1): 144.307 MB/s [ 137.6 IOPS] < 57755.38 us>
Sequential 1MiB (Q= 1, T= 1): 170.493 MB/s [ 162.6 IOPS] < 6145.17 us>
Random 4KiB (Q= 32, T=16): 164.154 MB/s [ 40076.7 IOPS] < 12758.46 us>
Random 4KiB (Q= 1, T= 1): 101.741 MB/s [ 24839.1 IOPS] < 40.03 us>
 

Anhänge

  • as-ssd-bench Samsung SSD 870  10.01.2022 18-10-27.png
    as-ssd-bench Samsung SSD 870 10.01.2022 18-10-27.png
    14,7 KB · Aufrufe: 114
Zuletzt bearbeitet:
@JBBERLIN : Jetzt noch eine saubere Angabe Deiner im Einsatz befindlichen Firmware, und es wäre super.
Natürlich kann ein Cacheloser Controller, zu denen der E208i-p gehört, keine Wunder vollbringen.
Ich würde den Schreibcache der SSDs aktivieren, sofern eine USV im Einsatz ist.
Der Fokus bei professionellen Geräten, zu denen der MS Gen10+ gehört, ist Datensicherheit an erster Stelle, das letzte bisschen Performance an zweiter.
Ich kann jedoch Deine Enttäuschung nachvollziehen.
 
@hppmsfan

Achso wegen der Firmware: alles auf dem letzten Stand hab einmal durch aktualisiert BIOS/ILO/HBA/NICS - hab meinen letzten MS Gen10Plus rausgekrammt, war als Test für ein Projekt wo in jeder Filiale so ein MS Gen10+ als Edge für's ERP eingesetzt werden soll, war gegen unsere Empfehlung eine Vorgabe vom Auftraggeber Verantwortlichen was sich nach diesen miesen Werten ja hoffentlich erledigt hat

Drive Cache ist übrigens bei beiden Tests Aktiv und ich sehe es hat sich wo ich den noch im Einsatz hatte Anno Ende 2020 /Anfang 2021 nichts geändert weil damals war der mit 2x Samsung EVO 860 2TB im RAID1 und 2x Seagate Exos X16 16TB auch im RAID1 und beide Volumes hatten eine wirklich schreckliche Performance - Lansweeper war damals auf dem SSD Volume praktisch Klicken und Warten - Ich gehe davon aus das irgendwas mit der RAID Logik im E208i-p nicht stimmt, weil ich kenne das die LSI HBA's die man ja auch als Fake RAID1/10 flashen kann auch keine Raktenen sind aber so schlecht schneiden die nicht ab.

Aber was ich rausgefunden hab, dass wenn man den E208i-p einsetzt, dass der MS Gen10+ auch SAS SSD's sowie SAS HDD's problemlos frisst - aber habe mir erspart jetzt ein riesiges Volume mit solchen grossen Platten zu erstellen.
 
Der E208i-p ist ein Entry-Controller, ich persönlich würde den nur als RAID1 / RAID10 Unterbau verwenden.
Es ist eine Schande, dass kein anderer Controller im MS Gen10+ unterstützt wird.
Soweit ich weiss, ist da kein LSI Chip drunter/dahinter, sondern Microsemi (Adaptec)
 
Ich habe bei Ebay vorhin folgenden Speicher entdeckt:
Mir scheinen gerade 34€ für ECC Speicher relativ günstig. Läuft der Speicher im Server?

Meint ihr man merkt beim I3 einen Unterschied von 2133MHz zu 2400MHz (2666MHz erreicht die CPU ja ohnehin leider nicht).
Aktuell ist ja Single Rank Speicher verbaut, dieser Speicher ist ja dual Rank.
 
Zuletzt bearbeitet:
Fuer Home-Use wuerde ich sagen: Speed = Egal. Auf die Menge kommt es an, sofern man virtualisiert.
 
Solange da nicht extreme Performance gefragt ist und nur Netzwerkverkehr gecacht und ein wenig das OS supportet wird, ist der RAM-Speed ziemlich egal.
Gerade bei nem i3 denke ich mal, dass du nicht allzu rechenintensive Aufgaben auf dem Microserver erledigst ...

aber wieso i3, dachte den gibt es nur mit Xeon und Pentium G?
 
Zuletzt bearbeitet:
ok, ich bin überrascht, dass der noch ECC Support hat, aber er hat es noch ... wohl als einer der letzten i3
 
So, ich kann berichten, dass der gekaufte Speicher läuft, ist aber inzwischen ausverkauft.
Der alte HP Speicher wird nun verkauft.

Versteht jemand was die AMP Modes sind? So richtig hab ich noch nicht den Vorteil von originalem HP Speicher verstanden (bis auf die Support Problematik).
 

Anhänge

  • 2022-01-24 21_58_23-iLO_ Microserver Gen 10 Plus - ILOCN702401RK.fritz.box und 4 weitere Seite...png
    2022-01-24 21_58_23-iLO_ Microserver Gen 10 Plus - ILOCN702401RK.fritz.box und 4 weitere Seite...png
    38,1 KB · Aufrufe: 154
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh