[Sammelthread] HP ProLiant G10 X3216/X3421 MicroServer

Schickst du die RED-Festplatten absichtlich nicht in den sleep? Da könnte man ja noch 6-7 Watt rausholen, aber büßt das mit der Wartezeit vom Aufwachen der Festplatten wieder ein.

Ja, definitiv Absicht. Zum einen wegen der Performance beim Aufwachen und zum anderen um die Start-Stop-Zyklen gering zu halten. Da langfristig ein zfs raid 5 aufgesetzt wird und ich unter anderem Cloud-Dienste laufen haben würden da schnell viele Zyklen zusammenkommen schätze ich.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo zusammen ,
Leider habe ich nichts passendes gefunden im Forum sodass ich hier einfach mal Antworte!

ich bin am überlegen mir den Microserver Gen10 zu holen da mein jetziges NAS ( 2x 8TB ) langsam voll wird.

Es stellt sich mir jedoch die Frage wie ich relativ einfach und ohne Umstände meine bestehenden 8TB Platten oder sogar neue 16TB Platten in der Kiste zum laufen bekomme hat da jemand Erfahrungen bzgl dem Austausch des RAID Controllers.


Danke Gruss Oliver
 
Mahlzeit,

ich bin auch auf der Suche nach nem weiteren Raid Controller für zwei SSDs, dabei ist es mir egal ob es SATAs oder M2 sind.
Habe in nem Video gesehen, wie jemand nen IBM M1015 verbaut hat. Die Frage ist halt, ob ich dann trotzdem ein RAID1 einrichten kann? Nutze es für ESXi.

Wenn also jemand ne RAID-Controller hat, der funktioniert?

Vieln Dank schonmal
 
So,

ich habe nun die IBM M1015 verbaut. UEFI funktioniert nicht, bleibt einfach im Boot-Screen stehen.

Im Legacy wird die Karte erkannt, kann auch Booten. Windows Server 2019 startet ohne Probleme.
ESXi, was ich jedoch primär benutzen möchte, verweigert den Start. Egal ob 6.5, 6.7 oder 6.7U2. Der Start, sowie auch das neuinstallieren bleibt mit "loading module megaraid_sas" stehen. Es passiert nichts weiter.

Kann mir hier vielleicht jemand weiter helfen?
MVIMG_20190622_141732.jpg
IMG_20190622_141752.jpg
 
Zuletzt bearbeitet:
Bios vom Server und Firmware vom Controller aktuell?
Das einzige was ich gefunden habe war die "PCI ROM Priority" zu ändern, weiß nicht ob der Gen10 diese Option überhaupt hat.

Davon mal abgesehen, wirst du mit dem M1015 für SSD Hardware-RAID nicht glücklich werden.. Dieser Controller wird meist in den "IT-Mode" geflasht (RAID Funktionen deaktiviert), um ihn für Storage zu nutzen. Du könntest natürlich den All-in-One Weg nehmen.
 
@wenzilinho

danke erstmal für deine Antwort.
BIOS vom Server ist aktuell, vom Controller bin ich mir sehr unsicher. Firmware die ich online gefunden habe, waren meist von 2010. Die FW die mir beim Booten gezeigt wird, ist von 2012.
"PCI ROM Priortiy" habe ich auch gelesen, aber nichts im BIOS gefunden.
Unter Windows Server 2019 funktioniert der Controller jedoch. (Habe testweise Win Server 2019 auf einer anderen Platte installiert.)

Was meinst du mit dem "All-in-One" Weg?
Für mich ist die "Server-Welt" noch relativ neu und kämpfe mich so durch. Meist Learning-by-doing und Trail-and-error.
Die M1015 würde ich für ein RAID1 meiner WD Reds benutzten, da man vom Controller aus nicht booten kann.

Wenn du/ihr mir aber tendenziell vom M1015 als Raid-Controller abratet, dann würde ich auch einen anderen Controller nehmen. Ich bräuchte halt nur nen "Vorschlag" :d
 
So, habe jetzt mal ne HP P222 ausprobiert. Damit fährt ESXi hoch und wird erkannt, sogar unter UEFI.
Leider geht die Leistung von meinem Gen 10 dann von ca 33Watt auf fast 90Watt hoch, obwohl nichts an der P222 angeschlossen ist. Nur verbaut.
Finde das schon heftig.
 
Der P222 hat einen maximalen Verbrauch von < 20 Watt, das kann eigentlich gar nicht sein. Zumindest nich allein vom P222.
Ich kann mir höchstens vorstellen das der Server oder ESXi aus irgendeinem Grund sämtliche Energiesparfunktionen deaktivieren. Habe aber keine Idee warum sie das tun sollten oder wie man das testen kann. Mal im ESXi die Energieoptionen angeschaut?

Tgt79
 
Mal im ESXi die Energieoptionen angeschaut?

Tgt79

jap habe ich getan. auch mal umgestellt, tat sich allerdings nicht.

bin die letztens Wochen ein paar schritte weiter gegangen.
Habe die m1015 umgeflasht auf ne SAS2088 im IT Mode (war das ein krampf mit dem GEN10 für jemanden der keine Ahnung hat, was er eigentlich macht.)
Und teste gerade ein wenig Unraid.
Ich denke mal, das wird hier nicht sooo gerne gesehen, aber für jemanden wie mich, der sich in dieser Welt gerade erst zurecht findet, ist es ne ganz gute Lösung.
Im Gegensatz zu ESXi wird bei Unraid, bis auf der Marvell Raid Controller alles von vornherein richtig erkannt.

Habe die p222 also zur Zeit über, sogar mit PufferBatterie. Wenn also jemand Bedarf hat, einfach ne PN :)
 
Hallo

Kann mir zufällig jemand sagen ob das Cage des Microserver Gen10 mini SAS Buchse hat.
Oder geht ein kabel direkt auf die Platine ?
Ich überlege einen P440 Controller einzubauen.

Danke
 
Moin,
wenn jmd noch einen original 8GB Ram-Riegel über hat und vielleicht das ODD-Halteblech (zum Verschrauben des ODD), darf er sich vertrauensvoll an mich wenden.


edit: hab alles gefunden - RAM habe ich Kingston KTH-PL424E/16G verbaut - funktioniert einwandfrei - habe jetzt selber den original RAM-Riegel über
 
Zuletzt bearbeitet:
Hallo zusammen,

ich klinke mich mal in die Diskussionsrunde mit ein. Ich habe nun schon seit einiger Zeit einen Gen10 mit einem X3216. Verbaut sind vier Festplatten, zwei 2TB Ironwolf und zwei 4TB Ironwolf, jeweils als Raid1.
Bislang wurde der Server vor allem als Ablageort für Backups gebraucht, d. h. Veeam hat dort sein Repository gehabt und die Clients haben dort alle schön abgelegt. Beide Netzwerkkarten sind mittels Teaming zusammengeschlossen (Full Duplex ist aktiviert auf beiden Karten), beim Hochladen erreiche ich ca. 120 MB/s, was okay ist. Jetzt hat der Server aber auch die wundervolle Aufgabe Videodateien im Netzwerk zur Verfügung zu stellen. Über Netzlaufwerke greifen wir Videos ab, sobald es mehr als 1080p ist, buffern die aber alle zwei Sekunden. Die Lesegeschwindigkeiten liegen im Bereich von 18 - 30 MB/s, was absolut unterirdisch ist. Habe schon Treiber geprüft, andere Kabel genommen, Jumboframes probiert und und und - ich bekomme einfach keinen Speed raus ins Netzwerk. Intern auf den Platten kopieren läuft, es muss also irgendwas mit meiner Netzwerkkonfiguration zu tun haben. Installiert ist Windows Server 2016 Datacenter. Ich glaube langsam, ich sehe einfach den Wald vor lauter Bäumen nicht und die Lösung schreit mich förmlich an. Ich komme aber nicht so wirklich darauf. Hat jemand einen Tipp? Danke!
 
Zuletzt bearbeitet von einem Moderator:
Läuft es ohne Teaming besser (vorerst Mal eine NIC abziehen). Welcher Switch? Welches Bonding Protokoll ist auf Switch und Server konfiguriert?
 
Das ist ein Unmanaged Switch?
Mach mal einen Screenshot von Deiner Teaming Konfiguration. Fast jeder Bonding Mode benötigt eine Konfiguration auf beiden Seiten.
 
Ja ist es, wie gesagt, Bonding noch nie geändert, auch auf unseren anderen Servern nicht. Die laufen problemlos. Screenshot vom Teaming sagt ja nun nicht wirklich was aus, man sieht einfach die beiden Netzwerkadapter die zusammengefügt sind zu einem Team. Die Warnung ist nur wegen dem Versuch, mal ein Kabel zu entfernen.
switch.PNG
 
Was verstehst du an "... jeder Bonding Mode benötigt eine Konfiguration auf beiden Seiten" nicht?
Probier es mal an einem richtigen Switch.
 
Was verstehst du an "... jeder Bonding Mode benötigt eine Konfiguration auf beiden Seiten" nicht?
Probier es mal an einem richtigen Switch.

Alles. Weil die Aussage so einfach nichts aussagt. Sorry... "Richtiger Switch" ist auch gut, hier stehen noch zwei andere Server, einer mit einer 4Port-Karte. Funktioniert ohne Probleme, nur der kleine HP mag nicht...
Also, selbst wenn es ohne Teaming ist, sind die Geschwindigkeiten miserabel. Was also sollte ich dann am Bonding konfigurieren? Bitte mal was konkretes, ansonsten bekomme ich solche Antworten auch bei Gutefrage.net. Das ist nicht persönlich gemeint, aber ich frage ja hier nicht weil ich weiß was ich noch machen könnte oder sollte, sondern weil mir die Ideen ausgegangen sind. Mir jetzt einen managed Switch für ein paar hundert Euro zu kaufen, nur um dann festzustellen das es auch nicht der Fehler ist, bringt nichts. Den Switch würde ich als Fehlerquelle sogar ausschließen wollen, es klappt mit den beiden anderen Servern auch ohne Probleme.
 
... "Richtiger Switch" ist auch gut, hier stehen noch zwei andere Server, einer mit einer 4Port-Karte. Funktioniert ohne Probleme, nur der kleine HP mag nicht...
Am selben Switch funktioniert Link aggregation/Bonding?

... Was also sollte ich dann am Bonding konfigurieren? ...
Z. B. welche Ports am Switch aggregiert werden sollen.
Wo und wie hast du das denn auf dem Switch angegeben?
Und welches Protokoll wird benutzt?
Der Switch ist so alt, dass der höchstens IEEE 802.3ad kann. Wenn der überhaupt LACP kann!

Bitte mal was konkretes, ...
S. o.

... Den Switch würde ich als Fehlerquelle sogar ausschließen wollen, es klappt mit den beiden anderen Servern auch ohne Probleme.
Das will ich sehen.
 
Was du sehen willst ist mir recht wurscht ;) Ich habe auf den anderen Servern keine Probleme mit dem Speed, ich laste die Gigabitanbindung zu den einzelnen Rechnern damit aus - lesend sowie schreibend. Nur mit dem HP geht es nicht. Der Switch ist unmanaged, wurde ja bereits gesagt. Deshalb wollte ich ja jetzt mal was konkretes hören, weil ich glaube, dass hier nur die Hälfte gelesen wird (danke übrigens für die Bestätigung). Wenn ich das Teaming komplett rausnehme, und einfach nur einen Port vom Server anschließe ändert sich nichts. Das Problem muss also der Server als solches sein. Wäre am Switch was nicht in Ordnung, hätte ich das Problem überall, wäre der Port Schrott, hätte sich das Problem durch das Umstecken bereits gelöst.

Ich frag das jetzt mal anders, vielleicht wirds dann einfacher.

Was habt ihr denn so, an "falschen Switches" für Transferraten lesend von einem Raid1?
 
Zuletzt bearbeitet von einem Moderator:
Die Frage, ob und warum Bonding klappt ist ja vielleicht wirklich nicht so entscheidend...Man könnte auch SMB-Multichannel und damit rund 240mbyte/s von Server zu Windows10-Client realisieren mit jeweils zwei Netzwerkports und trotz unmanaged Switch. Hier passiert das aushandeln des Bonds\Teams\Channels eben auf smb3-Ebene. Spannend wäre es vllt auch gewesen zu überlegen, ob nicht ein Raid10 aus den 4hdds performanter wäre. Aber auch diese verbesserungen sind wahrscheinlich nicht ausschlaggebend.

Na jedenfalls verdächtige ich mal irgendein Videotranskoding beim Transfer. Sind die Videodateien vielleicht komprimiert?

Und ist das aktuellste Servicepack von HPE für den Proliant eingespielt? Man kann dir sowieso eher helfen, wenn du mal eine Signatur mit den Infos bzgl. Hardwarekomponenten, Konfiguration und Treiber-/Firmwareständen erstellen würdest
 
Allg.: Wenn du wirklich ein unmanged switch hast wird dir teaming eh nur Ausfallsicherheit bringen. Wenn du hauptsächlich Windows Clients hast ist SMB-Multichannel viel besser. Da kannst du sogar das GBit limit überspringen.
Zum eigentlichen Problem: teste mal ob die Verbindung überhaupt: Gbit schafft, mir fällt nur iperf ein, ist aber eigentlich ein Linux tool, gibts aber auch für win.
Sind denn die Treiber für die broadcom nics aktuell. Bzw. Du könntest testweise eine andere Nic mal einstecken, vorzugsweise Intel.
Sonst kann auch noch eine Festplatte macken haben, defekte Sektoren Bremsen da teils auch sehr.
 
Raid10 ist natürlich blödsinn. Hatte noch die Konfig aus 4x4tb im Kopf, um die es heute vei mir ging :€

Helios Lantest rockt auch gut
 
Spannend wäre es vllt auch gewesen zu überlegen, ob nicht ein Raid10 aus den 4hdds performanter wäre. Aber auch diese verbesserungen sind wahrscheinlich nicht ausschlaggebend.

Nein, die Aufteilung sollte schon so sein wie sie ist. Etwas anderes kam nicht in Frage ;)

Na jedenfalls verdächtige ich mal irgendein Videotranskoding beim Transfer. Sind die Videodateien vielleicht komprimiert?
Es sind mp4 Dateien aus Sony Vegas, wirklich nichts besonderes. Aber es betrifft generell alles, ich kann die Datei auch so kopieren, oder eine ISO-File, nichts geht über knapp 30 MB/s hinaus.

Und ist das aktuellste Servicepack von HPE für den Proliant eingespielt? Man kann dir sowieso eher helfen, wenn du mal eine Signatur mit den Infos bzgl. Hardwarekomponenten, Konfiguration und Treiber-/Firmwareständen erstellen würdest
Ich habe keine Ahnung das man die Signatur hier für sowas benutzen sollte. Ich muss mal schauen welches SP eingespielt ist, bin ich gerade überfragt. Ich werde gleich aber auch testweise mal eine andere Netzwerkkarte einbauen, die habe ich mir gerade organisiert :)
 
Ja doch, Signatur hilft vei der Übersicht.

Schau mal im Thread zim Microserver Gen8

Der User HPPMsfan hat das zB ganz ausführlich. (Findet sich auf den letzten bzw. wahrscheinlich sogar auf der letzten Seite sicherlich)
 
Den Hintergrund meiner Frage sieht man auf dem Screenshot, nämlich "Switch Independent" als Teaming Mode.
Als Active/Standby habe ich das schon verwendet, aber inwiefern Load balancing damit funktioniert, weiß ich nicht. Vernünftige Variante ist für mich immer LACP, was beidseitige Konfiguration erfordert.
Hier mehr Infos zu Switch Independent (auf Englisch stellen): NIC-Teamvorgang-Einstellungen | Microsoft Docs
"Üblich" ist das für Balancing aber nicht.

Hier gibt es weitere Infos zu LACP und anderen Bondingverfahren: Link Aggregation – Wikipedia
Das erfordert dann aber einen intelligenteren Switch, der mit der Gegenstelle entsprechend umzugehen weiß.

- - - Updated - - -

Wenn die NIC auch ohne eingerichtetes Teaming aber nicht mehr kann, dürfte es eine weitere Baustelle geben.
 
So, also mit der geliehenen Netzwerkkarte gings direkt ohne irgendwelche Probleme. Jetzt wieder mit der Onboardkarte ohne Teaming: max. 32 MB/s, egal was ich kopiere. Spielt auch keine Rolle von welchem Raid ich die Daten hole, Festplatten sind top, die sind erst zwei Wochen alt. Von den HPE Servicepacks ist so wie ich das sehe nichts installiert, nur die ganzen Treiber die ich mir von der HP Seite passend runtergeladen habe. Ich habe auch keine Ahnung wie ich mich da bei HP richtig registriere, ich habe zwar einen Account, aber keinen Zugriff auf die Servicepacks, der Anmeldeprozess scheint eine Tortur zu sein. Versuche mich jetzt da durchzukämpfen, hoffentlich bringt es dann was, ansonsten kaufe ich mir einfach eine andere Netzwerkkarte.
 
So, Problem bleibt kurios. System ist aktuell, die Transferraten beim Senden bleiben jedoch absolut im Keller.
Testweise eine neue Netzwerkkarte gekauft, für die Übersicht kann folgende hinzugefügt werden, falls jemand eine Single-Karte sucht:
10Gtek Zubehör
Zusätzlich funktioniert auch folgender RAM:
Kingston KTH-PL424E/8G
Memory Search

Das einzige was mir jetzt noch aufgefallen ist, sind vier unbekannte Geräte im Gerätemanager, die ich noch nicht zuordnen kann. Versuche anhand der IDs mal herauszufinden welche das sind, habe aber wenig Hoffnung. Raid/Netzwerk ist ja soweit richtig installiert. Am Switch liegt es auch nicht, ich habe es mit einem anderen probiert und das Ergebnis lässt sich wunderbar reproduzieren, sprich der Fehler liegt irgendwo am Gen10.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh