[Sammelthread] HP ProLiant ML10 v2 G3240/i3-4150/E3-1220v3/E3-1241v3

ReFS ist kein MUSS.
Verwende selber "nur" NTFS und bin damit (mehr o. weniger) zufrieden. ReFS zahlt sich mMn. eh erst im Enterprise Bereich ordentlich aus...

Wahrscheinlich bin ich da nicht mit "Best practice" unterwegs, aber:

Großer Storage Pool, darauf VHDX Dateien als Boot HDDs für die jeweiligen VMs + VHDXes für jede "weitere" HDD in einer VM (z.B. hat mein SMB-Server insgesamt ~6 VHDX eingebunden). So bin ich, für meine Zwecke(!), am flexibelsten. Dafür brauch ich kein ReFS... Es ist allerdings _empfehlenswert_ - kein MUSS.

(P.S.: Trotzdem werde ich das demnächst umsetzen... Muss nur erstmal ne 6TB VHDX umziehen *grr*)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hi,

habe ebenfalls das HP ML10 V2 bei mir stehen. Hattet Ihr bereits Erfahrung gehabt den CPU-Kühler und Gehäuselüfter zu wechseln?

Mich stört der Lüfter sehr, da er bei 15% für mich noch sehr hörbar ist.
 
@Traumzauberbaum:

Bislang habe ich einen 2012 R2 mit Data Deduplication als Fileserver genutzt, daher KÖNNTE ich auch Storage Spaces nutzen. Habe halt nur oft gelesen, dass ReFS bei Storage Spaces priorisiert zu verwenden sei, was für mich aufgrund von Data Deduplication nicht in Frage kommt. Ich denke ich werde bei Gelegenheit mal etwas "herumspielen" und mir ein Bild davon machen.

@iDeathz:

Den Kühlkörper würde ich nicht tauschen, da Du sonst Probleme mit dem "Innenleben" aus Plastik bekommst. Ich selbst verwende einen Xeon E3-1276 v2 mit dem Kühlkörper und habe damit keinerlei Probleme.
Für den Lüftertausch gab es hier im Forum einen Workaround, bin mir aber nicht mehr sicher wo.
 
Hi,

vielen Dank für deine Antwort.

Betreibe ebenfalls einen Intel Xeon jedoch den E5-1231. Installiert habe ich Windows Server 2012 R2 Data Center aus Dreamspark. Mithilfe der Hyper-V Rolle und avma Key von Microsoft, kann ich unendlich viele VMs mit Data Center bestücken, was mir eine sehr nützliche Spielwiese für die Ausbildung ermöglicht. Von den Leistungen her, bin ich sehr zufrieden.

Der Kühler stört mich weniger. Der Lüfter ist der einzige störende Faktor, den ich gerne wechseln möchte.

Für weitere Ideen wäre ich euch sehr dankbar.
 
E5 Xeon im ML10v2?
Hab ich was verpasst?

Für den Lüfter benötigst du einen Lastwiderstand um den geringeren Stromverbrauch auszugleichen. Ansonsten dreht die Lüftersteuerung durch.
Wie / Wo / Was da zu beachten ist findest du in diesem und im Microserver Thread.

Gesendet von meinem XT1635-02 mit Tapatalk
 
hi,

ehm ja sry:d genau meine den E3 und nicht den E5:)

@Traumzauberbaum07

Vielen Dank, ich werde mich durch die beiden Threads stöbern.
 
B120i zickt rum

Hallo zusammen,

seit einiger Zeit scheint mein B120i meine SSD nicht mehr zu mögen. Er behauptet dann strikt, dass das Laufwerk fehlerhaft sei. Es geht sogar so weit, dass der Server einfach abstürzt, da Ihm das Betriebssystem fehlt.
Dies hatte ich jetzt im Laufe der Zeit mittlerweile 3 oder 4 mal beobachtet. Nach dem der Server heruntergefahren wurde, die Platte entfernt und anschließend wieder an den selben Port gesteckt wird, läuft alles wieder wie gehabt. Der Controller ist auf dem aktuellen Stand vom SPP201610. Die Platte selbst ist absolut in Ordnung, habe es mehrfach überprüft, daher bin ich hier bei diesem Verhalten leider ratlos...

B120i.JPG HD_Tune.JPG Crystal.JPG
 
Zuletzt bearbeitet:
Hallo,
aus eigener Erfahrung mit den OCZ Vertex - Firmware Update wirkt Wunder. Hab selber fast mein altes Elitebook in den Müll geworfen, weil ich an einen MoBo Schaden geglaubt hatte - random reboots, hdd nicht erkannt, etc.
Schlussendlich ein Firmware Update drauf und das Ding tut seit dem immer noch - ist jetzt ca. 2,5 Jahre her.

Gesendet von meinem Nexus 7 mit Tapatalk
 
Traumzauberbaum:

Danke, werde ich ausprobieren. Morgen kommen 2 neue SSDs, dann werde ich die Kiste eh runterfahren.
Aber mal was anderes, kann ich den B120i gar nicht im "Raid-Mode" durchreichen, sondern nur als "AHCI"? Wenn dem so wäre, müsste ich mein Vorhaben neu überdenken...
 
R.I.P. ESXi

Also ESXi ist für mich erstmal gestorben, ganz gleich ob 6.0 U2 oder 6.5, macht keinen Unterschied.
ESXi_purple.jpg ESXi_purple_2..JPG ESXi_purple_3.JPG

Ich kann definitiv den P410 nicht durchreichen. Jedesmal wenn ich ihn zu einer VM hinzufüge, hängt sich diese auf und mit ihr anscheinend auch der gesamte Hypervisor.
Außerdem braucht es erstaunliche 114 min um 40 GB vom B120i (SSD Raid 1) zum P410 (VMFS5 als Raid 0) zu kopieren, was noch erschwerend hinzu kommt. Unter Hyper-V ist das ne Sache von 5 bis 8 min.
Hat noch Jemand solche Probleme, oder bin ich hier ein Einzelfall? Wie auch immer, werde jetzt Hyper-V installieren und bis zum Patch / BIOS-Update von HP halt kein VT-D nutzen können.
Ist immer noch besser als mich noch weiter mit VMware rumzuärgern...
 
Welche Firmware hast du beim 410 aktiv gab soweit ich das noch weiß beim 420 mit neurern Firmware Probleme mit durchreichen.

Würde mich auch mal interessieren ob bei deinem Server die Voraussetzungen für DDA bei Hyper-V 2016 überhaupt erfüllt sind auch wenn VT-D noch Probleme macht.
Bei meinen Servern die ich zu Hause habe geht es leider nicht. Muss mir wohl was neues holen.

Gesendet von meinem PLK-L01 mit Tapatalk
 
@LichtiF:

Die aktuellste Firmware vom SPP201610 ist auf dem P410 drauf. Na ja, unter Hyper-V werde ich vorerst kein DDA nutzen, solange HP die Sache mit VT-D nicht gefixt hat. Ich kann dann halt keine NICs zur pfsense durchreichen und den P410 halt auch nicht zu meiner Fileserver-VM. Werde den Storage dann direkt über den Hypervisor bereitstellen, dafür brauche ich mich dann aber nicht mehr länger mit ESXi rumärgern. Schön ist sicher anders, aber was solls...
 
Sorry aber auch wenn das mit VT-D wieder geht heißt es nicht das DDA beim ML10 v2 funktioniert. Ohne DDA keine Hardware durchreichen unter Hyper-V 2016 .......

Dafür hatte ich ja mal das Script gepostet mit dem man überprüfen kann ob die Hardware die Voraussetzungen für DDA erfüllt. Da es da noch mehr gibt als nur VT-D was die Hardware können muss um PCIe Geräte durchzureichen.

Ja kann ich gut verstehen deswegen teste ich sowas immer sehr ausgiebig bevor ich es bei mir in Betrieb nehme.

Was ich zb Schade finde bei meinem ML301e Gen8 klappt unter ESXi das durchreichen von Controller usw super aber für DDA unter Hyper-V 2016 habe ich nicht alle Voraussetzungen und deswegen geht es dort nicht.
 
HPE ESXi 6.5 Image ist draußen :)
 
Hat sich seitens HP schon jemand geäußert bzgl. Server 2016 + VT-d?

Aktuell bin ich schwer am hadern, ob ich weg möchte von Hyper-V + Storage Spaces (2012 R2) (mir reicht die Performance von den Storage Spaces dann doch nicht).
Wenn absehbar ist, dass HP ein BIOS Update für den ML10 v2 bringt, dann würde ich noch ein bisschen warten und auf den 2016 mit Storage Spaces Direct wechseln, die ja doch mehr Dampf versprechen (richtig?). Wenn da allerdings nichts kommt, schwanke ich aktuell zwischen:

unRAID
Debian, ZFS + Proxmox
esxi (eher ungern, macht mir einfach keinen Spaß).

Wie schauts aus?
Was würdet Ihr machen?

/E:

Ich hab mich, dank LTT, etwas mit unRAID beschäftigt und bis jetzt ist es mein Favorit... Debian, ZFS + Proxmox wäre zwar kostenlos, aber unRAID macht alles einfach einfach (weil einfach einfach einfach ist, ne?). Da ich kein Testlab hab, sondern die Kiste mein "Produktivsystem" daheim ist, bin ich geneigt genau deswegen dem ganzen den Vorzug zu geben.
Was mich aber etwas stört - mit Hyper-V kann ich einfach meine VMs exportieren, meinen Desktop anwerfen, VM importieren, Abfahrt. Das _hat_ Charme. Die eierlegende Wollmilchsau is nich, wa? :(
 
Zuletzt bearbeitet:
@Traumzauberbaum:

Leider nicht, ich habe seit einiger Zeit ein Ticket diesbezüglich offen, aber das war es dann auch. Die Aussage dazu war, dass momentan daran gearbeitet wird den ML10 v2 für Server 2016 zu zertifizieren und in diesem Zuge dann auch das notwendige BIOS-Update kommen wird. Zeitlich gab es da allerdings wie immer keine Angaben.

Ich bin mal wieder /noch immer mit ESXi 6.5 zu Gange, aber der P410 lässt sich ums Verrecken nicht durchreichen, jedenfalls nicht mit aktuellem BIOS. Hatte 2016 installiert und muss sagen, dass es mir EIGENTLICH wirklich sehr gut gefällt, bis auf zwei Kritikpunkte:

1.) Der Stromverbrauch ist kurioser Weise 20 Watt höher als unter ESXi
2.) Ich kann meine NICs und den P410 nicht zu den VMs durchreichen.

Aufgrund des zweiten Punktes habe ich hier auch gleich zwei Fragen, eventuell kann der eine oder andere ja was dazu sagen:

1.) Anstatt die NICs zur pfsense durchzureichen habe ich überlegt nun eigene Switche für die jeweiligen NICs zu erstellen und diese der VM zuzuordnen. Wie würde sich das auf die Performance auswirken (vs. durchgereicht)?
2.) Wenn ich Datacenter 2016 mit Hyper-V nutze, kann und darf ich dann auf dem Host noch andere Rollen wie Dateidienste (z. Bsp. ISCSI) hinzufügen, oder wirkt sich das negativ auf die Stabilität / Performance aus, oder untersagt M$ es aus Lizenzgründen (was ja bei der Datacenter eher Sinnfrei wäre da AVMA)?
 
Zuletzt bearbeitet:
Zu Deinen Fragen:

1.) die "virtuellen" Switche sind schneller als 10gbit-Switches. Mag Auswirkungen auf die Performance / CPU-Last haben, aber wenn die NICs Virtualisierungstechnik unterstützen (z.B. VMDq / SR-IOV & Co.), sind die Auswirkungen recht gering. Habe auch vor, demnächst eine pfSense ausschließlich auf Basis von vSwitches aufzusetzen.

2.) Fileserverdienste im MS-Sinne (einschließlich iSCSI) sind nach meinem (laienhaften Verständnis!) sogar beim Hyper-V Server ok.
 
Zuletzt bearbeitet:
@besterino:

Danke für die schnellen Antworten. Es handelt sich um eine NC365T die VMDQ beherrscht, denke SR-IOV sollte sie auch können. Wenn das mit den weiteren Rollen auch kein Problem darstellt, dann werde ich mich wohl endgültig von ESXi als Hypervisor verabschieden. Lediglich eine "nested" Version werde ich wohl installieren, schließlich will man ja flexibel bleiben...

Wenn ich nun zu Server 2016 wechsele, stellt sich mir die Frage nach der Nutzung von Storage Spaces Direct und sagen wir einem Perc 310, anstatt meines P410 und Raid 10. Oder liege ich da jetzt falsch?
Besonders da DDA mit dem ML10 v2 ja eh nichts wird und ich daher den Storage auf dem Host installieren und verwalten würde.
 
Was auch sinnvoller ist, da du flexibler deinen Speicher zuweisen kannst mit vhdx und ReFS auf dem storage spaces direct

Gesendet von meinem XT1635-02 mit Tapatalk
 
Wenn ich nun zu Server 2016 wechsele, stellt sich mir die Frage nach der Nutzung von Storage Spaces Direct und sagen wir einem Perc 310, anstatt meines P410 und Raid 10. Oder liege ich da jetzt falsch?
Besonders da DDA mit dem ML10 v2 ja eh nichts wird und ich daher den Storage auf dem Host installieren und verwalten würde.

Da bin ich etwas überfragt... ich habe mich mit StorageSpaces zuletzt glaub in der TP3 beschäftigt und fand' die Performance mit Parity (Raid5) nicht so dolle. Woran das jetzt lag, habe ich dann aber nicht weiter verfolgt - wenn aber ein Xeon mit 8GB die Parity-Berechnung nicht packt, lüppt da was verkehrt. ;) Mirror ging aber. Teste doch nochmal mit der finalen Version! :d
 
Zuletzt bearbeitet:
Ohne ssd Cache kannst du Storage spaces direct genauso wie den Vorgänger ziemlich sicher auch in die Tonne kloppen.
Laut diversen Tech-videos soll aber zwischen den beiden viel passiert sein. Deswegen bin ich ja so scharf drauf... Hab ja nen Satz ssds für Cache... Aber aktuell dauert mir das zu lange

Gesendet von meinem XT1635-02 mit Tapatalk
 
@besterino:

Kein Problem, Parity ist eher sekundär für mich. Außerdem denke ich, dass die Performance Mittlerweile deutlich besser geworden ist als in der TP3.

@Traumzauberbaum:

Das mit der Flexibilität und ReFS stimmt natürlich. Werde dann halt sehen wo ich Data Deduplication und NTFS und wo ReFS einsetzen werde.
Habe 2x 60GB SSDs zum Cachen, ich hoffe das reicht.
 
Hast du für die deduplication einen belastbaren Artikel? Für mich bis dato eher ein rotes Tuch, aber man will ja seinen Horizont erweitern :)

Gesendet von meinem XT1635-02 mit Tapatalk
 
@Traumzauberbaum:

Was meinst Du mit belastbarem Artikel? Ich habe es zum Testen auf einer 3TB WD Red installiert und die Platzersparnis ist nicht zu verachten:

DDD.JPG

Das ist aber noch weit unter dem zu erzielenden Wert den ich gefunden hatte. Wenn ich nachher zu Hause bin schaue ich mal, ob ich die Seite och finde, dann setze ich den Link hier rein.
 
Aktuell bin ich schwer am hadern, ob ich weg möchte von Hyper-V + Storage Spaces (2012 R2) (mir reicht die Performance von den Storage Spaces dann doch nicht).
Wenn absehbar ist, dass HP ein BIOS Update für den ML10 v2 bringt, dann würde ich noch ein bisschen warten und auf den 2016 mit Storage Spaces Direct wechseln, die ja doch mehr Dampf versprechen (richtig?). Wenn da allerdings nichts kommt, schwanke ich aktuell zwischen:

Für S2D benötigst du jedoch mindestens 2 Maschinen und je nach Leistung deiner SSD´s auch zumindest 2x 10Gbit für den Storage Mirror.
 
ja und zwar zwei mal Datacenter :)
 
Dc habsch 2x.
D2S braucht 2 Server? Lesen hilft wohl eher, als überfliegen. Danke.

Gesendet von meinem XT1635-02 mit Tapatalk
 
Die Performance mit SP hängt im Grunde nur von deinen SSD´s ab, ideal wäre natürlich SSD + NVM (zb Intel DC Serie). Bei S2D wird die LAN Anbindung zum anderen Knoten damit natürlich auch schnell zur Bremse.
 
Zuletzt bearbeitet:
Die Sache ist - ich kenne diese hw mit zfs und da ist der Kram bei großen Transfers länger schnell.
Unter sp hab ich schon nach wenigen GB, trotz 2x ssd im sp, Einbrüche auf 30-40mb/s. Das nervt.

Gesendet von meinem XT1635-02 mit Tapatalk
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh