[Sammelthread] HP ProLiant ML10 v2 G3240/i3-4150/E3-1220v3/E3-1241v3

Über Disqualifikation zu reden ist natürlich dahin gestellt. Nur weil man viel HW durch reichen kann wird aus Hyper-v aber nicht gleich ein reiner Typ 1. Das Teil hat mehr mit Typ 2 zu tun, als mit 1. Von mir aus kann man das Teil auch nen Hybrid nennen, aber rein Typ 1 ist BS.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Na dann hast du Hyper-V immer noch nicht verstanden ........
 
Offensichtlich.
Um es klar zu stellen: die Diskussion an sich losgelöst von Hyper-v ist recht alt. Eine klare Grenze zu ziehen ist mit modernen Hypervisoren ohne Kenntnisse des Unterbaus mMn nicht sinnvoll. Überall wird Hyper-v als Typ 1 klassifiziert. Richtig.
Ich sehe da zwar selber eher den Hybrid im kommen, aber an sich kann ich auch mit Typ 1 Klassifizierung leben. Das dann der Tonfall rau wird, wenn man abschweift von der gängigen Meinung ist zwar schade, aber wohl so üblich.
 
Zuletzt bearbeitet:
Mein Tonfall wird rauh, wenn Leute Dinge schreiben, die keinen Sinn machen. Die technische Erläuterung für Deine Meinung (link wäre schonmal was) bleibst Du schuldig - was beim Vertreten von "Mindermeinungen" selbstverständlich sein sollte. Und warum der 2016er HyperV nun was anderes vom "Typ" her sein soll als der 2012R2er, habe ich auch noch nicht erkannt.

Zu erwarten, dass Leute eine andere Meinung - die dazu eben in vielen Fachquellen nicht geteilt wird - ohne Begründung mal so als richtig akzeptieren und dein überlegenes Wissen einfach so annehmen, ist m.E. halt etwas lebensfremd.

Aber ich bin gerne bereit dazu zu lernen und am Ende werde ich nicht um Worte/Begrifflichkeiten feilschen, wenn ich verstanden haben sollte, warum Du der Meinung bist, die allgemein geläufige Klassifizierung als Typ 1 sei falsch oder ungenau.
 
Naja. HDDs können schon jetzt durchgereicht werden. Mit 2016 kann man zusätzlich noch Grafikkarten für VDI und PCIe Devices weiter reichen. Da ist man aber immer noch ein Stück von ESXi aber vor allem zur Proxmox entfernt.
.

Leider wird das wohl unter Windows 2016 nicht ganz so einfach was ich bis jetzt gelesen habe . Bis jetzt sind wohl nur GPUs und NVMe Controller unterstützt was deutlich weniger ist als was bei ESXi und Proxmox geht. Vor allem muss man da noch etliches von Hand machen :)
 
War remotefx nicht für Terminal Server gedacht und da gab es doch auch nur eine Handvoll Profi GPus die das unterstützen...

RemoteFX ist für VDI Umgebungen gedacht, vergleichbar mit vSGA/vGPU bei VMware. Grundsätzlich braucht man dazu (aktuell) nur eine DX11 Karte, aber wer kauft sich um einen 5-stelligen Betrag eine VDI Umgebung und baut dann 100 Euro Grafikkarten ein? ;)
 
Leider wird das wohl unter Windows 2016 nicht ganz so einfach was ich bis jetzt gelesen habe . Bis jetzt sind wohl nur GPUs und NVMe Controller unterstützt was deutlich weniger ist als was bei ESXi und Proxmox geht. Vor allem muss man da noch etliches von Hand machen :)

Hmm. Kaum kümmert man sich ein paar Wochen nicht um neue Entwicklungsschritte. Auf einer MS Veranstaltung nach Release des TP4 war es noch nach meinem Kenntnisstand. Zumindest haben MS Jungs uns das so erklärt. Durchreichen von USB PCIe Karten wurde vom Publikum angesprochen und als lauffähig attestiert.

Bleibt also mal abzuwarten was wirklich in die Final kommen wird.
 
Dauert ja noch etwas bis es rauskommt, wie immer was funktioniert und was MS dann unterstützt sind zwei paar Schuhe. Aber es sollen wohl auch Netzwerk,Usb und HBAs gehen.
 
Aktuell habe ich die NIC´s wie folgt vergeben: eth0 mit eigener IP für den ESXI Host / eth1 für iLO ebenfalls mit eigener fester IP

Wenn ich nun im ESXI auch die eth1 zum vswitch/Netzwerk hinzufügen würde (für Teaming), wäre dann iLO noch erreichbar? Auch unter der eigenen IP? Soll ja eigentlich geshared sein, oder?
Macht das Performance technisch Sinn?
 
Hi,

ich bin etwas anders vorgegangen - kp, ob das gleich abbildbar ist ->

2. vSwitch mit der anderen NIC erstellt. Ich ordne dann den entsprechenden VMs die beiden vSwitche in jeweiligen NICs zu und richte Teaming dann in den gewünschten VMs ein. So steuer ich, welche VMs mehr Dampf dank Teaming haben sollen, und welche eher weniger (da gebe ich dann einfach nur eine Karte durch und richte eben kein Teaming ein - so ist z.B. mein SMB Server mit beiden Karten angebunden, während mir der WSUS Server o. der ADC egaler sind und nur eine Karte angebunden haben).

ILO ist weiterhin erreichbar mit eigener IP. Aktuell ist die Kiste also mit 3 versch. IPs dann bei mir im Netz -> 1x ILO, 1x NIC1, 1x NIC2.

Ich bilde mir ein so etwas flexibler zu sein. Wenn ich mir da Traumvorstellungen eingebrockt hab - immer her damit.


/E: ach und weil du nach der Performance gefragt hast - fur den smb erreiche ich so 2* 115mb/s, sofern ich shares von verschiedenen Platten anspreche und logischerweise von 2 Clients ;)
 
Zuletzt bearbeitet:
Ok, den ersten Kram hab ich wieder gelöscht. Magst Du mal einen Screenshot Deiner Netzwerkconfig hochladen? ;)
 
Ja ne auch nur für mich zum besser Verstehen ;)
Wäre interessant zu wissen, welches die bessere Lösung ist. Deine Idee (die auch nicht unlogisch klingt) oder eben einfach den einen vSwitch mit mehreren NIC´s zu pushen, so das quasi alle was davon haben.
 
Hier:



Sicherlich kann man das "besser" machen, aber für meine Zwecke tut das hervorragend. Grundsätzlich war bei mir der Gedanke:

"Ich hab eine Kiste, die soll priorisiert im Netz Daten verteilen können. Alle anderen sind nachrangig, sollen aber auch funktionieren. Im schlechtesten Fall habe ich so 1GBit/s rein für den SMB und 1GBit/s für alle anderen zusammen zur Verfügung und im besten Fall gehen 2GBit/s (addiert) durch. Da ich nur 1Gbit/s Clients im Netz habe (und an sich auch zu 99,9999% nur max. 2 aktive, die massiv Traffic erzeugen würden, gleichzeitig), reicht mir das.
Wenn du allerdings eher allen VMs nur mehr maximalen Speed geben willst, dann wäre eth0 u. eth1 einem vSwitch zuweisen und auf ESXI Ebene bereits das Teaming zu konfigurieren, die bessere Wahl, da du dann nur einmal konfigurieren musst.

Beide LAN Karten, die ich aufem SMB einbunden habe (mit Anbindung an die vSwitche) kriegen keine IP mehr zugewiesen, sondern bilden zusammen einen weiteren vAdapter, der dann erst die IP zugewiesen kriegt.
 
Zuletzt bearbeitet:
Dafür nicht.
Ich hab mal ne Frage bzgl. Team im ESXI:

Angenommen ich habe dort versch. LAN Karten eingebunden zu einem großen Teaming Adapter. Crasht jetzt ein Treiber (was ja bei dem Broadcom nicht unüblich wäre :P) - steht dann das ganze Team?
 
Ich hoffe Du wolltest die Antwort nicht von mir ;) Ich kenne die leider nicht.
 
Gräm dich nicht... ich könnte es ja googlen oder ausprobieren ;)

Hab btw. gerade noch 2x die Transcend RAMs zu meinen bisherigen 2 hinzubestellt. Mal gucken, wann die kommen ;)
 
Zuletzt bearbeitet:
Naja Windows Netzwerktreiber und ESXi Netzwerktreiber sollte man nicht unbedingt vergleichen :) Bei ESXi gibt es deswegen ja auch Zertifizierte Treiber ,hatte da jetzt noch nie Probleme haben aber auch immer nur Zertifizierte Hardware mit ESXi im Einsatz.
 
Geht mir ja nicht um die Wahrscheinlichkeit an sich, sondern was passiert. Wenn das Team dort steht... Wäre es nicht dann generell sinnvoller eher nach meiner Variante vorzugehen?
Dann würde ja Max die Maschinen stehen, die beide Adapter drin haben?
 
So, ich denke ich werde ESXi 6 installieren und darauf dann den Server 2012 Standard virtualisieren.
Ich frage mich grad nur, ob es mit einem durchgereichten SATA III Datastore merklich schneller wäre. Der ML10 v2 hat ja leider nur 2x SATA III, da die am SAS-Port angeschlossenen HDDs ja nur SATA II sind.
Genau diesen wollte ich aber als Datastore durchreichen... Ich weiß, theoretisch sind bei Gigabit ja maximal eh nur 125 MB/s machbar, aber Theorie und Praxis sind ja immer so eine Sache für sich.
Kann da Jemand aus Erfahrung sagen, ob SATA II ausreicht, oder wie viel schneller (wenn überhaupt) SATA III ist?

Viele Grüße
Erinnyen
 
Zuletzt bearbeitet:
Sind nicht

die beiden SATA Ports Port 5 u. 6 und somit nicht die SATA III Ports? Sondern Port 1 u. 2 (also die von vorne gesehen linken beiden) vom Mini SAS werden mit SATA III angebunden sein? So hab ich bisher die Mischung aus iLO u. Doku verstanden. Macht auch mehr Sinn mMn. die beiden für optische Laufwerke gedachten Ports mit SATA II anzubinden, oder nicht?

/E:

Quote vom Startpost:

Anschlüsse intern: (insgesamt 6x SATA) 1x MiniSAS SFF-8087 auf 4-fach SATA Backplane SATAIII/II (Bay 1 u. 2 haben SATAIII Support), 2x SATAII, 1x TPM

So hab ich das auch verstanden.
 
Zuletzt bearbeitet:
Hmm...also ich hab das jetzt so verstanden, dass er nur 2x SATA III hat.

Quote aus den QuickSpecs:
"HPE Dynamic Smart Array B120i Controller
NOTE: Supports up to 6.0Gb/s SATA. (SATA port 0/1 support 6Gb/s and SATA port 2/3 support 3Gb/s)."

Wäre gut zu wissen, ob er nun 2x oder 4x SATA III kann...
Habe auch schon mehrfach gelesen, dass dem nicht so sei, würde es aber gern aus "vertrauenswürdiger" Quelle bestätigt bekommen. ;)

Viele Grüße
Erinnyen
 
Zuletzt bearbeitet:
Steht doch da. Hast es selbst kopiert. 2x sata3 und zwar die ersten beiden Ports.
 
Port 0/1 sind aber am Mini sas. 2/3 sind die Rechten beiden Mini sas mit SATA II. Und die beiden "reinen" SATA sind auch 2er SATA.. So verstehe ich das.
 
Ja, genau. Kann ich mit ILO auch so nachvollziehen - hab gerade auch Platten umgebaut und der Vermutung entsprechend haben sich die Ports geändert.
 
Ok, danke. Dann bleibt nur die Frage bezüglich des Geschwindigkeitsunterschieds SATAII vs. SATA III über Gbit LAN.
 
Hast du vernünftige SATA II Platten merkst du das nicht. Ich hab zwei uralte WD Green 1tb Platten - ausgebaut aus den ersten externen 1tb Platten von WD... Damit komme ich im Raid 1 auf ca 90MB/s .. Nicht mega, aber ok. Meine USB 3 Platten packen da mehr - 115mb/s. Mehr packt da dann der Client nicht. Die sind aber auch Max 1 Jahr alt... Gegen 7 oder mehr...
 
Zuletzt bearbeitet:
Ich dachte an WD Red 3 TB Platten. Vorerst würde ich aber die alten WD Green 1 TB aus dem alten Homeserver nehmen.
Wollte das nur vorher klären, da es zum einen in der Bucht grad günstig gute LSI Controller gibt. Zum anderen bliebe dann aber die Frage, in wie weit der dann volle Leistung bringen würde.
Die Slots sind doch nicht voll angebunden, wenn ich mich da recht entsinne.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh