ESX / ESXi - Hilfethread

Setze heute 5.5 u2 auf. 6.0 echt Dreck, da ging ja die Beta besser o_O
Btw. kann es sein, dass 6.0 xxx_1 Ordner für jede virtuelle Maschiner erstellt?

Kann mich jetzt net erinnern, das sowass vorher da war? :/
Kommen erst, wenn ich eine (neu angelegte) VM starte. Bei 4 VMs wurden insgesamt 15GB weniger auf der SSD, die vorher net während des Betriebs weg waren...
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Probleme die ihr habt... betreffen die wirklich Vmware 6 insgesamt oder nur ESXi 6? Hat jemand schon den Mischbetrieb? VCenter auf 6 und Hosts weiter auf 5.5U2?
 
Vielleicht liegt es ja auch am HP Image von ESXi 6.0? Die meisten die sich hier ja beschweren haben, wie ich auch, nen HP Server... Will aber ehrlich gesagt nicht rumtesten. 5.5 U2 mit neuestem Patch (Auch HP Image) läuft sauber und reicht fürs erste...
 
Ja ich denke das es nur HP betrifft da ich sonst keine Probleme im Inet gefunden habe bis jetzt. Da wir in der Firma noch auf 5.1u2 sind und eine etwas ältere Netapp haben werden wir wohl nicht so schnell auf 6.0 gehen :)

Ich werde später mal auf meinem Desktop ESXi 6.0 installieren und schauen ob ich da auch solche Probleme habe wie auf meinem ML310e.
 
die schlechte Performance scheint nicht am Image zu liegen.
ich hab die Sorgen auf meinem 4gen NUC ebenfalls. dort setze ich nur einen sata id-Patch ein. kein extra Treiber im eigentlichen Sinne.
 
Also ich habe am Samstag von 5.1U1 auf 6.0 gewechselt. Allerdings habe ich ein neuen Stick genommen und ESXi sauber neu installiert und die VM's einfach wieder gemappt. Alles hat auf anhieb geklappt eine Probleme. Ich kann werder darüber klagen das Windows sich "langsam" anfühlt noch über fehlende Geschwindigkeit beim kopieren von Daten von und nach der NAS VM. Ich habe allerdings kein RDM sondern einen HBA durchgereicht.

gruß
Dogma2k
 
Wenn ich mir deine Sig anschaue, hast du nen normalen Server, kein HP und wsl deshalb auch net das HP Image hergenommen? da scheint bei uns ja das Problem zu sein. Werde mal morgen mein Server auch komplett neu aufsetzen. Dann Teste ich nochmal mit 6.0 HP Image, ansonsten kommt halt 5.5 u2 drauf... Zurzeit zu gutes Wetter um zu Hause an dem Ding zu hocken :d
 
Was spricht derzeit gegen "Normales ESXi und anschließend HP Offline Bundle installieren"? Hat das schon jemand durchexerziert?
 
ich glaube ich bin einfach zu blöd oder ich sehe den Wald vor lauter Bäumen nicht. Hat jemand von euch einen Link wo ich mich für die freie ESXi Lizenz beziehen kann?
 
VMware ESXi in Google eingeben. Musst dich dann Registrieren und kannst die Datei herunterladen. Über dem DL ist dann auch die Freie Lizenz :)
 
Alles klar, dankeschön.
Habe immer direkt das HP Image runtergeladen, da ist das nie aufgetaucht. Hat aber jetzt geklappt :)
 
Habe mal ESXi 6.0 (Standard, ohne Treiber) auf 2 DL380 G5 installiert. Läuft "sauschnell" und schön flüssig auf normalen SAS HDDs. Bei 5.5 u2 wars genauso performant auf den 380er. Jedoch war der ML310e dank SSD "viel" schneller bei 5.5 u2, jetzt ist es bock langsam mit 6.0 HP Image. Hab also mal ohne Treiber auf dem ML310e installiert und siehe da, viel schneller. Mindestens genauso wie vorher mit 5.5 u2. Also irgendwie wills net mit dem HP Image. Evtl. Treiberprobleme? Wäre ja aber traurig, wenns HP net aufgefallen wäre. Ist nicht nur der 310e betroffen, auch auf nem ML350p G8 getestet --> Same. Dabei werden die G8 ja laut HCL unterstützt oO
 
Jetzt wäre natürlich nochmal interessant zu wissen inwiefern sich das HP vom normalen Image unterscheidet?
Gibt es einen anderen SATA Treiber als vib?
Wie gesagt, ich nutze den NUC mit Standard Image und füge nur PCI Ids zu, so dass der Standard SATA Treiber auch für mein Gerät verwendet wird.
Und da ist es wie erwähnt extrem lahm.

Hast du mal Messungen gemacht? ZB Geschwindigkeit für eager Disk Creation?
 
Zuletzt bearbeitet:
Habe mal ESXi 6.0 (Standard, ohne Treiber) auf 2 DL380 G5 installiert. Läuft "sauschnell" und schön flüssig auf normalen SAS HDDs. Bei 5.5 u2 wars genauso performant auf den 380er. Jedoch war der ML310e dank SSD "viel" schneller bei 5.5 u2, jetzt ist es bock langsam mit 6.0 HP Image.

Das Problem muss fast beim HP-Image zu suchen sein. Mein Supermicro-Server läuft mit 6.0 ja auch tadellos. :hmm:
 
Zu viel Arbeit. Informatiker = Faul :fresse: Hiflt wohl aber erstmal nichts :(
 
*grins*

Ich werde das mal später testen habe eh keine VMs im Moment aktiv auf meinem Server laufen :)
 
So, ich versuche das Problem noch etwas einzugrenzen.
Hardware ist wie gesagt ein Intel NUC 4Gen i5 mit 16GB RAM und Festplatten sind 2,5" HDD via SATA.
Unter ESXi 6.0 habe ich ein Ubuntu laufen und dort teste ich die Festplatten Performance.
Code:
dd if=/dev/zero of=test bs=10M count=50 oflag=direct
50+0 records in
50+0 records out
524288000 bytes (524 MB) copied, 13.5017 s, 38.8 MB/s

Was sagt Ihr dazu? Findet Ihr für das Setup die Werte okay?

Richtig träge ist einfach das Snapshot erstellen und das Pre-Allocate mit Eager der Festplatten.
 
Ich habe nun eine Gegenüberstellung angelegt.
Scheinbar scheint mein Gefühl mich getäuscht zu haben.

ESXi Storage I/O 6.0 vs 5.5U2 (unpatched) - Free Licence
Hardware Intel NUC 4Gen i3 4GB RAM

- ESXi 6.0 create Disk 16 GB Thick Eager
- ISCSI NAS Synology DS413 Gigabit LAN
- 6:02 Minuten
- Local 2,5” HDD via SATA (40GB)
- 10:21 Minuten

- ESXI 5.5 create Disk 16 GB Thick Eager

- ISCSI NAS Synology DS413 Gigabit LAN
- 5:33 Minuten
- Local 2,5” HDD via SATA (40GB)
- 10:58 Minuten

Der Test sagt mir nun, dass es prinzipiell keine gravierenden Unterschiede gibt. Die Differenzen würde ich sogar in die Kategorie "Messungenauigkeiten" packen.
Ich werde wohl meine 2,5" HDD gegen eine QNAP HS-210 tauschen. ISCSI scheint ja wirklich fixer zu sein als local HDD.
 
hi, wie bekomme ich .qcow2 images konvertiert -(oder wenigstens eingebunden) in esxi? kann man kvm images nativ lesen?
 
Bei qemu ist qemu-image.exe o.ä. dabei, welches alles Mögliche konvertieren kann.
 
Ich habe nun eine Gegenüberstellung angelegt.
Scheinbar scheint mein Gefühl mich getäuscht zu haben.

ESXi Storage I/O 6.0 vs 5.5U2 (unpatched) - Free Licence
Hardware Intel NUC 4Gen i3 4GB RAM

- ESXi 6.0 create Disk 16 GB Thick Eager
- ISCSI NAS Synology DS413 Gigabit LAN
- 6:02 Minuten
- Local 2,5” HDD via SATA (40GB)
- 10:21 Minuten

- ESXI 5.5 create Disk 16 GB Thick Eager

- ISCSI NAS Synology DS413 Gigabit LAN
- 5:33 Minuten
- Local 2,5” HDD via SATA (40GB)
- 10:58 Minuten

Der Test sagt mir nun, dass es prinzipiell keine gravierenden Unterschiede gibt. Die Differenzen würde ich sogar in die Kategorie "Messungenauigkeiten" packen.
Ich werde wohl meine 2,5" HDD gegen eine QNAP HS-210 tauschen. ISCSI scheint ja wirklich fixer zu sein als local HDD.

Interessanter wäre dieser Test auf einem Microserver mit dem HP Image. Meine Supermicro-Büchse läuft mit 6.0 gefühlsmässig auch gleich schnell wie mit 5.5U2.
 
So, nachdem ich ja in meinem Setup festgestellt habe, dass ISCSI performanter ist, als via SATA, habe ich meinen ESXi Server etwas frisiert :d

1. Der NUC bekam nun eine 2. LAN Card spendiert (via mini PCIE)
2. Ich hab ne Synology RS214 mit 2 NICs angeschafft.

Was ist nun die beste Strategie?
Meine Idee war es, NUC und NAS direkt mit einem LAN Kabel zu verbinden.
Im ESXi würde ich der einen NIC sagen, das diese ausschließlich für den ISCSI Traffic zuständig ist. Die andere Karte wäre dann Management Console und logischerweise VM Traffic in/outbound.

Gibt es eventuell bessere Ideen, was ich mit den jeweils 2 NICs machen kann?
 
So, nachdem ich ja in meinem Setup festgestellt habe, dass ISCSI performanter ist, als via SATA, habe ich meinen ESXi Server etwas frisiert :d

1. Der NUC bekam nun eine 2. LAN Card spendiert (via mini PCIE)
2. Ich hab ne Synology RS214 mit 2 NICs angeschafft.

Was ist nun die beste Strategie?
Meine Idee war es, NUC und NAS direkt mit einem LAN Kabel zu verbinden.
Im ESXi würde ich der einen NIC sagen, das diese ausschließlich für den ISCSI Traffic zuständig ist. Die andere Karte wäre dann Management Console und logischerweise VM Traffic in/outbound.

Gibt es eventuell bessere Ideen, was ich mit den jeweils 2 NICs machen kann?

Ich denke nicht, dass eine RS214 performanter als ein lokaler Datastore ist ;-) Konfiguration ist soweit ok.
 
Ich denke nicht, dass eine RS214 performanter als ein lokaler Datastore ist ;-) Konfiguration ist soweit ok.

Sagen wir mal so, meine letzten Performance-Messungen spielten mir in die Hände... habe schon lange einen Grund gesucht :)
Ich liebe doch das Basteln :d

Danke für's Feedback!
Zusätzlich habe ich gedacht, könnte ich ja auf den anderen NICs Multipath einrichten zum Storage..
 
Was hast du denn für ein Switch?
Klar kannst du eine dedizierte NIC für den Datastore einrichten. Je nach Switch kannst du aber auch eine Link-Aggregation auf dem NAS machen.
Darf ich fragen wieso du iSCSI einsetzt?
Ich finde NFS ist viel Performanter und bequemer. Backups zu exportieren oder auf die VMs direkt zuzugreifen (vmdk) wäre für mich schon wichtig.

EDIT: @KlimperHannes: Wenn die VMs auf der NAS liegen kann das gerade mit NFS schon ein großer Unterschied sein. Gerade mit ESXi kann die Performance sehr viel besser sein als wenn die VMs auf einem Internen Datastore liegen.
 
Zuletzt bearbeitet von einem Moderator:
Derzeit habe ich nur einen 08/15 Netgear Gigabit Switch im Plastik-Desktop Gehäuse. Also nix mit VLAN oder Link-Aggr Support.
Allerdings steht ein Neukauf noch bevor.
Wenn der Hausbau durch ist, soll ein 19" Zoll Switch angeschafft werden.
Ich möchte also hier an der Stelle nur nochmal erwähnen, dass der Home-Server wirklich für's HOME ist, ich aber gerne Dinge optimiere solange sie bezahlbar sind :-)

ISCSI hatte ich mir überlegt, weil ich davon ausging, dass die Performance besser ist. Vor allem, da die RS214 ausschließlich für ESXi ist und ich daher die LUNs als BlockDevice anlegen wollte.
Gegen NFS sträube ich mich sicher auch nicht, wenn es da Vorteile gibt, die überwiegen. Bisher sah ich es als Vorteil bei einem LUN an, dass das Dateisystem beim Host liegt und nicht bei der NAS. Auch wenn ich ISCSI nur ohne VAAI nutzen kann, da ich ESXi als Free-Variante laufen lasse.

Ist ein NFS mit Ext4 tatsächlich einem LUN mit vmfs überlegen?
Backups erledige ich mit Nakivo, welches auf meine andere NAS via SMB backupped. (SMB hat den Vorteil, dass ich das Repository unmounten kann und die NAS daher in den Standby modus gehen kann)

Mal schauen, was es wirklich mit der Perfamance NFS vs SATA auf sich hat. Nicht unerwähnt lassen möchte ich, dass mein SATA Storage in einem Gehäuse mit einem Raid1 Controller ist. So ein "günstiges" Teil von IcyBox.
 
Erstmal zum Verständnis.
Du betreibst einen intel NUC als ESXi Server und ein RS214 NAS und machst dir Gedanken ob du mit Link Aggregation von zwei GBit Verbindungen eine bessere Performance erzielst auch wenn du dir dafür erstmal einen neuen Switch zulegen musst?

Die erste Frage die ich mir da stellen würde wäre: Wie kommt es dazu das die Performance über iSCSI besser sein kann als über SATA, wenn die Platten im NAS wieder über SATA angebunden sind?
Ich vermute mal du misst eher den Einfluss der Dateisysteme mit denen die HDDs formatiert sind oder irgendwelche caching Effekte.

Ich würde die beiden Geräte über eine NIC direkt miteinander verbinden. Ganz ohne Switch. Zuminedst wenn sich das ohne Aufwand machen lässt.
 
Genau :d
Für meine Zwecke würde auch der NUC mit der einen NIC reichen und eine NAS mit einer NIC im Netzwerk am Switch.
Ein neuer Switch muss aber ohnehin her. Erstmal möchte ich über "Möglichkeiten" reden und mir dann die "beste" und "interessanteste" raussuchen und dann natürlich auch aufs Preisschild schauen.
Wie gesagt, der Bastel, Forscher und Spieltrieb stehen da im Vordergrund. Dass ich da keinen/kaum einen Unterschiede merke, dem bin ich mir schon bewußt.

Ich hatte mal einige Tests gemacht zwischen ISCSI und SATA. Da war die Performance über ISCSI besser als SATA. Zusätzlich werde ich das nochmal mit NFS testen.
Möglicherweise liegt es auch an meinem oben erwähnten Raid1 Gehäuse. Hier stört mich außerdem, dass ich das Raid1 nicht überwachen kann. Eine NAS schickt mir eine Email wenn eine Platte wegbricht.

Round-Robin wäre ja auch eine interessante Taktik in Kombination mit Link-Aggretation.

EDIT: Warum mir das Thema außerdem noch sehr wichtig ist: Auf dem ESXi läuft meine komplette Heimautomatisierungs-Software. Dort sind mir folgende Punkte wichtig:
- Stromspar effizienz
- Ausfallsicherheit durch eine möglichst kleine USV
- Ausfallsicherheit durch RAID1
- Simples und zuverlässiges Backup / Desaster Recovery (daher auch ESXi mit VMs)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh