ESX / ESXi - Hilfethread

Ich habe mir vor ca nem halben Jahr ne gebrauchte Dell Perc H200 bei einem Französischen Händler gekauft. Ich hab keine Ahnung, ob der Garantie gibt, da alles auf Französisch war, aber dafür war es billig..50€ Sofort Kauf damals.
Der Händler bietet im Moment auch wieder eine an:
Carte Raid Controller Pci-E E2K-UCS-71 B Sata SAS H216J DELL PowerEdge PERC H200 | eBay

Ich benutze die Karte im IT-Modus und habe sie an eine FreeNas VM durchgereicht. Hab 7 Platten dranhängen und hab bisher keinerlei Probleme damit. Wie die Geschwindigkeit 1Gbit< ist, kann ich allerdings nicht garantieren.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der H200 liefert mir 4 SSD im Raid 0 durchaus 1 Gigabyte/Sekunde über ein 10gbit Netz. Reicht m.E. ...
 
Hallo Allerseits,

ich habe eine HP ML10v2 mit einem Xeon E3-1220v3, 16GB RAM, einer Samsung 128GB 850Pro und einen LSI M1015 (IT-Modus) an dem erst mal 4x2TB Platten hängen.
Auf dem Server Läuft der ESXi 6.0.0 U2 und in einer VM habe ich Freenas 9.30 Laufen (8GB RAM Reserviert). Das FreeNAS stellt über ein interes Storage LAN ein ZFS Volume (RaidZ1) über NFS zur Verfügung und reicht dieses zum ESXi weiter. deduplizierung ist aus und atime ist auch aus.

Mein Problem ist: die Schreibperformance ist extrem schlecht: 1,2 - 2,0 MegaByte/s. ATTO Test in einer WIN10 VM gemacht, die roten Balken sind so kurz dass sie nicht man angezeigt werden. Die grünen Balken sind bei ca 1200 MegaByte/s, klar, die Lesezugriffe kommen aus dem Cache.
Hat vielleicht jemand einen Tip ?
 
Zuletzt bearbeitet:
Okay, der M5110 läuft mit dem LSI 2308. Der Name lässt vermuten, dass das irgendwie ein Nachfolgerchip des 2008 ist und auch der Name des Controllers ist ähnlich dem M1015 (vielleicht soll das sogar der Nachfolger des M1015 sein ...).
Habe recherchiert und herausgefunden, dass der M5110 sich auch in den IT-Mode flashen lässt. Habe außerdem gelesen, dass hingegen der Angabe auf Geizhals die Anbindung nicht mit PCIe 2.0 x8, sondern mit PCIe 3.0 x8 erfolgt, was also mehr als genug Bandbreite zur Verfügung stellen sollte, selbst wenn ich das Teil mit SSDs vollballern würde.

Insofern schien ich erstmal zufrieden und habe mir den M5110 bestellt. 173€ schien mir auch ein akzeptabler Preis für Neuware zu sein. Das Teil wird wohl nächste Woche hier ankommen. Ich gebe dann eine Rückmeldung.

Aber danke für eure Hilfe bei der Orientierung mit den RAID-Chipsätzen. Als Laie bei RAID-Controllern fühlt man sich mit sowas ein wenig hilflos. :)
 
Quasi zunächst nur aus Langeweile habe ich mir mal die Ereignisse auf meinem ESXi-Host angeschaut. Das Ding mit allen VMs läuft eigentlich unauffällig durch - jetzt habe ich aber in den Logs gesehen, dass die Kiste in unregelmäßigen Abständen die Verbindung zur lokalen SSD "verliert". Wird zwar in der gleichen Sekunde auch immer wieder hergestellt, aber normal ist das doch nicht, oder? Woran könnte das denn liegen?

Screenshot:

attachment.php
 

Anhänge

  • Strange.jpg
    Strange.jpg
    75,2 KB · Aufrufe: 350
Normal ist das eigentlich nicht...

Ganz klassisch würde ich pauschal mal das SATA Kabel tauschen ;)
Es könnte aber auch was ganz anderes sein. SSD ist halt immer so eine Sache. Schnell und wenig Latenz. Da können ggf. auch Treiberprobleme oder sonstwas am Controller für derartige Effekte sorgen. Möglicherweise legt der Controller die SSD aber auch "schlafen" und das Teil braucht zum Aufwachen zu lange?

Kannst du es mit einer anderen SSD gegentesten?
Kannst du dir mal di SMART Werte der SSD ziehen? -> ggf. von einem anderen OS booten oder die SSD mal woanders anklemmen?
 
Jau, werde ich mal machen. Danke.

Ist ne 120er SanDisk SSD. Ich trau auch tatsächlich dem onboard Cougar Point Controller gerade nicht ganz über den Weg. Ist zwar ein Intel Board, aber irgendwie ist da ein wenig der Wurm drin.
 
Die Lösung virtualisiertes NAS/SAN gibts ja nicht von NetApp und Konsorten. Das ist typischerweise OpenSource mit einer ZFS Storageappliance auf Basis einer BSD oder Solaris Variante wie mein ZFS Storageserver Template.

- DataCore Hyper-converged Virtual SAN
- EMC Unity VSA = "EMC UnityVSA lets you deploy EMC Unity unified storage as a virtual storage appliance."
- NetApp Data ONTAP Edge = "Data ONTAP Edge ist eine kostengünstige Storage-Lösung für Remote-Standorte, die in einer Virtual Machine auf der VMware vSphere Plattform ausgeführt wird."

Das sind jetzt nur drei der "großen" Storage Anbieter.
 
Ok, dann präzisiere ich das.
Als ich vor gut 6 Jahren erstmals ein virtualisiertes napp-it ZFS NAS/SAN für ESXi mit OpenSolaris dann OpenIndiana vorgestellt habe, gabs das von den etablierten Storage Anbietern noch nicht. Die Lösung wurde von vielen damals sogar belächelt oder abgelehnt, auch aus dem OpenSource Bereich wo Neues sich ja viel schneller verbreitet, vor allem aus dem FreeNAS Lager.

Einfach dazu mal zu "all-in-one esxi" googeln und Treffer bis 2010 oder 2011 einstellen

Heute machen das viele, selbst mit FreeNAS.
In Zusammenhang mit NetApp würde ich aber nicht von kostengünstig reden - wobei man beim Vergleich mit einer OpenSource ZFS Lösung immer den Support Aspekt einrechnen muss. Ob der den Aufpreis rechtfertigt muss jeder selbst entscheiden.
 
Zuletzt bearbeitet:
Mein Problem ist: die Schreibperformance ist extrem schlecht: 1,2 - 2,0 MegaByte/s. ATTO Test in einer WIN10 VM gemacht, die roten Balken sind so kurz dass sie nicht man angezeigt werden. Die grünen Balken sind bei ca 1200 MegaByte/s, klar, die Lesezugriffe kommen aus dem Cache.
Hat vielleicht jemand einen Tip ?

Hey,

ich habe meinen Heimserver (bisher auf HyperV) auch frisch umgestellt und habe exakt das selbe Problem. Ich habe eine FreeNAS vm (9.10) mit 2 kernen und 8G RAM. ein Raidz1 mit 3x3TB (WD RED) und hatte da super miese Schreibperformance. Lesen kommt genau wie bei dir aus dem Cache und liegt bei über 1400MB/Sec. Schreibend ist so 11MB/s das höchste der Gefühle. ich habe Testweise die VM auf einen Single Platte verschoben um das Raidz aus der Rechnung zu nehmen. beim move der Daten auf die Single Disk (2TB WD green) hatte ich eine rate von ca. 130MB/s. Völlig normal also. Auch auf der Single disk liegt die Performance ganz ähnlich.

MTU ist hochgesetzt und die Anleitung aus dem link von TapfererToaster hatte ich auch gesehen und befolgt, leider fehlt mir im Moment der Ansatz woran es noch liegen kann. Die NFS Verbindung zwischen ESX und VM schließe ich mal aus, da sonst auch die Read werte mies sein müssten.
SMB Copy auf das NAS läuft mit normalem Speed was das Gigabit halt hergibt.....

Hat noch wer einen heißen Tipp oder einfach mal Vergleichswerte bei einer ähnlichen Konfig?!

Gruß
Matthias
 
Zuletzt bearbeitet:
Es gibt drei Punkte mit denen man das virtualisierte ZFS NAS schneller machen kann
Intern zwischen ESXi und Storage sollten bei Raidz1 mit 3x3TB durchaus bis 300 MB/s gehen.

- Sync Write
ESXi möchte auf NFS sicheres Sync-write
Testhalber mal sync auf dem ZFS Dateisystem ausschalten und testen.
Schneller wird sync write durch eine slog SSD

- vmxnet3
Man kann in der VM entweder eine e1000 vnic oder eine vmxnet3 nehmen
Wenn e1000 eingestellt ist, umstellen auf vmxnet3

MTU sollte egal sein da der Transfer ESXi -> Storage VM in Software läuft.

- Solarish statt BSD
während obige Einstellungen starke Unterschiede produzieren können,
so ist durch Solarish statt BSD als ZFS VM meist eine leichte Performanceverbesserung erreichbar.
 
Zuletzt bearbeitet:
Alles klar :)

vmxnet3 nutze ich immer wo es geht und war auch schon so eingerichtet, die MTU hab ich mal aus dem HowTo übernommen...schaden kanns nicht.

Sync Write disable auf dem Dataset hat das ganze in eine neue Dimension gehoben :d Da passiert jetzt echt viel im RAM des Freenas. Write liegt jetzt im Benchmark so bei 1.000 MB/s und read zwischen 1.200 und 1.400 MB/s. :) Dass das nichts mehr mit platten Speed zu tun hat durfte ja klar sein, zumal die vm gerade ja auf einer Einzelplatte liegt und somit real um die 80-140MB/s machen dürfte.

Ist zwar jetzt so kein Zustand für immer, aber ich sehe direkt woran es gelegen hat. Der Server hängt zwar an einer USV, aber trotzdem gibt das jetzt böse Datenverlust wenn die Maschine unerwartet aus geht / abschmiert. Ich denke ich werde mal ne Log SSD anschaffen.

Danke für den Hinweiß!

Gruß
Matthias

EDIT: Ein längerer Filecopy liegt erwartungsgemäß so um die 100-130MB/s. Wenn der RAM nicht mehr greift dann fällt das ganze also auf den realen Platten Speed zurück und somit ist die Kette jetzt wieder transparent und logisch für mich, noch mal Danke!

Bildschirmfoto 2016-05-15 um 22.13.00.jpg
 
Zuletzt bearbeitet:
Es gibt drei Punkte mit denen man das virtualisierte ZFS NAS schneller machen kann
Intern zwischen ESXi und Storage sollten bei Raidz1 mit 3x3TB durchaus bis 300 MB/s gehen.

- Sync Write
ESXi möchte auf NFS sicheres Sync-write
Testhalber mal sync auf dem ZFS Dateisystem ausschalten und testen.
Schneller wird sync write durch eine slog SSD

Das wars bei mir auch !
Vielen Dank gea!

Howto:

Per SSH auf FreeNAS und folgendes eingeben "zfs set sync=disabled *NAMEDESVOLUMES* "
 
Zuletzt bearbeitet:
Habe ich eigentlich bei nem durchgereichten HBA Controller (mittels PCIe passthrough) die volle Controlle über die Festplatten im Betriebssystem? Können dann auch die HDDs in den Spindown gehen?

Wie sieht es bei durchgereichten RDM Festplatten aus? Können die auch den Spindown gehen?
 
Mit pass-through hat das Gastbetriebssystem die gleiche Kontrolle wie bei einem Barebonesetup ohne ESXi. Auch bei physikal RDM hat das GastOS die Kontrolle, wenn auch nicht die volle Kontrolle, da der Zugriff ja über ESXi und dessen Treiber läuft.

Ob Spindown dann geht hängt am Gast. Ob es Sinn macht an den Umständen.
 
Habe gedacht, dass ich die 4 geplanten Platten die am Controller hängen in den Spindown schicke zum stromsparen (Omni OS als Storage VM). Dementsprechend kann ich dann auch günstigere Desktop Platten verbauen. Alle anderen Dienste die standig die Festplatten verwenden (zB Downloadserver) verwenden dann die SSD. Macht das Sinn?
 
Ist fraglich ob es Sinn macht jeden Monat 1 - 5 TB auf ne SSD zu schreiben. Und die zwei ISOs die man im Quartal benötigt brauchen sicherlich keinen Download Server. ;)

Ich habe ein APT-Cacher am laufen welche die Cache Pakete auf eine VDMK legt welche auf dem kalten Storage liegen. Ist zwar im Setup etwas komplizierter, dafür muss ich nicht nach einem Jahr schon neue SSDs kaufen.
 
Quasi zunächst nur aus Langeweile habe ich mir mal die Ereignisse auf meinem ESXi-Host angeschaut. Das Ding mit allen VMs läuft eigentlich unauffällig durch - jetzt habe ich aber in den Logs gesehen, dass die Kiste in unregelmäßigen Abständen die Verbindung zur lokalen SSD "verliert". Wird zwar in der gleichen Sekunde auch immer wieder hergestellt, aber normal ist das doch nicht, oder? Woran könnte das denn liegen?

Ich antworte mir mal selbst: es handelt sich entgegen meiner urspr. Annahme bei dem fraglichen Speicher nicht um die SSD sondern um meinen Boot USB-Stick mit ESXi als OS und auf dem aber auch dazu noch 2 kleine VMs liegen (VPN + Solaris Storage VM). Dementsprechend vermute ich mal kein größeres Thema dahinter, sondern nehme mal an, das die 2 VMs für den USB2-Slot oder den Stick ab und an einfach zu viel IO Last ist. Gab vielleicht doch Gründe, warum das Einbinden von USB-Medien als Datenspeicher vor ESXi6U2 nicht ohne Weiteres möglich war... ;)

Werde wohl beide VMs vorsichtshalber auf eine SSD umziehen.
 
Hallo,

ich wollte in meinem ESXi incl. einzelner NIC eine DMZ aufbauen. Dazu habe ich folgendes gemacht:

Mit einer Netzwerkkarte einen neuen virtuellen Switch angelegt. Diesen mit VLAN10 versehen. In diesem VLAN habe ich meiner virtuellen Sophos UTM eine neue Netzwerkkarte zugewiesen mit einer anderen IP-Kreis (192.168.10.0/24) und für dieses Netz ein DHCP Server in der UTM konfiguriert.

Ich habe eine Atlas Ripe Probe welche in diese DMZ soll. Am Switch habe ich dem Port der Probe sowie der NIC vom ESXi VLAN10 tagged (HP 1810 Switch) eingestellt.

Meinem bescheidenen Verständnis nach hätte die Probe eigentlich eine IP von der Sophos kriegen müssen, hat sie aber nicht, sondern von meinem normalen DHCP Server. In der Firewall ist keinerlei Maskierung oder ähnliches aktiv.

Kann mir jemand sagen wo das Problem liegt?
 
Ist die Atlas Ripe Probe eine virtuelle Maschine auf dem selben ESXi-Host wie die virtuelle Sophos oder ein physikalisches Gerät? Im ersteren Fall brauchst Du gar nichts mit VLAN oder so zu machen, sondern einfach nur einen virtuellen Switch ohne physikalische Netzwerkkarte zu erstellen, dort dann den DMZ-Port der Sophos und den virtuellen Netzwerkport der Atlas Ripe Probe "anschließen" und schon hast Du eine DMZ.

Im Allgemeinen ist eine virtuelle UTM auf einem Host mit einer physikalischen Netzwerkkarte sowieso höchst unschön. Kannst Du in den ESXi nicht noch eine (Dualport-)Netzwerkkarte einbauen?
 
Die Probe ist ein physikalisches Gerät. Wenn das eine VM wäre, wäre es in der tat auch einfach. :)

Der Server hat mittlerweile 4 NICs. Eine Dualport die schon an die UTM durchgereicht ist für WAN und LAN. Die dritte halt jetzt für DMZ.
 

Das wurde quasi schon mit Beginn des Web bzw. Flashclients eingeläutet, und dem damit abgesagten Support.
Auch mit Ankündigung von Version 6.0 sagte man dass der Fatclient bzw. C Client eben noch weiter "Supported" wäre, was nicht hieß das es dafür dann Updates gäbe.

Mit dem HTML5 Webclient für das vCenter wars dann sowieso klar. Ich bin aber recht gespannt, den Fling fürs HTML5 Interface gibt es ja schon etwas länger, kam bis jetzt noch nicht zur Installation davon.
Vor einigen Wochen, bei einem VMware Meeting, sagte ein VMware Mensch dann das der neue HTML5 Client so einiges Ändern wird, allgemein auch Produkte in nächster Zeit umstrukturiert werden.

Der Grund für den Tod des Clients ist aber durchaus gerechtfertigt. In der HTML5 Version sind Addons bzw. Plugins von vielen Appliances, Hardware, etc. viel einfacher zu integrieren.
Auf der C Version mussten immer Installationen ausgeführt werden, hier quasi nur noch ein Addon auf dem Webserver hinzuinstalliert werden, was wahrscheinlich automatisiert passieren wird.
 
Zuletzt bearbeitet:
Kurze Frage, da Esxi recht neu für mich ist, ist bei der Free 6 Version immer noch das physikalische CPU Limit pro VM auf 2 und auf vCPUs auf 8 begrenzt?
 
Ich frage mich: wie löst man es bei esxi das bspw. eine WindowsServerVM automatisch mit untergefahren wird beim Restart/Standbye/Shutdown des Servers?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh