ESX / ESXi - Hilfethread

Ein vSwitch hat keine Adresse, das ist sozusagen ein unmanaged Switch, der einfach nur halbwegs intelligent die Pakete virtuell an die Switchports verteilt. Meinst Du vielleicht den VMKernel-Port des Hosts?

JA, vmkernel
192.168.11.125
255.255.255.0
def.gw. 192.168.11.1

Aus welchem Subnetz (bzw. welche IP-Adresse und welche Subnetzmaske hat das NAS)? Wie soll das NAS angesprochen werden? Per iSCSI? In welchem Subnetz befindet sich der wie ich vermute VMKernel-Port (auch hier welche IP-Adresse und welche Subnetzmaske besitzt der Port)?
Die da wäre?

nas, openindiana, napp-it
192.168.11.16
255.255.255.0
def.gw. 192.168.11.1

NFS Server V.3 und V.4 (Datastore für Vmware esxi)
iscsi könnte man noch probieren...

Das können tausend Dinge sein, aber mit so wenigen Infos, was Du womit wirklich machen willst, können wir dir schlecht weiterhelfen.

ich will einfach das storage ohne switch an die zweite pnic im esxi anschliessen, wie ich es vorher mit meinem winxp rechner auch gemacht habe. dabei hab ich nämlich gesehen, das es ohne switch ein wenig schneller ist(kopiervorgang).

vielen dank,
david
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Würde über einen Switch gehen.
Du könntest ja zum anbinden des Datastores dem NAS und der pNIC im ESXi auch eine IP aus einem anderen Bereich geben
192.168.12.10 fürs NAS
192.168.12.11 fürn ESXi
Dann kannst du dir sicher sein das der Traffic nur über die beiden Interfaces geht.

Wenn es ein halbwegs guter Switch ist, solltest du keinen Performance Unterschied merken!
Dann lieber mal in einen soldien Switch mit mehr Ports & Durchsatz investieren:fresse:
 
Zuletzt bearbeitet:
Würde über einen Switch gehen.
Du könntest ja zum anbinden des Datastores dem NAS und der pNIC im ESXi auch eine IP aus einem anderen Bereich geben
192.168.12.10 fürs NAS
192.168.12.11 fürn ESXi
Dann kannst du dir sicher sein das der Traffic nur über die beiden Interfaces geht.

Wenn es ein halbwegs guter Switch ist, solltest du keinen Performance Unterschied merken!
Dann lieber mal in einen soldien Switch mit mehr Ports & Durchsatz investieren:fresse:

ich habe früher den ESXi immer mit einer zweiten Netzwerkkarte und direkter Verbindung an einen zugeordneten NFS-SAN-Server gehängt. (Bessere Netzperformance, weniger Kabel, höhere Zuverlässigkeit).
Der beschriebene Weg (virtueller Switch an zweiter Netzwerkkarte, eventuell gekreutztes Kabel) funktioniert auf jeden Fall.

Bei meinen aktuellen Installationen virtualisiere ich allerdings den ZFS-Server direkt auf dem ESXi Server (mit passthrough auf Disks und NFS datastore für ESXi) und verbinde die anderen VM's per internem 10GB-Link und dem ESXi vmxnet3 Treiber. Nach aussen gehe ich dann mit einem 10GB Vlan an den Switch.

Gea
 
Zuletzt bearbeitet:
storage direkt an zweite netzwerkkarte

hallo zusammen,

hier die lösung, für mein problem.

nas, openindiana + napp-it
nic0 : 192.168.1.2/24 (storage network)
nic1 : 192.168.11.16/24 (managment network und normales hausnetz)

esxi 4.1
nic0 : 192.168.1.1/24
nic1 : 192.168.11.221/24

es muss wie oben von mettzo beschrieben eingerichtet werden, nur hatte ich die netze nicht getrennt. nun "rennt" das system erst einmal wie gewünscht.

vielen dank an alle,
david
 
hallo,

ich habe noch ein kleines problem, und zwar kommt die nic1 nicht mehr ins internet, dns und default gw waren gesetzt, aber im open indiana hat er zb den default gw (192.168.11.29) für bei karte übernommen. ich komme zwar über die nic1 auf das nas, aber ich kann nun keine updates einspielen oder software nachinstallieren.

also im moment
nas, openindiana + napp-it
nic0 : 192.168.1.2/24 (storage network)
nic1 : 192.168.11.16/24 (managment network und normales hausnetz)
dns : 192.168.11.29
und wenn ich jetzt einen default gw für nic1 eintrage steht er nachdem ich ok drücke auch in der nic0.
wie kann ich dem nun sagen, dass er nur mit der nic1 ins internet kommen soll?

vielen dank,
david
 
Hrm versuch mir das gerade vorzustellen...

Also zum einen brauchst du das 192.168.1.0 Netz ja nur für die anbindung für NAS an ESX.
Aus diesem Netz kommt auch nichts mehr Raus, da kein GW o.ä.
Wenn du jetzt in den VM Eigenschaften das "VM Network" des 192.168.1.0 Netz ausgewählt hast, kommuniziert die VM NUR mit deinem NAS und kommt aus dem Netz nicht raus.
D.h. in den Eigenschaften deiner VM bzw. der NIC der VM muss das VM Network deines vSwitch0 eingestellt sein, da über diesen vSwitch ist die VM im deinem normalem Netz.

Hoffe hab das Problem richtig verstanden :fresse:
 
im moment hat das problem glaube nix mit dem esxi zu tun.

in dem nas sind 2 netzwerkkarten drin, die eine ist zur storageanbindung da und die andere soll nur fürs napp-it und update/softwareinstallationen aus dem netz sein.
ich komme aus dem hausnetz auf den rechner über besagte zweite karte drauf, allerdings scheitert er zugriff auf das internet.

ciao,
david
 
Ahso das Problem ist nur auf dem NAS.
OpenIndiana kenn ich leider nicht.

Kannst du vom NAS aus ins inet z.B. google.de pingen?
Kanns sein das du evtl. einen Proxy o.ä. im Einsatz hast, der nicht hinterlegt ist?

Bald denke ich kenn ich ihn besser, hab vor mit meinem selfmade NAS einmal alle gänigen NAS OS zu benchmarken ^^
 
seltsamerweise geht es nun

ich konnte zb die ip von web.de nicht anpingen, da hab ich in der console die route noch einmal eingegeben
route add default 192.168.11.29
und dann ging die namensauflösung noch nicht, also je zwei telekom und zwei google dns server eingetragen und schon klappt alles.

vielen dank,
auch an gea, die napp-it oberfläche ist wirklich eine grosse hilfe
ciao,
david


EDIT: die oeffentlichen dns server haben wir nun rausgenommen, das hat den ganzen netzverkehr behindert, nun lauft der interne, warum der nicht gleich zu anfang funktionierte ist uns ein raetsel...
 
Zuletzt bearbeitet:
hi, ich hab hier einen HP Server (DL385 G7) mit einer Opteron CPU. Es ist ein 6136. Jetzt hab ich gerade ESX 4.1 installiert, aber im VSphere sagt er mir, dass kein Passthrough unterstützt wird. Die CPU sollte das doch eigentlich können?
 
BIOS Option IOMMU aktiviert? Mal im BIOS nachschauen. Wenn das Board das net anbietet, dann gibt es da ein Problem. Nicht nur die CPU muß das können, sondern auch das MB. Und das ist leider nicht immer der Fall, obwohl es zB der Chipset kann.
 
Hab jetzt auf meinem Fileserver Server 2008 R2 installiert. Als Virtualisierer für meinen Exchange fiel die Wahl auf den Hyper-V. Kann ich eigentlich testweise im Hyper-V eine ESXi-VM anlegen? EInfach nur zum Rumspielen, nix produktives.
Denn beim Booten hängt der mit ner Meldung, die lauf VMware auf einen fehlenden x64-Prozessor hindeutet.
 
Hab jetzt auf meinem Fileserver Server 2008 R2 installiert. Als Virtualisierer für meinen Exchange fiel die Wahl auf den Hyper-V. Kann ich eigentlich testweise im Hyper-V eine ESXi-VM anlegen? EInfach nur zum Rumspielen, nix produktives.
Denn beim Booten hängt der mit ner Meldung, die lauf VMware auf einen fehlenden x64-Prozessor hindeutet.

Ich glaub das geht im Hyper-V nicht... Der kann glaube ich die Virtualisierungsfeatures nicht durchschleifen in die VM.
 
BIOS Option IOMMU aktiviert? Mal im BIOS nachschauen. Wenn das Board das net anbietet, dann gibt es da ein Problem. Nicht nur die CPU muß das können, sondern auch das MB. Und das ist leider nicht immer der Fall, obwohl es zB der Chipset kann.

Im Bios gibts nur den Punkt "AMD Virtualization". Kann mir eigentlich nicht vorstellen, dass der Server das nicht unterstützt. Ich suche dann mal weiter.
 
Das dürfte dann aber lediglich diesen VT-x Gegenpart von AMD wiederspiegeln ;)
 
Naja, man muß da aufpassen, es gibt einen unterschied zwischen AMD-v und IOMMU.

Nur letzteres ermöglicht eben das paththrough.
Einfach mal damit rumspielen.
 
Ja eben sag ich ja...
Diese Option scheint nur AMDs standard Virtualisierungsfeatures an bzw. auszuschalten.
Für dieses IOMMU muss es normal ne weitere Option geben. Wobei mich ehrlich gesagt wundern sollte, das das bei den HP Servern nicht gehen soll...
 
Soweit ich das bisher in den 890FX Biosen, die IOMMU unterstützen gesehen habe, wird es dort auch immer als IOMMU bezeichnet, damits nicht verwechselt wird. Daher denke ich stehen die Chancen eher schlecht.
 
hallo,
wir haben ein openindiana nas mit 2 hdds im raid 1 direkt an unserem esxi 4.1 und sehen, dass im veeam monitor, das die schreibzugriffszeiten um die 150ms sind und ueberhaupt fuehlt sich das ganze etwas langsam an. kann man das mit jumbo frames vielleicht etwas schneller machen, und wo stellt man die im esxi ueberhaupt ein?

vielen dank,
david
 
hallo,
wir haben ein openindiana nas mit 2 hdds im raid 1 direkt an unserem esxi 4.1 und sehen, dass im veeam monitor, das die schreibzugriffszeiten um die 150ms sind und ueberhaupt fuehlt sich das ganze etwas langsam an. kann man das mit jumbo frames vielleicht etwas schneller machen, und wo stellt man die im esxi ueberhaupt ein?

vielen dank,
david

Jumbo frames können den ip-overhead verringern und den Durchsatz verbessern. In diesem Fall erwarte ich jedoch ausser weiteren Problemen keine Verbesserung:

Wie ist denn das Nas angebunden?
(Intern virtualisiert/über Switch/direkt/NFS/iSCSI )

Was für Nics/Platten/ Wieviel RAM/ CPU hat das NAS?

Gea
 
Zuletzt bearbeitet:
Jumbo frames können den ip-overhead verringern und den Durchsatz verbessern. In diesem Fall erwarte ich jedoch ausser weiteren Problemen keine Verbesserung:

Wie ist denn das Nas angebunden?
(Intern virtualisiert/über Switch/direkt/NFS/iSCSI )

Was für Nics/Platten/ Wieviel RAM/ CPU hat das NAS?

Gea

hallo gea,

ich hatte das system kurz schon im zfs thread vorgestellt.

hardware openindiana:
MS7380 Mainboard

Hardware via prtdiag, Memory via prtconf:

Memory size: 4096 Megabytes

System Configuration: MICRO-STAR INTERNATIONAL CO.,LTD MS-7380
BIOS Configuration: American Megatrends Inc. V2.2 12/02/2009

==== Processor Sockets ====================================

Version Location Tag
-------------------------------- --------------------------
Intel(R) Core(TM)2 Duo CPU E6550 @ 2.33GHz CPU 1

-s3 trio vga
-nge0 1Gbit Nic, onboard (direkt am esxi)
-rtls0 100Mbit Nic (management)
-2x 500gb wd blue im raid1(mirror)
-nfs

nappit-stats:
system and network / statistics! :

18.02.2011, 15:57 - Statistics are reloaded every 60s - edit this file with an external editor only -

iostat -xceM 2 2

extended device statistics ---- errors --- cpu
device r/s w/s Mr/s Mw/s wait actv svc_t %w %b s/w h/w trn tot us sy wt id
sd0 0.2 2.3 0.0 0.0 0.0 0.0 2.5 0 0 0 0 0 0 3 3 0 94
sd1 5.3 130.0 0.6 5.5 1.0 0.1 8.1 26 10 0 0 0 0
sd4 5.3 130.1 0.6 5.5 0.8 0.1 6.9 22 9 0 0 0 0
extended device statistics ---- errors --- cpu
device r/s w/s Mr/s Mw/s wait actv svc_t %w %b s/w h/w trn tot us sy wt id
sd0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0 0 0 0 0 0 0 2 0 98
sd1 4.5 115.5 0.6 5.3 0.3 0.1 3.2 12 12 0 0 0 0
sd4 1.5 116.0 0.2 5.3 0.0 0.1 0.7 2 6 0 0 0 0


zpool iostat

capacity operations bandwidth
pool alloc free read write read write
---------- ----- ----- ----- ----- ----- -----
esxi 402G 61.8G 11 171 1.27M 5.48M
rpool 5.95G 143G 0 2 10.7K 26.0K
---------- ----- ----- ----- ----- ----- -----


vmstat

kthr memory page disk faults cpu
r b w swap free re mf pi po fr de sr s0 s1 s4 -- in sy cs us sy id
0 0 0 1836696 270692 8 46 0 0 0 0 1 2 135 135 0 3072 711 1649 3 3 94


netstat -rni

Name Mtu Net/Dest Address Ipkts Ierrs Opkts Oerrs Collis Queue
lo0 8232 127.0.0.0 127.0.0.1 14829894 0 14829894 0 0 0
nge0 1500 192.168.1.0 192.168.1.12 692494453 153 667351735 2 0 0
rtls0 1500 192.168.11.0 192.168.11.16 38936863 0 540288 0 0 0

Name Mtu Net/Dest Address Ipkts Ierrs Opkts Oerrs Collis
lo0 8252 ::1 ::1 14829894 0 14829894 0 0

ich würde gerne auch das iscsi ausprobieren, weil ich gelesen hab, das es etwas schneller sein soll. kann ich beide (nfs/iscsi) parallel laufen lassen?

vielen dank,
david
 
Hi Kleine Frage. Ist es beim ESXi4.1 möglich von einer VM wie FreeNAS / Openfiler etc. nativ auf die Festplatten zuzugreifen? Wenn ich nämlich FreeNAS auf meine Datastore zugreifen lassen ist das grotten lahm.

Danke und gruß,
expression.
 
ja geht und nennt sich Passthrough. Du brauchst aber Hardware die das kann. Bei Intel heist das Features vt-d und bei AMD IOMMU... Sowohl Board als auch CPU müssen das können.
 
hm jetzt muss ich nur noch raus bekommen on mein board das unterstützt. :(
 
hallo gea,

ich hatte das system kurz schon im zfs thread vorgestellt.

hardware openindiana:
MS7380 Mainboard

Hardware via prtdiag, Memory via prtconf:

Memory size: 4096 Megabytes

System Configuration: MICRO-STAR INTERNATIONAL CO.,LTD MS-7380
BIOS Configuration: American Megatrends Inc. V2.2 12/02/2009

==== Processor Sockets ====================================

Version Location Tag
-------------------------------- --------------------------
Intel(R) Core(TM)2 Duo CPU E6550 @ 2.33GHz CPU 1

-s3 trio vga
-nge0 1Gbit Nic, onboard (direkt am esxi)
-rtls0 100Mbit Nic (management)
-2x 500gb wd blue im raid1(mirror)
-nfs

nappit-stats:
system and network / statistics! :

18.02.2011, 15:57 - Statistics are reloaded every 60s - edit this file with an external editor only -

iostat -xceM 2 2

extended device statistics ---- errors --- cpu
device r/s w/s Mr/s Mw/s wait actv svc_t %w %b s/w h/w trn tot us sy wt id
sd0 0.2 2.3 0.0 0.0 0.0 0.0 2.5 0 0 0 0 0 0 3 3 0 94
sd1 5.3 130.0 0.6 5.5 1.0 0.1 8.1 26 10 0 0 0 0
sd4 5.3 130.1 0.6 5.5 0.8 0.1 6.9 22 9 0 0 0 0
extended device statistics ---- errors --- cpu
device r/s w/s Mr/s Mw/s wait actv svc_t %w %b s/w h/w trn tot us sy wt id
sd0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0 0 0 0 0 0 0 2 0 98
sd1 4.5 115.5 0.6 5.3 0.3 0.1 3.2 12 12 0 0 0 0
sd4 1.5 116.0 0.2 5.3 0.0 0.1 0.7 2 6 0 0 0 0


zpool iostat

capacity operations bandwidth
pool alloc free read write read write
---------- ----- ----- ----- ----- ----- -----
esxi 402G 61.8G 11 171 1.27M 5.48M
rpool 5.95G 143G 0 2 10.7K 26.0K
---------- ----- ----- ----- ----- ----- -----


vmstat

kthr memory page disk faults cpu
r b w swap free re mf pi po fr de sr s0 s1 s4 -- in sy cs us sy id
0 0 0 1836696 270692 8 46 0 0 0 0 1 2 135 135 0 3072 711 1649 3 3 94


netstat -rni

Name Mtu Net/Dest Address Ipkts Ierrs Opkts Oerrs Collis Queue
lo0 8232 127.0.0.0 127.0.0.1 14829894 0 14829894 0 0 0
nge0 1500 192.168.1.0 192.168.1.12 692494453 153 667351735 2 0 0
rtls0 1500 192.168.11.0 192.168.11.16 38936863 0 540288 0 0 0

Name Mtu Net/Dest Address Ipkts Ierrs Opkts Oerrs Collis
lo0 8252 ::1 ::1 14829894 0 14829894 0 0

ich würde gerne auch das iscsi ausprobieren, weil ich gelesen hab, das es etwas schneller sein soll. kann ich beide (nfs/iscsi) parallel laufen lassen?

vielen dank,
david

Es sind sicher mehrere Faktoren, deren Bedeutung man im Einzelfall nur durch selektives Tauschen/ Erweitern ermessen kann.

Optimierungen sind eventuell in er folgenden Reihenfolge denkbar:

1. Nic
Insbesondere mit Realtek aber auch mit anderen gibt es häufiger Probleme mit Solaris. Sofern vorhanden, eine Intel zum Vergleich benutzen.

2. Disk
WD blue ist nicht die langsamste, aber die 500 GB blue auch ncht die schnellste. Wenn vorhanden, mal eine SSD zum Vergleich heranziehen. Wenn das was bringt, auf Raid-10 gehen oder extra SSD Schreib-Lese Cache Platten einsetzen.

3. RAM
Ich habe schon erhebliche Unterschiede beim Wechsel von 4 auf 8GB erlebt. Wenn möglich, RAM aufrüsten.

4. CPU
Wenn atime, dedup und compress ausgeschaltet sind, dann solte es reichen.

5. sonstige Einstellungen
folder property sync probehalber auf disable stellen


ansonsten.
Iscsi und NFS sollten ähnlich schnell sein.

Gea
 
Ich habe hier mehrere Sachen stehen:
- Intel Core Prozessor i3 530 Box 2,93 GHz 1156 Sockel
-Mainboard H55M-ED55 Intel H55

-AMD X4 630 AM3
-Board MSI 880GMA-E45

-AMD X4 630 AM4
- Board Asrock ALiveNF7G-GLAN (sockel AM2+)

Auf dem Asrock läuft der esxi4.1 ohne probleme im IDE HDD Modus.

Bei den anderen noch nicht getestet.

Grüße
 
Keine deiner HW untersützt die Paththrough Techniken.

Für den S1156 brauchst du lediglich nen Xeon, dann kannst du diese Technik nutzen. Für die AMD Geschichten brauchst du dann nen anderes MB und da kannste die Anzahl an einer halben Hand abzählen.

Virtualisieren geht, aber eben keine Paththrought. (aktuelle Configs)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh