ESX / ESXi - Hilfethread

Hoi leute, habe ne kurze Frage zum freien ESXi 4.1 Hypervisor.

Hat jemand von euch einen ESXi (4.1) am Rennen der mehr als 6 Kerne/Socket nutzt?

lt. VMWare EULA soll es ja zumindest lizenztechnisch nicht möglich sein.
in den Foren liest man aber unterschiedlichstes, angeblich haben einige die ESXi 4.1 mit mehr als 6 Kernen rennen ohne irgendwelche zusätzlichn Lics zu ordern.

Verwirrung für mich sorgen u.a. folgende Threads z.B.
VMware Communities: ESXi 4.1 free version CPU with 8 cores
mit dieser Aussage:
But were experiencing some discrepencies between what the lic. reports and actual behaviour. We are using the v4.1 ESXi free version and it states the lic. only supports 1-6 cores. But in our case we are using 4 * 8 cores =32 and the ESXi is seeing all 32 cores.

Sollte dies funktionieren hätte ich im konkreten Falle nen ESXi 4.1 mit 2x12 Cores als interessant empfunden.

Hat hier jemand schon Erfahrung in diesem Zusammenhang sammeln können?

liebe Grüße
Untony

Diese Frage haben wir uns auch gestellt.

LT VMware sollte die Verwendung von 2x6 Cores möglich sein bei diesem Server.

Bei unseren 715er Servern sind alle Cores ersichtlich...auf einer Maschine laufen aktuell auch 7 Server mit 2 vcores.

Es liesen sich auch testweise 12 Maschinen mit 2 Kernen erstellen.

Bleibt die spannende Frage ob bei einem kommenden Release in der Free Variante wirklich nur noch max 6 Cores /Sockel nutzbar sind.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Es liesen sich auch testweise 12 Maschinen mit 2 Kernen erstellen.
Das ist ja unabhängig davon, wie viele Kerne vom ESX(i) selbst genutzt werden (können). Man kann ja virtuelle Maschinen erstellen wie man lustig ist, prinzipiell kannst Du auf so einem Server (insg. 12 Kerne) problemlos 20 Maschinen á 2 Kerne erstellen, die bekommen dann nur dementsprechend weniger CPU-Zeit pro Maschine, wenn die Maschinen mehr CPU-Zeit benötigen als dort ist.
 
Der Versuch eine 13te Maschine zu erstellen bzw in Betrieb zu nehmen führt zu einer Fehlermeldung.
 
So, ich hab inzwischen den Fehler teilweise gefunden: Es liegt nicht am USB Stick, sondern am ESXi. Hatte bis jetzt einen ESXi und einen ESX am laufen. Das lief auch wunderbar. Aber wenn jetzt zwei ESXi am Switch hängen bringen sie abwechselnd Timeouts :kotz: Sobald man einen der beiden Server absteckt läuft der andere wieder wunderbar. Es ist auch egal welche Version des ESXi läuft. :kotz:
Die Kombi aus ESXi und ESX läuft zwar problemlos, aber da der ESX ja auslaufen soll, will ich eigentlich auf beiden Racks den ESXi laufen lassen.

Hat vielleicht irgendjemand noch ne Idee, sitze jetzt schon geschätzte 3 Stunden an der Fehlersuche :kotz:
 
Der Versuch eine 13te Maschine zu erstellen bzw in Betrieb zu nehmen führt zu einer Fehlermeldung.

Welche Fehlermeldung denn?

Hat vielleicht irgendjemand noch ne Idee, sitze jetzt schon geschätzte 3 Stunden an der Fehlersuche :kotz:

Welcher Switch? LAN oder FC? Ich tipp schonmal auf nen Adressen-Konflikt, irgendwas wirst du auf beiden ESXi gleich eingestellt haben was nicht sein darf. Auf den ersten Blick wirkt es zumindest so.
 
Zuletzt bearbeitet:
Welcher Switch? LAN oder FC?
Zyxel GS-1524 auf Kuper GBit

Ich tipp schonmal auf nen Adressen-Konflikt, irgendwas wirst du auf beiden ESXi gleich eingestellt haben was nicht sein darf.

Hatte ich zuerst auch gedacht, aber dem war nicht so.
Du wirst jetz lachen, aber ich bin dann irgendwann auf die Idee gekommen, dass der noch laufende ESXi ja ebenfalls (wenn auch eigentlich erst in einerm späteren Schritt) noch auf nen Stick soll. Also ich alle VMs ins SAN geschoben und auch den ESX2 neu installiert und siehe da, Problem gelöst. (Der musste sowieso mal wieder gepatched werden :fresse:) Die Config war danach auch wieder genau so wie vorher, daher schätze ich mal nicht dass es kein Adressenkonflikt war, zudem liefen auf keinem der beiden die VMs, so das die auch erstmal außen vor waren.

Scheint wohl als "mochten" sich die zwei unterschiedlichen ESXi Versionen nicht :fresse: :kotz:
 
Hallo,

wie kann ich denn esxi 4.1 überwachen? wichtig für mich sind die auslastung, CPU/RAM-verbrauch, uptime und andere schöne sachen, wie ich die hardware-sachen monitore/abfrage, habe ich schon herausgefunden. Allerdings nutzen wir dort IPMI das geht besser und zuverlässiger..
 

Anhänge

  • nagiose_esxi.png
    nagiose_esxi.png
    12 KB · Aufrufe: 82
Fast alles was das check_esx3 hergibt :eek:

Wirklich interessant für den Host, finde ich die Klassiker:
*CPU
*Memory
*Datastores

Für die VMs selbst bietet das Script auch ein paar Infos:

CHECK_ESX3.PL OK - "xxxx-Backup" status=green, run state=UP, guest state=Running, max cpu=5984 MHz, max mem=8192 MB, console connections=0, tools status=OK, has no config issues

Da ich erst später auf die Lösung gestoßen bin, haben wir auch den NSC "Nagios" Client in den VMs laufen die auch hier nochmal Infos wie CPU/Memory prüfen oder via NRPE spezielle Checks wie check_ad check_dhcp usw. durchführen.
 
Hat jemand schon mal ein FANTEC MR-25DR in Verbindung mit ESX(i) im Einsatz gehabt?

gea hat weiter oben von einem Raidsonic Modul mit internem Raid 1 oder 0 gesprochen, aber mit ~120€ recht teuer. Das von mir genannte Teil kost nur die hälfte und bietet quasi das gleiche (wenn ich das richtig verstehe)

Jemand Erfahrung damit?

Und kennt wer noch Alternativen? 3,5" wären nicht schlecht, also für 3,5" HDDs...
 
Suchst du für 3,5" lediglich Wechselrahmen, oder einfach welche mir integrierter Raid Lösung? Ich sehe da jetzt keinen so großen Vorteil gegenüber nem ordentlichen Raidcontroller außer vielleicht dem Preis.
 
Ich nutz das Teil mit der WS. Wüsste nicht warum es mit dem ESXi nicht laufen sollte, da es nach außen hin völlig transparent 1 Laufwerk anzeigt.

Und Steggi, der Preis ist natürlich das Argument.
 
Das Problem ist einen anständigen Hardwareraidcontroller für ESX(i) 4.x zu finden... Der halt nicht Unsummen kostet.
Ich brauch keine 300€ Karte für zwei HDDs... Und ich such lediglich was kleines für Raid 1 Arrays. Eventuell später auch zwei davon.

Nachteil an den 2,5" Dingern ist, die HDDs sind recht teuer im Vergleich.


Aber ich hab nix gefunden, was mir passen würd. Am besten wäre 4x3,5" in irgendwelche 5,25" Schächte. Interne Raid Funktion (zwei mal Raid 1) und das ganze dann via SATA/SAS intern ans Board über ein Kabel...
Problemmatisch dabei scheint zu sein, das nur ein Array durchgegeben werden kann... Für zwei braucht man wohl so nen PortMultiplikator... Bzw. der SATA/SAS Port muss das verstehen.


So ne externe Box ist auch ne Lösung. Aber ich hab kein eSATA in der Kiste :(
Und USB3 ist vom ESXi auch nicht unterstützt...
Wobei ich sagen muss, die 180€ für den Kasten ohne HDDs sind schon wieder ne Menge Holz. Da bekomm ich fast schon nen anständigen 4 Port Raidcontroller intern... (also nix gekonnt)



Die ~60€ für das 2x2,5" Teil hingegen scheinen ganz gut im P/L zu stehen... -> Nachteil ist halt nur, ich brauch 2,5" HDDs dafür, welche ich nicht habe und welche ich anschaffen müsste...


Grundsätzlich gehts mir darum meine nun scharfe Small Business Server 2011 VM brauchbar sicher zu bekommen...
Platzbedarf von dem Teil würde ich mal auf grobe 200GB schätzen.
Je nach dem wie sich das noch ausweitet. Im Moment läuft ne 100GB Partition für das System und zwei 50GB Partitionen für WSUS, Sharepoint, Exchange und SQL...
Das Ding soll nicht als zentrale Datenablage dienen... Dafür hab ich ne externe Single 1TB HDD via NDIS erreichbar von jedem PC aus... (RO reicht)
Theoretisch würden für das Vorhaben also 2x250GB bzw. später vllt 2x320GB dazu reichen.
Viel mehr VMs schafft der ESXi sowieso nicht (nur 8GB DDR2 RAM, mehr wären quasi kostentechnisch sinnfrei)




Eine Sache noch, wie sieht man bei den 2x2,5" inkl. internem Raid, wenn eine HDD stirbt?
An den LEDs vorn?

Und wie stellt man das Raid wieder her?
Ich hab ja mit dem ESXi nur begrenzen Zugriff und Management intern...
 
Zuletzt bearbeitet:
Hey

Warum investierst du das Geld nicht in ein kleines NAS? Da gemütlich die vmdk via NFS/ISCSI abgelegt und deine VM ist sicher und flott genug.
Könntest dann ja auch das NAS als Datenablage nutzen und mit dem Server nur die gewünschten Dienste bereitstellen.

Grüße
 
@Mezzo: Bei den normalen fertig NAS-Systemen hast du eigentlich immer den Flaschenhals der Gbit Schnittstelle und häufig auch noch eine recht geringe I/O Last. Jut, die sind auch nicht unbedingt dafür ausgelegt.
 
Klar allerdings behaupt ich reicht das locker, da es eh in den seltensten Fällen genutzt wird.

Mein QNAP + NFS + VMDK macht knapp 100MBye/s und wenn das nicht reicht weiß ich auch nicht. IOs müsste ich nochmal zuhause schauen, hab ich nicht im Kopf meine aber es waren zwischen 2k und 2.5k IOP/s.

Wir hier lassen sogar einen ganzen Haufen VM's via NFS @ 1GBit auf auf unseren Netapp zugreifen und da ist fast den ganzen Tag kaum Betrieb. Auch Netapp bzw. auch die Consulting Firma meinte das noch nicht einmal Trunks Sinn machen würden, da wir noch lange nicht an den Grenzen von Gigabit sind.

Denke kaum keiner von uns hat Applikationen/DB's die es schafften 24/7 eine Gigabit Anbindung auszulasten.

Und QNAP & Co. bieten auch im SOHO Bereich zertifizierte Geräte die echt TOP sind!
Alternativ ein ATOM/AMD seldmade NAS.

Ist aber evtl. auch Geschmackssache, ich bevorzuge eben ein NAS andere local Storage.

Grüß
 
Grundsätzlich bin ich davon nicht abgeneigt... Aber der Preis... Ist mir für so ne Spielerei zu hoch...
Ich habe nur einen ESXi Server der laufen muss... Und ob ich das Storage nun intern oder extern aufbaue ist unkrittisch.
Das Problem ist, idR sind die günstigen NAS Kübel ungeeignet für den ESX... Einfach weil oft die IO Leistung extrem mau ist.
Intern habe ich vollen HDD Speed...

Und die SBS Versionen ab 2008 sind nicht gerade HDD Sparsam was die Zugriffe angeht...

Ansonsten, ein selbstbau NAS kommt nicht in Frage... Will nicht noch ne Maschine haben die läuft.
 
Zuletzt bearbeitet:
Moin

Klar verstehe deine Bedenken.
Allerdings stimmt das mit dem IO nicht wirklich.
Ein 2Bay NAS im RAID1 wird nicht weniger IO/s haben als ein lokales RAID1, da hier die HDDs die Bremse sind. Bench doch mal mit IOmeter dein lokales RAID1, wenn dann dann evtl. noch ältere HDDs nimmt oder irgendwelche "green" Editions, die selbst nicht über 100MByt/e machen ist sogar das NAS schneller.
Maximum über Gbit was ich bislang gemessen habe waren 115MB/S & ~ 3.5k IOP/s (Netapp) und zum Vergleich mein QNAP wie oben erwähnt 100MB/s & 2.5k IOP/s und da stehen über 50k€ gegen 400€ (ATOM NAS).
 
Zuletzt bearbeitet:
Mich interessieren aber nicht so primär sequenzielle Datenraten. Sondern Random Zugriffe.

Ich hab schon ein paar kleinere NAS Kübel auf der Arbeit gehabt. Viele sind dazu noch in den sequenziellen Zugriffen sehr schlecht, da brauch man gar nix erwarten.
Mit Geräten im Preisbereich 200-400€ schafft man dann schon oft gar 100MB/sec. Das stimmt, aber die Leistung in ner VMWare Umgebung, wo massiv Random Zugriffe auf die HDDs stattfinden, ist oft mehr als dürftig...
 
Wenn ich heute Abend noch daran denke :hmm: kann ich mal mit IOmeter aus einer VM heraus ein paar Random Zugriff benchen.
 
@ Metzzo - eine VM bringt da nix wenn dann müsstest Du von mehreren VMs nen Benchmark starten ;)

die andere Sache wäre dann natürlich wieder: wieviele VMs liegen auf einer LUN/Datastorage? - VMware gibt hier für normale Systeme empfehlungen für 10-20 VMs - bei Lastintensiven Systemen 5-10 VMs

wir haben bei uns das ganze auf ner FAS2020 mit 300GB FC-Platten auf mehrere LUNs aufgeteilt, was im Vergleich zu vorher - alle in einer LUN - deutlich performanter war.

Für meinen Heimgebrauch (2x ASUS P5K-VM / Q8200 / 8GB RAM) über PCI-angebundene Dual-NIC's reicht mir mein Openfiler (AMD64 X2 3800 / 4GB RAM / 2x RAID1 aus 2 500GB WD Blue / PCI-Gigabit NIC) aus, die QNAP TS109 pro war da etwas zu schmal... - hatte auch kein RAID...

Es kommen wie immer mehrere Faktoren ins Spiel.
 
Wie gesagt, meine Haupt-VM, welche Last erzeugt ist ein SBS2011...
Und wer die aktuellen SBS kennt, weis auch, wie extremst RAM hungrig die Teile sind...

Ich kann ihr aber nur 6GB RAM geben, mehr ist produktiv leider nicht mit der Kiste.
Ein Großteil der Schreib/Lese Zugriffe wird also von internen SQL, der Exchange DB und auch von Swapzugriffen des SBS selbst kommen...
 
Für meinen Heimgebrauch (2x ASUS P5K-VM / Q8200 / 8GB RAM) über PCI-angebundene Dual-NIC's reicht mir mein Openfiler (AMD64 X2 3800 / 4GB RAM / 2x RAID1 aus 2 500GB WD Blue / PCI-Gigabit NIC) aus, die QNAP TS109 pro war da etwas zu schmal... - hatte auch kein RAID...

Es kommen wie immer mehrere Faktoren ins Spiel.


TS1xx ist auch ne Nummer zu klein :eek:
Habe damals in den sauren Apfel gebissen und mir ein TS239Pro II zugelegt, da hatte ich aber noch keine ESX'e und langsam wird der Platz knapp.

Also wenn ihr wollt, bench ich mal rnd Zugriffe mit IOmeter.
Wenn dann wieviel % Read/Write darf es denn sein?
Und wie groß soll die Paket bzw. "Tranfer Request Size" sein?

Btw. arbeite aktuell an einem selfmade NAS, allerdings zieht mir der C2D E6750 mit 5 HDDs @ 90W idle zu viel aus der Dose. Nutze aktuell SUSE da dort die NFS & CIFS Implemantationen besser sind als auf vielen NAS-Derivaten.
Mit einem spindown der HDDs lassen sich knapp 25W sparen.
Mit einem suspend 2 RAM zieht er nur noch 6.5 W, allerdings is s2ram rigeros egal ob da gerade ein Zugriff aufs Raid stattfindet, noch nicht sehr optimal :hmm:

Deine Büchsen ziehen aber sicherlich auch etwas oder? :)

Grüße
 
Zuletzt bearbeitet:
Als guten Anhaltspunkt würd ich sagen, nimm den Kasten und pack eine VM drauf. Diese am besten mit nem Windows 2008 R2 Server, installiertem SQL und ner DB damit der auch was zu tun hat. Dann fährst du die Büchse mal runter und wieder hoch.
Wärend des Bootvorgangs misst du mal das was nebenbei noch an Load auf dem gleichen physischen HDD Array machbar ist... (am besten gleich in ner zweiten VM, sonst könnte das Bild verfälscht werden)

Wenn du nen ESX(i) laufen hast, wo du den Kübel einklinken kannst, wäre das auch ideal. Aber muss nicht unbedingt. Einfach so ein Volume an irgend ne Maschine mit ner Virtualisierungssoftware einklinken und dann auf das NAS die VMs ablegen (inkl. allem, also auch die SWAP Files usw.)
 
Warum während eines Bootvorganges benchen?
Der Bootvorgang (auch wenn er viel Last erzeugt) ist nicht von Ewigkeit und sollte eher selten vorkommen, also keine fairen Bedingungen für einen Benchmark.
Und wir reden hier ja nach wie vor vom SOHO Bereich, da ist ein HDD Array aus 2 HDDs im QNAP natürlich nicht die Welt. Und wenn das Teil während des Boots mal etwas in die Knie ginge, wäre das für die kurze Zeitspanne so schlimm?

Die NAS Sasche war nur eine Idee, wenn du der Ansicht bist das es deinen Anforderungen nicht genügt, na dann eben nicht.

Grüße
 
Ne so war das nicht gemeint ;)
Der Bootvorgang soll hohe Last auf dem Array erzeugen... Denn leider ist das bei mir so mit dem SBS2011... Die HDD LED kommt quasi aus dem flackern nicht mehr wirklich raus.
 
blöde Frage am Rande:

Hab grad nen 2ten N36L bestellt um ESXi drauf zu installieren. Wie kriegt man die VMs da drauf? Hab paar vorhandene VMware Maschinen auf meinem Desktop rechner. Krieg ich die da problemlos rüber? und krieg ich die auch wieder runter um sie z.b. aufm lappy mitzunehmen?
 
Portierungen zwischen Client VMWare (VMWare Player, VMWare Workstation) und Server VMWare (ESX, ESXi) geht, aber ist etwas umständlich. Du kannst die Client Version nicht ohne weiteres auf den ESXi schieben. Der versteht das HDD Format nicht.
Dazu gibts den VMWare Converter, der dir das reinportiert...

Ansonsten, untereinander zwischen ESXi Servern kannst du einfach die Files nehmen (über den Datastore Browser) und auf ne Kiste runterladen und dann auf der zweiten Kiste wieder hochladen. Danach suchst du die VMX Datei im Datastore und kannst auf ihr sagen, zum Inventory hinzufügen. So wird die VM zum Host hinzugefügt. Alle Settings usw. bleiben weiterhin vorhanden. Wenn der Host gleich hist (also gleiche Hardware bei CPU Architektur) geht das zu 100% auch gut.

PS: Man müsste mal probieren was passiert wenn man ne VM vom ESX nem VMWare Player/VMWare Workstation zum starten gibt. Theoretisch müsste das auch gehen. Und normal müsste sogar das spätere Rückspielen auf den ESX da auch kein Problem sein. Weil das HDD Format ja nicht geändert wird.
 
Zuletzt bearbeitet:
Hi

Der bequemste und idr. fehlerfreiste Weg ist der Standalone VMware Converter.
Hin- und herkopieren finden einige VMs nicht lustig und laufen ggf. nur mit händischen Anpassungen, daher ist der Converter immer empfehlenswert.

Mitnehmen via Notebook, weiß ich nicht wie sich vom ESXi kopierte VMs verhalten, nie ausprobiert.

Grüße
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh