ESX / ESXi - Hilfethread

Hm, ja dann werde ich mal schauen, ob es die Flashtools auch für Linux gibt, oder ein Mini-Windows bauen. Es wird ein AsRock Z68 Fatility Board.

Dahin gehend sollte es auch mit den Controllern passen, da ich den ersten SATA-Onboard-Controller durchreichen und die SSD an den zweiten Onboard-Controller stecken könnte.

Gibt es da irgendein Best Pratice was am Besten ist? Controller komplett durchreichen oder RawDeviceMapping nutzen?

Die SSD hab ich schon bestellt, also werd ich sie auch verwenden. :d Hoffe mal, dass sie das aushält. Hab jetzt aber noch nichts negatives gelesen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Warum überhaupt die SSD in die VM stecken und nicht einfach einen Datastore auf der SSD? Hab mir jetzt auch nicht alles durchgelesen, evtl. hab ich was verpasst.
 
Hallo Zusammen,

ich habe eine Frage zu den Ressourcenpools.

Einem einzel System oder Cluster stehen insgesamt X Ressourcen zur Verfügung. Das kann man ja in der Übersicht der Hosts sehen.

Wie sollte man nun am sinnvollsten mit den Pools umgehen?

Muss man, wenn ein Pool den RAM Anteil Hoch (32GB ?) hat,diesen Anteil von der Gesamtzahl abziehen? So das man dann noch weiß, wie viel RAM für andere Maschinen ausserhalb des Pool verfügbar sind?

Ist es sinnvoll die Ressourcen der einzelnen VMs zu zählen und daran den Ressourcen Anteil für den Pool zu bestimmen?

Als Beispiel 10 VMs denen je max. 1GB RAM zustehen.
Sollte man dann einen Pool mit dem RAM ANteil Normale (16GB?) machen?

Muss sonst noch etwas wichtiges beachtet werden?
 
Hallo Zusammen,

ich habe eine Frage zu den Ressourcenpools.

Einem einzel System oder Cluster stehen insgesamt X Ressourcen zur Verfügung. Das kann man ja in der Übersicht der Hosts sehen.

Wie sollte man nun am sinnvollsten mit den Pools umgehen?

Muss man, wenn ein Pool den RAM Anteil Hoch (32GB ?) hat,diesen Anteil von der Gesamtzahl abziehen? So das man dann noch weiß, wie viel RAM für andere Maschinen ausserhalb des Pool verfügbar sind?

Ist es sinnvoll die Ressourcen der einzelnen VMs zu zählen und daran den Ressourcen Anteil für den Pool zu bestimmen?

Als Beispiel 10 VMs denen je max. 1GB RAM zustehen.
Sollte man dann einen Pool mit dem RAM ANteil Normale (16GB?) machen?

Muss sonst noch etwas wichtiges beachtet werden?

Zweimal nein.

Resource Pools bzw. Shares dienen mehr dazu VMs bzw. Gruppen von VMs zu gewichten. D.h. wenn resource contention auftritt, wird anhand von shares entschieden wer eher CPU Zeit bzw. RAM Pages bekommt. Wenn deine Hosts nicht overcommitted sind, sind die Pools eher uninteressant, denn solange Ressourcen da sind, bekommen die VMs was sie benötigen.
Du könntest z.B. einen Pool mit high shares erstellen und da die wichtigstens VMs reinpacken, z.B. DB Server, Exchange oder weiß der Geier was und einen mit medium oder low shares und da den Rest reinpacken.
Dann können alle VMs die gesamten Ressourcen des Hosts nutzen und im Falle das die Ressourcen knapp werden, haben die wichtigen VMs Vorrang.
 
Hm, ja dann werde ich mal schauen, ob es die Flashtools auch für Linux gibt, oder ein Mini-Windows bauen. Es wird ein AsRock Z68 Fatility Board.

Dahin gehend sollte es auch mit den Controllern passen, da ich den ersten SATA-Onboard-Controller durchreichen und die SSD an den zweiten Onboard-Controller stecken könnte.

Gibt es da irgendein Best Pratice was am Besten ist? Controller komplett durchreichen oder RawDeviceMapping nutzen?

Die SSD hab ich schon bestellt, also werd ich sie auch verwenden. :d Hoffe mal, dass sie das aushält. Hab jetzt aber noch nichts negatives gelesen.

Soweit mir bekannt, geht bei den Desktop Boards nur der Intel ICH Controller überhaupt mit ESXi. Die anderen Marvel oder JMicron kannst du an der Stelle vergessen, weil nicht lauffähig so ohne weiteres. (womöglich kann man via zusatz Treiber da was reinoperieren)

Ansonsten, was du da an der Stelle machst, ist ziemlich egal. Speedtechnisch dürfte sowohl das eine, als auch das andere keine nennenswerten Vor-/Nachteile bringen. Selbst das arbeiten mit simplen vmdk Containern ganz ohne durchreichen wäre nicht viel anders.
Probier es halt einfach aus, was du da machen willst.

Resource Pools bzw. Shares dienen mehr dazu VMs bzw. Gruppen von VMs zu gewichten. D.h. wenn resource contention auftritt, wird anhand von shares entschieden wer eher CPU Zeit bzw. RAM Pages bekommt. Wenn deine Hosts nicht overcommitted sind, sind die Pools eher uninteressant, denn solange Ressourcen da sind, bekommen die VMs was sie benötigen.
Du könntest z.B. einen Pool mit high shares erstellen und da die wichtigstens VMs reinpacken, z.B. DB Server, Exchange oder weiß der Geier was und einen mit medium oder low shares und da den Rest reinpacken.
Dann können alle VMs die gesamten Ressourcen des Hosts nutzen und im Falle das die Ressourcen knapp werden, haben die wichtigen VMs Vorrang.

Das sehe ich auch so, ich würde sogar noch einen Schritt weiter gehen, und sagen, wenn der Host zuwenig Ressourcen hat, und somit gefahr läuft, das es unterm Strich knapp wird, ist er einfach nicht genügend weit dimensioniert.
Klar, ein Vorteil ist eben, das man Ressourcensharing betreiben kann mit nem Hypervisor. Nur ist das in Summe in meinen Augen entgegen des eigentlichen Grundes, warum man so ein Produkt überhaupt einsetzt. Denn das ganze ist ja nicht dafür da, diese Funktion aufs äußerste Auszunutzen, sondern viel eher, die vorhandenen Ressourcen optimalerweise vollständig auszunutzen. Wenn aber keine Ressourcen vorhanden sind, müssen so oder so Abstriche her. Ob das nun wichtige oder unwichtige Maschinen sind, spielt dabei keine Rolle. Kommt man an den Punkt, das die Ressourcen überbucht sind, ist was an der Planung falsch gelaufen :fresse:
 
@ Metzzo and fdsonne

Danke für die Informationen.

Das Problem ist, dass wir bzw ich nicht zu entscheiden haben wie die ESX Server Hardaremäßig aussen. Also die Dimensonierung des Clusters. Wir sind nur Anwender (Maschinen erstellen und Co. ) und keine Admins. Unsere Admins sagen nur, dass wir die VMs nicht nackt im Cluster rumliegen lassen sollen, sondern Ressourcenpools für die VMs verwenden sollen. Ohne Ressourcenpools hätte man Performanceprobleme. Auch wenn genung Ressourcen verhanden sind.

Man könnte also sagen, dass Ressourcenpools nicht nötig sind, wenn genug Ressourcen da sind? Nur im Falle, dass die Ressourcen könnte man so wichtige VMs weiter versorgen?
 
Legt man keinen Ressourcenpool an, nutzt man den default Ressourcenpool des Hosts, welcher unsichtbar für den Anwender ist ;)
Ist also gehobst wie gesprungen.

Ansonsten, theoretisch kannst du dir auch einen einzigen Pool anlegen, und dort alle VMs reinpacken. Der Pool bekommt dann unbegrenzte CPU/HDD/RAM Ressourcen und gut ist. Sofern die Hosts genügend Ressourcen haben, passiert da sowieso nix ;)
 
Danke für die Infos.

Dann höre ich einfach nicht mehr auf das geblubbert der Cluster Admins ;)


Ihr beiden schreibt, wenn der Host / Cluster genug Ressourcen hat ist alles in Ordnung, nur woher weiß das genug da sind?
In der Gesamtübersicht des Cluster stehen knapp 300GB RAM zur Verfügung. Bei den einzelnen Cluster Hosts sehe ich wie viel RAM verbraucht wird.
Woher soll ich nun wissen wie viel verfügbar ist? Ich kann ja theoretisch 200% RAM vergeben, solange die Maschinen diese nicht wirklich nutzen ist ja alles ok.
 
Moin Moin,

ich habe gerade meinen M1015 auf mein Board gesteckt und leider kann ich danach mein Rechner nicht mehr den ESX booten. Sobald ich das Webbbios starte möchte passiert nichts mehr(crtl + h). ziehe ich alle meine festplatten also vom onboard controller und vom raidcontroller ab, kann ich in das webbios menü booten. Dann habe ich meine Festplatten angeschlossen und nach neuen Geräte gesucht. Die Festplatten werden beide erkannt. Ich habe also ein RAID 1 erstellt und neu gebootet. Jetzt hänge ich wieder am Anfang... der Cursor blinkt nichts passiert. Anscheind gibt es viele mit diesem Problem, aber der Lösungvorschlag mit F8 das Bootdevice anzugeben, kann ich bei meinem BIOS nicht finden.

Gruß Noise !
 
Ja ich hab schonmal eine LSI Firmware auf dem M1015 aufgespielt - ist aber schon eine gute Weile her... Ich hab aufjedenfall die vom 9240 genommen...
 
Hi,
ich habe es gerade versucht und ich bekomme diesen bekannten PAL Error. Ich denke ich werde den Controller zum Händler zurück schicken. Echt blöd gelaufen. :/
 
Hallo liebe Leute,

brauch eure Hilfe.

Ich habe mir gestern die ESXi 3.5 herunter geladen, weil ich zum Testen nur ein altes System (Asus P4P800+ P4 mit 3 GHz+ 2048 MB RAM) habe.
Installation ging ohne Probleme durch, auch das Konfigurieren am Host.
Aber alles Weitere bringe ich nicht zum laufen.

Wenn ich die IP im Browser eingebe, komme ich auf den "Starbildschirm", die Client Software kann aber von dort aus nicht herunter geladen werden.
Habe es dann mit dem Client der 5er Version versucht.
Beim Verbinden kommt dann eine Meldung, dass irgendeine Installationsdatei vom Server geholt werden muss, das bricht aber bei unterschiedlichen Prozentzahlen immer ab.

Hat jemand einen Rat für mich, bin noch nicht sehr tief in dieser Materie drinnen.
 
Hallo Leute,

ich habe meinen ESXi soweit zusammengebaut und ESXi auf einem Stick installiert. Läuft soweit auch alles.

Nun wollte ich den ersten SATA-Controller an eine OpenIndiana VM durchreichen, allerdings habe ich nun das Problem, dass auch der zweite Onboard SATA-Controller durchgereicht wird (ASMedia ASM1061). Der Controller wird auch nur als Unknown erkannt.

Das wäre ansicht kein Ding, wenn nicht meine SSD dranhängen würde, die ich als Datastore für die VM's nutze.

Kann man verhindern, dass der zweite Controller durchgereicht wird? Woran liegt das? Treiberprobleme?

Alternativ wäre wohl ein PCI-e SATA-Controller der nur für die SSD da ist. Hätte da jmd einen guten Tipp?
Sollte SATA-3 unterstützen und ne gute Performance haben.

Danke schonmal.
 
Zuletzt bearbeitet:
Hast Du mehrere Controller im System verbaut? - oder meinst du mit denen die Du durchreichst, die Ports?

einzelne SATA-Ports kann man momentan noch nicht durchreichen, nur den Controller als ganzes.
 
mpirklbauer: Besorg dir einen alten vsphere client auf der vmware homepage?

RioCoding: Wenn es 2 verschiedene Controller sind kann es auch sein, dass sie an ner PCIe Bridge hängen - dann wird durch das durchreichen eines Controllers darunter die Bridge auch "deaktiviert"
 
Wenn das gehen würde hätte ich ihn schon.
Es scheint so, also ob die Datei von der Homepage verschwunden ist.
 
Danke therealJMC, denke auch, dass es daran liegen wird.

Dann brauch ich eigentlich nur nen einfachen SATA-Controller, der vom ESXi unterstützt wird. Hat jmd Erfahrungen dazu? Braucht nicht viele Ports zu haben und SATA-3 unterstützen.

Könnte man einen M1015-Controller nutzen?
 
Zuletzt bearbeitet:
Nachdem ich nochmal eine Nacht drüber geschlafen hab, ist mir die Frage aufgekommen, ob ich überhaupt auf die HCL achten muss?

Ich will eigentlich nur, dass das ESXi, die SSD sieht, da dort nur der Datastore drauf soll. Sieht es das nicht auch bei nicht unterstützten SATA-Controllern? Ich sehe einen teuren SAS/SATA-Controller als eigentlich zu überdimensioniert an, deshalb die Überlegung.
 
Hallo Zusammen,

Ich habe folgendes Problem:

Die Übertragungsrate eines Virtuellen Samba Fileserver bleibt nicht konstant.
Dazu benutze ich zum Test ein 4.3GB großes DVD-ISO oder einige hundert MP3 Dateien
Wenn es gut läuft, Wird das ISO mit 30-45MB/sek in 2-3minuten vom Client zum Samba gelesen bzw. geschrieben.
Aber in den meisten fällen ist die Übertragung sehr schlecht und liegt bei ca 7-9MB/sek.


Dieses Problem besteht auf 2 neuen ESXi5.0 Hosts welche unterschiedlich ausgebaut sind.
Ein weiterer (älterer) HOST soll aufgrund EnergieKosten Stillgelegt werden. (300+ Watt)
Dieser HOST arbeitet ohne Probleme und dient nur noch als vergleich.

Details bzw. Antworten bitte als PM

Danke
 
Details bzw. Antworten bitte als PM

Dem verwehre ich mich aber strikt. Ziel und Zweck eines Forums ist es nicht, einem User dediziert eine Lösung zu geben, sondern diese Lösung der Allgemeinheit zugänglich zu machen.

Daher bitte ich doch alle entsprechenden User, die etwas zur Lösung zu sagen haben, dies bitte hier im Thread zu tun.
 
ok

dann führe ich mein Problem hier fort:

Zunächst das Alte System:
Supermicro X6DHE-G
2x Xeon 3.6Ghz 64Bit 2MB L2 Sockel 603 800FSB HT (kein VT)
8x 1GB ECC Reg DDR2
2x Intel onboard PCIe GB LAN
1x INTEL GT 4PORT Gigabit PCI-X

Adaptec 2610SA PCI-X SATA 150 RAID
2x RAID 0 OCZ Vertex 120GB SSDs (am Adaptec)
Promise Fasttrak PCI TX4 300
1x WD 1TB Green (am Promise)

die WD 1TB ist mit RDM zum Fileserver durchgereicht
so erreichte dieses System IMMER 35-40MB/sek!



Die neuen Systeme sind folgende:
1.
Supermicro X7DVL-I (LowVoltage)
1 DC Xeon 2.6Ghz 64bit LGA771 4MB L2 HT + VT
2GB ECC FBDIMM PC25700 (erstmal nur 2GB)
2x Intel onboard PCIe GB LAN

Die INTEL GT 4PORT Gigabit PCI-X und Raid/SATA Controller mit SSDs/HDD werden vom Alten übernommen
Auch die VMs werden nicht geändert.

2.
Supermicro X7SPA-HF (ITX Board)
Intel ATOM D510 (2 Kerne 1.6Ghz)
2x 2GB 667 DDR2 (ohne ECC)
2x Intel onboard PCIe GB LAN
1x INTEL GT 4PORT Gigabit PCIe

Die SSDs und HDD sollen vom Alten übernommen werden
Leider können der Adaptec und Promise Controler nicht weiter genutzt werden.
Alle werden am ICH9 erkannt und die WD Green ist via RDM zum Fileserver durchgereicht.


Grundsätzlich erreichen die Datenspeicher auf beiden neuen Systemen die gewohnte Performance
Das Kopieren von 8GB VMs wird mit 37MB/sek ausgeführt.
Jedoch ist bei den VMs nichts davon zu merken.
Mit VSphereClient übertragen alle Clients nur 7-9MB/s zu den jew. HOSTs
Auch der Transfer vom/zum SAMBA ist meistens schlecht.

In Ausnahmefällen werden die erwünschten 35-40MB erreicht

Nochmals Danke
 
Zuletzt bearbeitet:
Ich habe gerade ein Problem bei einem Kunden, bei dem ich nicht weiterkomme, ohne ein neues Cluster aufzubauen...

Es gibt vier Hosts, jeweils ESX 4.0 Update 4 (Build 504850), die in einem HA-Cluster an einem vCenter Server 4.1 Update 1 (Build 345043) hängen. Ein Host hatte defekten RAM, also wurden die virtuellen Maschinen verschoben, der Host heruntergefahren, der RAM ausgetauscht und der Host wieder hochgefahren. Jetzt hat genau der Host aber das Problem, dass sich der HA-Agent um's Verrecken nicht mehr aktivieren lässt.

Meldung immer wieder bei 96 oder 97%:
cmd addnode failed for primary node: Internal AAM Error - agent could not start.: Unknown HA Error

Ich habe schon alle Punkte in diesem VMWare-Knowledgebase-Artikel abgearbeitet, die hosts-Dateien sind sauber/richtig, der Host kann auch in alle Richtungen pingen dass es eine wahre Freude ist.

Wenn ich im selben vCenter Server ein neues Cluster mit aktiviertem HA erstelle, den Host dort reinbringe und ihn aus dem Maintenance Mode wieder in den normalen Modus bringe, startet der HA Agent ohne murren und knurren. Ich will allerdings eigentlich den ursprünglichen Cluster behalten, da der Aufwand, alle virtuellen Maschinen und Hosts da rüberzubringen, doch nicht unerheblich ist.
 
OK, ich werd's mal versuchen, aber wieso funktioniert die Konfiguration und der Start in einem anderen Cluster im selben vCenter? Das will mir einfach nicht in den Kopf gehen...

[edit]
Hat geklappt, vielen Dank. :) Ich musste zwar den root-Zugriff auf die SSH-Konsole freigeben (ist standardmäßig nicht freigegeben), dann hat's aber funktioniert.
[/edit]
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh