ESX / ESXi - Hilfethread

Habe mich ja hier schonmal im Dezember zwecks eines Redundanzkonzepts mit 2 Hosts gemeldet. Der Plan sieht jetzt vor, 2 Hosts mit jeweils lokalem Speicher zu verwenden. Wie oder was brauche ich, um möglichst wenig Ausfallzeit zu haben? Also falls der eine Host weg ist, dass die Replizierung auf dem anderen Host möglichst schnell wieder Online ist, am besten unter 2-3 min? :fresse: Müsste ja über HA gehen?

Edit: Ich denk bei den einfachen Sachen zu kompliziert :d Open-V, FalconStor... Und mein Problem ist gelöst -.-:fresse:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Moin!
Ich suche nach einer Lösung bei einer unserer VMs eine VMDK mit ca. 19TB anzulegen. Lt. vmware geht das nur über den webclient von vSphere, alsomit der kostenpflichtigen Version. Allerdings habe ich z.Zt. nur die kostenlose Lizenz vom ESXi und möchte auch nicht nur für diese eine Funktion so viel Geld ausgeben. Gibt es einen Trick?
Kann man vielleicht mit der vShere 60 Tage Demo da alles anlegen und dann wieder auf ESXi zurückwechselnd?
Oder kriegt man das auch ohne vShere Manager mit CLI irgendwie hin?
Bin dankbar für Tipps!
Viele Grüße
FT
 
Welche ESXi Version setzt du ein? 5.5?
In der aktuellsten Version (U2) von 5.5 können einige Funktionen die vorher nur über den Webclient gingen nun über den normalen vSphere Client erledigt werden (z.b. Bearbeiten von VM Version 10 VMs) Ob auch das anlegen einer VMDK >2TB dazu gehört bin ich mir jetzt sicher.
Müsste man testen.
 
Ansonsten über Power CLI auf den ESX-Host verbinden:
Connect-VIserver <name des esx hosts>

Danach z.B. Festplatte 2 vergrössern:
Get-HardDisk -VM <vm name> -name "Festplatte 2" | Set-HardDisk -CapacityGB 19000

Einen CapacityTB Schalter gibts hier nicht.
 
Zuletzt bearbeitet:
Welche ESXi Version setzt du ein? 5.5?
In der aktuellsten Version (U2) von 5.5 können einige Funktionen die vorher nur über den Webclient gingen nun über den normalen vSphere Client erledigt werden (z.b. Bearbeiten von VM Version 10 VMs) Ob auch das anlegen einer VMDK >2TB dazu gehört bin ich mir jetzt sicher.
Müsste man testen.
Ja dem ist so. Habe selber schon eine 6TB VMDK angelegt mit dem Vsphere Client.
 
Was wäre die kleinste Lizenz die ich brauchen würde, wenn ich 2 Hosts (und somit 1 vCenter) habe und vSAN nutzen will? :wink:
 
Hi,

ich hätte ein paar Fragen zu ESXi. Ich würde gerne bald einen kleinen Server mir zusammenbauen. Dieser sollte eine HP, eine Cloud, einen FTP-Server, ab und zu einen TS3 Server hosten und zusätzlich (eventuell) einen Mailserver aufgesetzt bekommen. Weiterhin sollte ab und zu von meinen Geräten (welche im LAN Netzwerk sind) ein wöchtenliches Backup erstellt werden. Von der HP, vom FTP-Server und von der Cloud sollte ein tägliches Backup auf eine externe Festplatte erstellt werden. Die anderen Dienste sollen alle von außen erreichbar sein.

Der Server wird wohl einen 4 Kern Prozessor und ca. 8-16GB ram bekommen. Weiterhin belaufen sich die Datenmengen vllt. auf 1-2 TB. Ich habe mich zwar ein bisschen in die Materie ESXi eingelesen, aber habe immernoch ein paar Fragen.

Ist es problemlos möglich das mithilfe von ESXi auf die Beine zu stellen? Wäre es ratsam ESXi auf einer SSD mitsamt den BS der VMs zu installieren?

Wäre es auch ratsam eine Software-FW (z.B. Sophos UTM) zu installieren (z.B. in einer VM, welche nur die FW als Aufgabe hat)? Schützt die FW auch die anderen VMs?

Würdet ihr in dem Fall lieber auf einen J1900 oder auf einen Athlon 5350 setzen?

Welches BS würdet ihr für welche Dienste installieren? Da ich Schüler bin, habe ich auf alle BS von Microsoft Zugriff (auch Windows Server 2012 usw.).

Grüße Stefan
 
Zuletzt bearbeitet:
Ist es problemlos möglich das mithilfe von ESXi auf die Beine zu stellen?
Ja.

Wäre es ratsam ESXi auf einer SSD mitsamt den BS der VMs zu installieren?
ESXi auf SSD ist Perlen vor die Säue. Der ESXi selbst braucht extrem wenig I/O, außer beim Starten und Herunterfahren. Selbst etablierte Serverhersteller wie Fujitsu bieten USB-Flash-Module an, die eigentlich nix anderes als ein USB 2.0-Stick in anderer Form sind, um darauf den ESXi zu installieren.

Wäre es auch ratsam eine Software-FW (z.B. Sophos UTM) zu installieren (z.B. in einer VM, welche nur die FW als Aufgabe hat)?
Ja, eine Firewall ist immer ratsam.

Schützt die FW auch die anderen VMs?
Wenn man es richtig einrichtet, ja.

Idealerweise werden die Dienste, die von außen erreichbar sein sollen, in eine DMZ gesteckt, die man auch komplett in Software realisieren kann, ohne eine physikalische Netzwerkkarte dafür zu haben. Dafür werden drei virtuelle Switches benötigt:
  • Erster virtueller Switch: an die physikalische Netzwerkkarte, wo der Router/das DSL-Modem/wasauchimmer angeschlossen ist, was für die Internetverbindung zuständig ist, und intern die WAN-Schnittstelle der Sophos-VM
  • Zweiter virtueller Switch: Besitzt keine physikalische Netzwerkkarte, da kommt die DMZ-Schnittstelle der Sophos-VM und alle virtuellen Server ran, die aus dem Internet erreichbar sein sollen
  • Dritter virtueller Switch: an die physikalische Netzwerkkarte, wo der interne LAN-Switch angeschlossen ist, sowie die internen Server und die LAN-Schnittstelle der Sophos-VM

Das ist aber nicht ganz trivial einzurichten, vor allen Dingen bei der Sophos kann man viel falsch machen, aber das ist ein Thema für den Sophos UTM-Sammelthread.
 
Sophos utm hat außerdem Web Application Firewall, mit dem es möglich ist die FW als Proxy zu nutzen um die web dienste nach außen sichtbar zu machen und diese auch zu schützen.
 
ESXi auf SSD ist Perlen vor die Säue. Der ESXi selbst braucht extrem wenig I/O, außer beim Starten und Herunterfahren. Selbst etablierte Serverhersteller wie Fujitsu bieten USB-Flash-Module an, die eigentlich nix anderes als ein USB 2.0-Stick in anderer Form sind, um darauf den ESXi zu installieren.

Dann könnte ich hinten einen USB Stick reinstecken, welcher ESXi als Bootlaufwerk benutzt. Die einzelnen BS von den VMs werden dann auf die SSD installiert. Somit wäre diese Frage schon mal geklärt. Danke!


Wenn man es richtig einrichtet, ja.

Idealerweise werden die Dienste, die von außen erreichbar sein sollen, in eine DMZ gesteckt, die man auch komplett in Software realisieren kann, ohne eine physikalische Netzwerkkarte dafür zu haben. Dafür werden drei virtuelle Switches benötigt:
  • Erster virtueller Switch: an die physikalische Netzwerkkarte, wo der Router/das DSL-Modem/wasauchimmer angeschlossen ist, was für die Internetverbindung zuständig ist, und intern die WAN-Schnittstelle der Sophos-VM
  • Zweiter virtueller Switch: Besitzt keine physikalische Netzwerkkarte, da kommt die DMZ-Schnittstelle der Sophos-VM und alle virtuellen Server ran, die aus dem Internet erreichbar sein sollen
  • Dritter virtueller Switch: an die physikalische Netzwerkkarte, wo der interne LAN-Switch angeschlossen ist, sowie die internen Server und die LAN-Schnittstelle der Sophos-VM

Das ist aber nicht ganz trivial einzurichten, vor allen Dingen bei der Sophos kann man viel falsch machen, aber das ist ein Thema für den Sophos UTM-Sammelthread.

Danke für das anschauliche Beispiel! :d Ich bin schon beruhigt, wenn die Funktion gegeben ist. Das Einstellen wird sicherlich einige Zeit in Anspruch nehmen, aber dafür lerne ich auch was! Ich muss mir da eben genug Zeit einplanen. (Sicherlich werde ich im UTM-Sammelthread dort auch genügend Fragen stellen.)

Sophos utm hat außerdem Web Application Firewall, mit dem es möglich ist die FW als Proxy zu nutzen um die web dienste nach außen sichtbar zu machen und diese auch zu schützen.

Das hört sich doch auch echt gut an. Ich glaube, ich bleibe erstmal bei dieser Kombi :) Bzw. ich frage im Sammelthread das erstmal noch genauer nach. Danke an euch beide!
 
Moin, mal ne kurze Frage hinsichtlich der für ESXi 5.5 u2 benötigten Hardware. Ich möchte mich in Software einarbeiten. Geplant sind u.a. ein Server + diverse VMs (MS Server 2012R2, 3-6 Clients mit verschiedenen OS, Firewall (Sophos UTM oder IPfire), Synology OS). Ich habe diesbezüglich eigentlich nur noch eine Frage hinsichtlich der CPU, lieber eine mit HT (Xeon 1245v3) oder eine ohne (Xeon 1225v3). Geht um eine Preisdifferenz von ca. 200 € was die Anschaffung des Servers angeht. Genauer gesagt die Entscheidung zwischen Dell T20 (ohne HT) und Lenovo TS 140 (mit HT). Würde mich freuen wenn da jemand etwas zu sagen könnte.
 
SMT wird es im CPU Limit so oder so nicht rausreißen... Ich würde drauf verzichten, wenn es wirklich 200€ Unterschied sind.
Achte viel eher auf genügend RAM, sofern du ganz paar VMs auch gleichzeitig laufen lassen willst, würde ich an deiner Stelle viel eher drauf achten, die Büchse mit 32GB RAM zu bestücken... Und am Storage solltest du ebenso nicht sparen. Sprich schnelle Platten. Alternativ SSDs -> was halt teurer, dafür auch bedeutend performanter ist.
 
Okay, dann bestätigt sich mehr oder weniger was ich vermutet hatte, lieber die 200 € in RAM und Stlrage investieren. Danke für die schnelle Antwort.
 
Wobei beides S1150 Plattformen sind. Daher ist bei 32GB ECC Ritze.
 
Naja dann geh ich mal davon aus das die VMs nicht gleichzeitig online sein sollen.
Wobei du bisher auch nix über die laufenden Dienste und Menge an Clients gesagt hast.
 
Naja dann geh ich mal davon aus das die VMs nicht gleichzeitig online sein sollen.
Wobei du bisher auch nix über die laufenden Dienste und Menge an Clients gesagt hast.

Warum?
Die CPU ist doch lange nicht das primäre Problem... Wenn ich mir das bei uns auf der Arbeit ansehe... Da liegt die CPU Last im Schnitt bei ~20% und der RAM bei ~80%.
Nach VMware Maßstab stehen dort bspw. im Cluster "127GHz" Rechenleistung gegen 575GB RAM. Also knapp 4GB RAM pro GHz. Selbst mit nem T20 wäre er er unter dem Verhältnis.
 
Mal ganz naiv gefragt: Kann ich irgendwie mit dem ESXi RAID1 über 2 verschiedene iSCSI-Targets machen? Damit ich quasi im Hintergrund an den iSCSI-Targets Wartungsarbeiten machen kann, ohne dass es den ESXi stört. Multipath ist dafür ja irgendwie nicht das Richtige, oder?
 
Mir ist keine Funktion im ESXi bekannt die RAID1 über SCSI-Geräte (ob lokal, iSCSI, oder FC) bietet. Das muss dein Storage anbieten, indem es mehrere Pfade zur selben LUN über verschiedene Controller/Shelfs bereitstellt (Multipath).
 
Warum?
Die CPU ist doch lange nicht das primäre Problem... Wenn ich mir das bei uns auf der Arbeit ansehe... Da liegt die CPU Last im Schnitt bei ~20% und der RAM bei ~80%.
Nach VMware Maßstab stehen dort bspw. im Cluster "127GHz" Rechenleistung gegen 575GB RAM. Also knapp 4GB RAM pro GHz. Selbst mit nem T20 wäre er er unter dem Verhältnis.

Meine Aussage war auch eher auf den Ram bezogen, deswegen in meinem ersten Post "bei 1150 ist bei 32GB ECC Ritze".

Mit nem W2012 und mehreren Clients und ner FW können auch 32GB schnell wenig werden.
Je nachdem was für wieviele gemacht werden soll.
 
Mit mehreren Pfaden könntest du halt einen wegnehmen, ohne die Bereitstellung der LUNs zu beeinträchtigen. Eine Art Raid über mehrere LUNs geht soweit mir bekannt nicht. Das müsste man wenn dann auf der Storageseite dann fabrizieren. Sprich irgendeine geclustere Storagelösung mit mehreren Pfaden über mehrere Systeme verteilt. So dass du ein ganzes System während der Fahrt runterziehen kannst und die VMs davon gar nix mitbekommen.

Wenn du allerdings eine Lizenz inkl. Storage vMotion hast, kannst du natürlich auch die VMs vor den Wartungsarbeiten einfach auf ein anderes LUN übertragen... Und im Nachgang wieder zurück. Benötigt aber einem vCenter mit entsprechender Lizenz. Storage vMotion ohne vCenter geht soweit ich weis auch nicht. Bin mir allerdings gerade nicht ganz sicher, ob das in der 6er Version ebenso noch so ist.

Mit nem W2012 und mehreren Clients und ner FW können auch 32GB schnell wenig werden.
Je nachdem was für wieviele gemacht werden soll.

Das ist natürlich klar... S2011(-3) wäre dann ggf. aber ne ganze Stange teurer.
Ggf. für ein Testsystem könnte man über S1366 nachdenken, das gibts ja mittlerweile vergleichsweise günstig, auch die CPUs... Wäre dann allerdings gebraucht. Die RAM Riegel selbst sind aber auch nicht gerade günstig, zumindest wenn man große Riegel will (8GB+), was ja essentiell notwendig wäre, wenn man deutlich über 32GB gehen will.
 
Zuletzt bearbeitet:
So hab ich es auch gemacht. Von S1156 auf S1366. Die gibts schon recht preiswert.
Braucht dann aber auch mehr Strom.
Bsp: Mit nem X8DTL-iF mit 48GB(6x8GB) und 2 L5630, 1 SSD, 1 USB Stick, gehen im Idle gerne mal 80-90W durch die Leitungen.

Edit: Wobei das aber noch unoptimiert auf meinem Schreibtisch rumidled
 
Zuletzt bearbeitet:
Die 6x8GB Reg. ECC RAM sind aber auch nicht gerade "günstig"... Und ehrlich gesagt, ich persönlich würde heute kein nennenswertes Geld mehr in Reg. ECC RAM mit DDR3 Standard investieren... Klar, DDR4 ist (noch) schweine teuer, aber nach DDR3 wird in wenigen Monaten kein Hahn mehr krähen. Dann hast du das gleiche Problem wie mit den FB-Dimms vor nicht allzulanger Zeit noch vorher.
 
Doch, hab ich gut geschossen ;) Kommt halt darauf an ob für zuhause oder nicht.
Für einige Zwecke hab ich auch nen DL380 G5 mit 18GB rumstehen. :d
 
Warum?
Die CPU ist doch lange nicht das primäre Problem... Wenn ich mir das bei uns auf der Arbeit ansehe... Da liegt die CPU Last im Schnitt bei ~20% und der RAM bei ~80%.
Nach VMware Maßstab stehen dort bspw. im Cluster "127GHz" Rechenleistung gegen 575GB RAM. Also knapp 4GB RAM pro GHz. Selbst mit nem T20 wäre er er unter dem Verhältnis.

Die Anzeige, die dir die Übersicht im VCenter wiedergibt ist aber nicht der tatsächliche CPU Verbrauch. Ich habe das auch lange geglaubt. Das VCOPS zeigt aber häufig ein ganz anderes Bild. Das Problem fängt eigentlich spätestens da an, wenn mehr virtuelle CPUs zugewiesen werden als physikalisch vorhanden. Und das ist auch mit den dicksten CPUs schnell erreicht. Kann gut gehen, muss aber nicht. Ich jedenfalls gebe auf diese Kompaktübersicht nichts mehr. Da ist die CPU queue length auf OS Sicht oder ein ESXi top deutlich aufschlussreicher.
 
Die Anzeige, die dir die Übersicht im VCenter wiedergibt ist aber nicht der tatsächliche CPU Verbrauch. Ich habe das auch lange geglaubt. Das VCOPS zeigt aber häufig ein ganz anderes Bild. Das Problem fängt eigentlich spätestens da an, wenn mehr virtuelle CPUs zugewiesen werden als physikalisch vorhanden. Und das ist auch mit den dicksten CPUs schnell erreicht. Kann gut gehen, muss aber nicht. Ich jedenfalls gebe auf diese Kompaktübersicht nichts mehr. Da ist die CPU queue length auf OS Sicht oder ein ESXi top deutlich aufschlussreicher.

Ich gebe auch nix auf diese Anzeige ;) Wollte damit nur die Relation aufzeigen.
Virtualisierung ist ja kein Geheimnis und auch keine Zauberei. Der Host verhält sich mit seinen Ressourcen auch nicht wirklich anders als ein normaler Desktop PC bei Ausführung mehrerer gleichzeitiger Tasks... Der "Spaß" bekommt CPU Rechenzeit zugewiesen. Und es kommt im Falle vom ESXi noch dazu, dass eben die zugewiesenen vCPUs eine Rolle spielen.
Ansonsten ist es idR so, dass VMs, die nur idle schieben auch "keine" Ressourcen von der physischen CPU beanspruchen. Entsprechend stehen diese Ressourcen anderen VMs zur Verfügung.

Spätestens aber seit 2008 Server und schon länger bei Linux Distributionen, die den freien RAM als HDD Cache nutzen (können), ist zugeteilter RAM in der VM aber auch gern einfach mal weg. Entsprechend steigt der Bedarf nach physischen RAM auch mit der Anzahl der VMs, solange diese laufen. Wärend dies bei der CPU nicht unbedingt der Fall ist.
Eine einzige CPU kann auch gern mal 20 VMs "abfedern", selbst Lastspitzen sind kein wirkliches Problem, sofern die gesamt Ressourcen nicht überbucht werden... Das allerdings zu erzwingen ist dann schon wieder ein Punkt, wo man eben über mehr Ressourcen nachdenken sollte und muss.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh