ESX / ESXi - Hilfethread

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Sorry - ich werd aus deinem Posting nicht so wirklich schlau was du da jetzt machen willst... WHS mit virtuellem Windows 7 und virtuellem Linux im ESXi Thread?
 
nein nicht direkt. ich benötige eine whs als system und zusätzlich hätte ich noch gerne virtuelle maschinen mit linux und einem win7. soweit hast recht. ABER...die frage ist ob ich das auch einfach bewerkstelligen kann mit einem esxi und darauf dann den whs, win7 und linux laufen lasse da ich dort anstatt 8gb speicher dann 16gb verwenden kann. die frage ist nun ob es einfach zu bewerkstelligen ist ohne viel zeitaufwand vorallem auch darauf bezogen dass der whs am onboardcontroller ein raid5 als datengrab benötigt. (es sind 2 controller am board vorhanden).
 
Ja grml, das hab ich mittlerweile auch schon gecheckt.

Was könnt ihr mir denn bis 150€ empfehlen ? Kann ja auch hier aus dem Marktplatz sein. Den Server betreibe ich nur zum Spaß um nen bissel zu spielen, da brauche ich keinen Controller für 400€.

Grüße noise

HP SmartArray P410 mit 256MB Cache + BBU liegt auch in diesem Preisbereich ;)
Läuft mit ESX(i) 4.x/5 und hat 8xSAS/SATA Ports sowie Raid 5 Unterstütztung. Ich glaub für Raid 6 brauch es ner dedizierten Lizenz...
Es ist aber ein PCIe 8x Controller ;) Sprich braucht auch nen dementsprechenden Slot am Board bzw. muss in nen 16x Slot...
 
ok hab hier eh zur not einen perc obwohl ich mit dem nicht ganz zufrieden bin. werde mir das einmal schnell anschauen und mich dann entscheiden.
 
mechanisch 8x Slots sind unüblich bei Desktop Hardware... Da gibts idR 1x, selten mal 4x Slots. Und da würde der Controller nicht reinpassen, müsste in diesem Fall also in einen 16x Slot. Wäre aber nur einer Vorhanden (je nach Board) könnte dort aber ggf. schon was stecken ;)
Wenn du zwei 8x Slots hast, ist doch alles supi...
 
ist es eigentlich sinnvoll, die vorhanden kerne und arbeitsspeicher komplett den vms zuzuteilen, oder nur so viel, wie sie wirklich brauchen?

Best Practice ist, für jede vm die Menge an Arbeitsspeicher zu reservieren, die auf jeden Fall benötigt wird.
Dann kann man den einzelnen vms im zweiten Schritt mehr Speicher zuweisen (dank Memory Ballooning kann die zugewiesene Speichermenge aller vms in Summe sogar den physikalisch Speicher überschreiten). ESXi verteilt die Ressourcen dann entsprechend des jeweiligen Bedarfs. Einer der Hauptvorteile eines bare metal hypervisors :)

Macht natürlich nur Sinn, wenn die durchschnittliche Speicherauslastung der vms entsprechend niedriger ist als der gesamte vorhandene Speicher.
 
Naja, dasselbe Prinzip. Du kannst einer vm global eine Mindestanzahl an cores zuweisen (reservation), d.h. die Kapazität steht unabhängig von der Auslastung der anderen vms immer zur Verfügung. Die restliche Kapazität wird dann von ESXi je nach Bedarf verteilt - maximal bis zur Obergrenze die von dir in den Einstellungen der jeweiligen VM angegeben ist.
 
Ich würd die Finger von der Reservation lassen...

Das ganze Konzept geht nur auf, wenn man genügend CPU Power sowie genügend RAM Menge im Host stecken hat.
Überschreiten die VMs die CPU Ressourcen und die RAM Menge deutlich, führt sich die Kiste in die Ecke. Ansprechverhalten gleich Null ;) Alles wird extrem zäh und es wird geswapt ohne Ende...

Reservation von Ressourcen macht in meinen Augen genau nur dort Sinn, wo wirklich die Last stark schwankt. Wird aber der Host soweit überbucht, das man zwingend mit Reservationen arbeiten muss, damit alle VMs genügend Grundpower bekommen, dann sind die Settings irgendwie falsch gewählt ;)
IdR läuft es so, die VMs nehmen sich nur das, was sie wirklich brauchen... Und können maximal das belegen, was man ihnen zuweist. Ein riesiges Problem ist aber, das heutige Servertechnik gerade was den RAM angeht, dahingehend ausgelegt ist, zur Effizienzsteigerung das an RAM zu nutzen, was man bekommen kann. Das heist, virtualisiert man einen Mail(postfach)server oder einen Datenbankserver, so wird der bei gewisser Größe auch den RAM voll ausnutzen können, den man der Maschine gibt. Doppelt man das nun, dauerts nicht lange, und auch das ist voll. Das geht soweit, das teils die ganze DB im RAM vorgehalten wird um lahme Schreib/Lesezugriffe von den HDDs zu verhindern.
Ein ähnliches Prinzip führt Microsoft mit Vista/2008 Server ein... Man nutzt brachliegenden RAM als Festplattencache für Interaktionen mit Dateien. Und wenn da 32GB RAM der VM zugewiesen sind, diese selbst aber nur sagen wir 4GB braucht, gibts nach ein paar Stunden betrieb eben 28GB Cache in der VM.


Hier ist der Admin gefragt und sollte möglichst effizient den RAM auf die VMs aufteilen, aber so agieren, das man den Host nicht drastisch überbucht...
Für den Fall, das einem das gelingt ;) und das wird es, wenn man Köpfchen bisschen einschaltet, dann brauch es keiner Reservation mehr.


Bei mir hat sich ne Faustformel in Sachen CPU Zuweisung eingebürgert. Alle VMs bekommen zwei vCPUs zugewiesen. Die die was mehr brauchen, bekommen drei/vier usw.
CPU Technisch ist das aber alles eher unkritisch. Weil die durschnittliche CPU Last idR weit unter 50% liegen...
Beim RAM wirds da was schwerer und wird direkt von den Anwendungen bestimmt. Bei Windows schaut man sich am besten im Taskmanager um, und guckt, wie viel Cache und wie viel Anwendungsspeicher im RAM schlummern. Ist der Cache dort ordentlihc hoch, dann dreht man den RAM runter.
 
So pauschal lässt sich das nicht sagen, das Problem sind die IOPS, eine Einzelplatte ist da nunmal (stark) eingeschränkt. Im Idle-Modus wirst du vermutlich nicht viel merken bei 5-6 vms, wenn die alle parallel auf die Platte zugreifen und IO-Last erzeugen wird das schon eng.
 
So pauschal lässt sich das nicht sagen, das Problem sind die IOPS, eine Einzelplatte ist da nunmal (stark) eingeschränkt. Im Idle-Modus wirst du vermutlich nicht viel merken bei 5-6 vms, wenn die alle parallel auf die Platte zugreifen und IO-Last erzeugen wird das schon eng.

Auch wenn das immer gern behauptet wird. Selbst mit nem dicken Raid dahinter machst du zwar IO technisch auf dem Papier was gut, in Sachen Speed hingegen nimmt sich das teils gar nix.
Eine einzige VM kann die ganze Platte beschäftigen, genau so wie sie das ganze Raid beschäftigen kann... Alle anderen VMs haben sozusagen das Nachsehen und können bestenfalls sich hintenanstellen bzw. eben diese eine Last erzeugende VM daran hindern/einbremsen.
Am besten fährt man, wenn man die Last auf physisch getrennt voneinander arbeitende Platten/Arrays aufteilt. Sprich optimalerweise pro VM eine HDD/ein Raid Verbund.
Nur führt das das Prinzip der Virtualisierung wiederum ins sinnfreie ;)
 
Nabend,

hat es von euch einer hinbekommen, eine TV-Karte an eine VM durchzureichen?

Ich habe vor meinen Homeserver zu virtualisieren.

Gruß Dirk
 
Über usb gar kein Problem das mach ich hier mit meinem mediaportal server, PCI oder pcie sollte auch gehen mit entsprechender VT Unterstützung. Und nein, der n36l kann es nicht.
 
Zuletzt bearbeitet:
Hallo,

das der N36L das nicht kann ist mir bewußt. )

Da soll dann ein bedeutend leistungsstärkerer Host zum Einsatz kommen, da der N36L beim LiveTV transkodieren an seine Grenzen gerät.
Und der soll halt nebenbei noch andere Funktionen erfüllen, zb. Astaro UTM, nen ZFS-Filer, WSUS, etc.
Zu der Geschichte mit dem PCIe durchreichen, gerade bei TV-Karten findet man halt kaum Infos.
 
Da man auch raid controller durchreichen kann, sehe ich nicht den Grund warum es mit TV Karten nicht gehen sollte. Mal abgesehen von bescheidenen Treibern ;)
 
RAID Controller unterscheiden sich grundlegend von TV Karten, genauso wie GPUs was völlig anderes sind.

Bei TV Karten ist die Chance sehr gering dass diese funktionieren, da das Speicheradressen rumgemache des ESX da ein paar Probleme bereitet.

XEN soll da pflegeleichter sein.
 
So mein Raid Controller ist angekommen! Beim Auspacken habe ich gemacht das auf dem M1015 zwei SAS Ports sind. Laut Datenblatte gibt es
eight internal 6 Gbps SAS/SATA ports.

Wie darf ich diese Aussage verstehen? Wo schließe ich denn jetzt meine Festplatten an ^^ . Irgendwie hab ich mir das alles einfacher vorgestellt xD. Aber heute Abend wird dann halt gebastelt!

Gruß Noise
 
Der Controller dürfte zwei SFF-8087-Anschlüsse haben, die pro Anschluss vier Kanäle beinhalten. Dafür gibt es Kabel auf vier einzelne SATA-Stecker, um SATA-Platten direkt anschließen zu können.
 
RAID Controller unterscheiden sich grundlegend von TV Karten, genauso wie GPUs was völlig anderes sind.

Bei TV Karten ist die Chance sehr gering dass diese funktionieren, da das Speicheradressen rumgemache des ESX da ein paar Probleme bereitet.

XEN soll da pflegeleichter sein.

Und das würde Ich halt vorher gern wissen, ob meine Karte unterstützt wird.
 
Hallo zusammen,

ich baue mir demnächst einen ESXi auf und stelle mir grad die Frage, wie ich es am besten einrichte.

Geplant habe ich ESXi auf einem USB-Stick zu betreiben. Die VM's und ihre Sys-Partitionen sollen auf einer SSD-Platz finden.
Das sollte an sich ja kein Problem sein, wie ich gelesen habe, oder?

Wo kommen aber die Templates am besten hin? Auf die SSD oder auf den Stick?

Kann man die SSD formatieren, sodass man die eine Partition für ein Win-System nutzen kann (MB-und BIOS-Updates) und den Rest für das ESXi?

Außerdem will ich über eine VM ein ZFS-Storage aufbauen. Macht es da Sinn den ganzen Controller an die VM durchzuschleifen oder jede Platte einzeln als Datastore?

Danke schon mal für die Hilfe. :)
 
Für was brauchst du da Windows?
Du kannst fast jedes erdenkliche Board, was sich von CD/USB Booten lässt, via DOS oder mini Windows/Linux anbooten und die Flashtools da nutzen.
Mal ganz davon ab, wenn du keine Probleme mit dem Board hast, brauchs auch keinem Biosupdate.

Zum Thema Storage. Es gibt die Möglichkeit via RawDeviceMapping die Platten selbst zu mounten in eine VM. Ebenso die Möglichkeit via Passthrough den ganzen Controller durchzureichen.
Wichtig ist, wenn du letzteres machen willst, muss für die Platten (in deinem Fall die SSD) ein zweiter Controller bereit stehen, welcher vom ESXi unterstützt wird und eben die Platten händeln kann. Der durchgereichte Controller ist gänzlich weg vom ESXi.


Ansonsten, das mit der SSD würd ich mir nochmal überlegen ;)
Der Speedvorteil ist wohl zwar recht groß, die Frage ist, ob es sich kostentechnisch lohnt... Vor allem für den Heimgebrauch. Je nach Einsatzzweck und VM Anzahl tuts da der normale HDD Unterbau deutlich kosteneffizienter. Noch dazu, gehen SSDs unter Umständen schneller kaputt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh