ESX / ESXi - Hilfethread

Server schlafen legen sowieso nicht. Dann löse sich von deiner ESXi Geschichte und setze Windows direkt auf der Hardware auf. Ich bin vor längerer Zeit auch von ESXi weg auf reines Windows gewechselt wieder weil es manches einfach einfacher macht - z.B. Strom sparen indem der Server bei Bedarf läuft etc...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Joa, und die ganzen Bastel-VM's kannst du dann immernoch in Virtualbox, VMware Player/Workstation aufsetzen und so den WHS bei Bedarf auch noch pennen schicken, von der ganzen Controllerproblematik mal abgesehen.
 
Hallo,
bei mir kommt diese Woche ein Päckchen mit einem HP N54L. Darauf möchte ich gern ein ESXi mit einem Windows Server 2012 und einem Debian oder Ubuntu Server laufen lassen. Nun stellen sich mir drei Fragen:

2. Macht ein ESXi ohne ein RAID sinn?

Danke schonmal :wink:


Bloß keinen Server (und schon gar keine Virtualisierung) ohne RAID betreiben. Bzw. auch bloß keine reinen RAID0 Lösungen. Eine Festplatte kann nun mal jederzeit kaputt gehen.


Grüße
 
Bloß keinen Server (und schon gar keine Virtualisierung) ohne RAID betreiben. Bzw. auch bloß keine reinen RAID0 Lösungen. Eine Festplatte kann nun mal jederzeit kaputt gehen.


Grüße

Dafür hat man ja sein Backup :)
 
Klar, wenn man die Zeit hat, bei jedem Festplattenversagen ein Backup einzuspielen, das wohlmöglich noch ein paar Tage alt ist und unter Umständen sogar einfach garnicht funktioniert hat.
 
Klar, wenn man die Zeit hat, bei jedem Festplattenversagen ein Backup einzuspielen, das wohlmöglich noch ein paar Tage alt ist und unter Umständen sogar einfach garnicht funktioniert hat.

Ein Raid ersetzt aber kein Backup :wink: sondern erhöht nur die Verfügbarkeit. Das sollte einem klar bewusst sein.
 
Natürlich. Keine Sorge, bei mir gibts keine Server ohne Backup. Aber genauso wenig welche ohne Raid. Wenn ich bei jedem System, das einen HDD-Ausfall hat, erstmal ein Backup restoren müsste, wäre ich ganz sicherlich arbeitslos.
 
Neja, ich stimme dir durchaus zu. Nur kann man das eben nicht pauschalisieren. Denn es ist und bleibt eine klare Anforderungssache... Und sooo extrem häufig fallen die HDDs nun auch nicht aus ;) Speziell wenn man wie hier über private Systeme spricht. Also quasi nix an Anforderungen von extern dran hängt, sondern die jeweilige Person das absolut und vollständig selbst definieren muss.
 
Alles klar, dann sind wir uns einig.
Privat hatte ich auch schon seit bestimmt vier Jahren keine HDD-Ausfall mehr, beruflich geht aber kaum ein Monat oder Hotswap-Plattentausch zuende. Ist ja zum Glück recht schmerzlos.
Apropos, gibt es eine Möglichkeit, einem ESXi 5.1 zu sagen, dass es bei einer Statusänderung der System-Sensoren selbsttätig eine Mail verschickt? Ein Skript würde mir völlig ausreichen.
Bzw. wo legt ESXi diese Sensordaten ab? Dann kann man sich vielleicht selbst was zusammenschreiben...
 
Wenn du ein VCenter verwendest, dann geht das damit... Wenn nicht, wirds schwerer...
Man könnte einerseits die Sensoren via PowerCLI abfragen, was aber umständlich ist. Oder alternativ ganz simpel das Tool "Veeam Monitor" nutzen. Denn das kann genau das auch. Kost nix (Freeware) und schickt Mails, wenn man das möchte.
Wichtig ist aber, die Platten bzw. allgemein die Komponenten müssen natürlich im Sensormenü der ESXi Hosts zu sehen sein, sonst wird das alles nix ;)
 
Klar, die Platten sind drin und nen vCenter habe ich in den wichtigsten Fällen auch. Jedoch nur die "kleinste" Version (Essentials? ). Reicht das?
 
Normal ja... Wobei ich nie die Essential VCenter Version gesehen habe :fresse: Aber da dürfte es potentiell keine Unterschiede geben...

Einfach in der Hosts und Cluster View ganz oben auf den VCenter Server klicken und dann beim Tab Alarme -> Definitionen die gewünschten Sachen ändern bzw. hinzufügen. -> Mailalamierung ist dort dann kein Problem.
Man muss halt nur wissen, wie die Alarmmeldungen sich schimpfen...
 
@delicious_cake & fdsonne
Also ich stimme da schon delicious_cake sehr zu. Wenn ich in einem Produktivserver kein RAID betreibe und mich dann auf das Backup berufe im Falle eines HDD-Defekts wäre das fatal.

Ein RAID tut ja keinem weh...die Mehrkosten für eine zusätzliche HDD halten sich ja gerade im Consumer-Bereich sehr in Grenzen so dass man das schon pauschal als Anforderung sehen kann.

Oder sagen wir es mal so: In der Praxis betreibt so gut wie niemand ein virtualisiertes System ohne entsprechende RAID-Config darunter. Selbst im privaten Umfeld.
 
Zuletzt bearbeitet:
aber das hat nix mit macht man oder macht man nicht zu tun. Sondern es definieren einzig und allein die Anforderungen an die Verfügbarkeit die Entscheidung ob Raid oder nicht. Und viel besser noch, um so höher die Verfügbarkeiten, desto mehr macht man sich auch Gedanken, was noch so alles dazu kommt. (Raidlevel mit doppelter Redundanz, Sparedisks -> hot oder cold usw.)
Mit einem simplen -> das macht man nicht ist es da nicht getan. Für sehr sehr viele Anwendungen tuts nämlich auch die non Raid lösung. Speziell auf ESXi bezogen. Denn da ist es nicht die zweite HDD, die ins Geld geht, sondern viel eher der benötigte Raidcontroller, der von der Hardware unterstützt werden muss...
Und hier kost dich ein halbwegs anständiges Modell mit mindestens 4 Ports, Cache, eigene XOR Einheit und BBU mal locker flockig 300€+ neu... ;)
Bei Gesamtkosten für die Kiste von 300-400€ im ganzen wären das fast 100% Aufpreis!

Und wenn es einzig danach geht, müssten sogut wie alle PCs minimum Raid 1 betreiben ;) Denn die zweite HDD tut ja keinem weh... Macht man aber idR nicht.

Übrigens, ein Großteil der privat betriebenen ESXi dürfte denke ich durchaus nichtmal 24/7 laufen... Und hier stellt sich dann ebenso die Frage nach der Verfügbarkeit... Ist ne HDD mal um, dann geht die Büchse halt nicht. Aber wenn die Kiste aus ist, tut auch der HDD Defekt nicht weh -> da sowieso nicht verfügbar.

Das größte Problem was ich dabei aber sehe, die privaten Personen können idR nicht 100% zielführend ihre Anforderungen definieren. Denn wenn es dann wirklich mal knallt, ist idR das gehäule groß! Nur wer halt am Anfang spart und die günstigste Version nimmt, der braucht denke ich hinterher auch nicht meckern, wenn die Büchse eben doch mal nicht verfügbar ist. Denn ein Maximum an möglicher Verfügbarkeit gibts nunmal nicht für 300-400€ :fresse:
 
Bei uns wird da alles 2-3 mal abgesichert in der Firma (Netapp ,Snapshots + Festplattenbackup + Band) meine Antwort bezog sich da alleine auf Private ESXi. Wenn würde ich da eher zu Raid 10 greifen um mehr Performance rauszuholen.

Einfach Windows Templates anlegen und zur Not die Test VMs neu erstellen habe eh kein Technet Abo (wollte mir eigentlich eins besorgen aber es gibt ja bald keins mehr) deswegen benutze ich zum testen die 180 Tage Versionen.
 
Zuletzt bearbeitet:
Und wenn es einzig danach geht, müssten sogut wie alle PCs minimum Raid 1 betreiben ;) Denn die zweite HDD tut ja keinem weh... Macht man aber idR nicht.

Das wäre ohnehin ein wünschenswertes Szenario :)

Ich gebe dir auch Recht, aber in welchen Fällen macht in einer virtualisierten Umgebung nicht mind. ein simples RAID1 keinen Sinn?!

Wie dem auch sei, ist eine generelle Empfehlung für Speicherredundanz in einer (virtualisierten-) Serverumgebung quasi nie verkehrt. Andersherum ist es aber quasi ein no-go auf Redundanz im gewerblichen Umfeld zu verzichten.

VG
 
Na überall dort, wo die Verfügbarkeit nicht benötigt ist und man eben aufgrund der weniger benötigten Verfügbarkeit auch einen Vorteil in Sachen Finanzen einstreicht ;)
Spontan fallen mir da alle Arten von Testumgebungen ein, genau so wie hochverfügbarkeits Clustersysteme oder ähnliches. Also dort, wo es verschmerzbar ist, wenn ein Node aussteigt.

Wir halten das mittlerweile ähnlich bei uns, zwar nicht primär auf das Raid bezogen, aber wir fahren mehrfach vollredundante Systeme und verzichten zum Teil auf hohe Servicelevel beim Hersteller, weil es eben verschmerzbar ist, wenn der ein oder andere Node aussteigt.
 
Hey!

Ich noch mal. Ich würde gerne privat einen kleinen ESXi-Server betreiben. Das ganze soll vorrangig ein Übungs- und Testsystem sein und später ein paar private Dienste hosten. Hohe Verfügbarkeit ist nicht benötigt.


Die Frage ist, wie viel Power die Kiste braucht, ich kann das schlecht einschätzen, da im privaten Umfeld die meisten VMs meistens nur idlen sollten.
  • eventuell: IP-Cop (ich habe noch eine kleine VPN-Box mit X86, welche ich umfunktionieren will zum IP-Cop Router)
  • eine Linux-VM: FTP-Dienste, Webserver
  • eine VM mit Freenas / Linux für SMB-Dienste
  • ein Windows-Terminalserver
  • ein Windows-DC
  • ein Windows-Exchange
  • eine VM mit Linux / Win7 für Spielerreien
Meine aktuelle Planung sieht einen 4C/4T Haswell mit mindestens 24 GB Ram vor sowie eine SSD für die Images. Reicht das für private Zwecke oder erwartet mich da ein System, welches auf jede Eingabe mit einer mehrminütigen Wartezeit reagiert?
 
Je nach Anforderung an den Terminalserver sowie Postfächer im Exchange könnten 24GB durchaus eng werden. Dir sollte bewusst sein, das die S1155/1150 Xeons nur maximal 32GB RAM fressen. Das heist, mehr ist nicht. Kalkulierst du also heute bis ans 32GB Limit, stehst du eventuell morgen schon vor einem Problem.
Leider ist es aber mit mehr RAM allein nicht getan, denn der ESXi verdaut in der Freeversion auch nur maximal 32GB RAM. Mehr ist nur mit Lizenz... Was sich aber durchaus anbieten würde, wenn man die kleinen Essential-Pakete nutzt. Vorteil ist auch, da gibts dann eine VCenter Lizenz zu und man könnte potentiell bis zu drei Hosts in das Cluster einbinden usw.

Ansonsten, die CPU dürfte mehr als ausreichend sein, kommt aber auch drauf an, was der Terminalserver alles zu tun bekommt. Die anderen Dienste dürften wie du schon sagtest, den übergroßen Anteil pro Tag mehr oder weniger nur idlen.

Thema Storage, also SSD ist zwar gut, aber in meinen Augen als Singledrive etwas kontraproduktiv. Dazu kommt, der ESXi unterstützt soweit ich weis kein TRIM. Was dir potentiell in die Suppe spucken könnte.

Unterm Strich ist das alles eine Frage deines Geldbeutels. Aktuell gibts sehr sehr günstig nen HP ProLiant ML310e Gen8 für unter 400€ zu haben. 3,1GHz Xeon Quad auf Ivy Basis (nicht nennenswert langsamer als Haswell, auf nicht nennenswert anders im Verbrauch) als CPU, dazu nen OnBoard Raidcontroller, der ESXi tauglich ist (auch im Raidbetrieb) und zwei ESXi supported 1GBit/sec NICs.
Darein bräuchte man eigentlich nur günstig 4x8GB ECC Module nachschieben... Und wenn gewollt, nen dedizierten Raidcontroller mit Cache, XOR Unit und BBU.
 
Also da das ganze als Übungsstation / Homeserver gedacht ist, sollte es so billig und sparsam wie möglich sein.

Ich schwanke momentan zwischen:
1) Haswell-i5 (VT-D), Consumermainboard (auch VT-D fähig) sowie 16 GB Ram (kostet mich ca. 330 Euro, + 8 GB Ram die noch rumliegen).
2) Ivy-Bridge-i7 (VT-D, HT), Consumermainboard (VT-D fähig) sowie 16 GB Ram (kostet mich ca. 390 Euro + 8 GB Ram die noch rumliegen).
3) Haswell-Xeon (VT-D, HT), Supermicro C222 Mainboard, 32 GB ECC, Sapphire Radeon HD 5459 (kostet mich ca. 630 Euro).


Was würdest du als Storage vorschlagen, was genug Geschwindigkeit mitbringt für die VMs, kühl, leise und stromsparend ist, wenn nicht eine SSD? Sind SSDs ohne Trim so maßlos überfordert? Ich war fest davon ausgegangen, dass die GC bei modernen SSDs ähnlich effektiv arbeiten.

Der Terminalserver wird vermutlich nicht viel benutzt werden, ich habe schon überlegt den raus zu schmeißen. Wenn, dann wird der nur per VPN genutzt um daheim zu arbeiten. An sich sinnlos bei meinem Vorhaben.
Ich weiß auch gar nicht, wie viele Microsoft-Lizenzen mir zur Verfügung stehen - von daher fällt der eventuell eh hinten rüber (Dreamspark bzw. 2x Dreamspark).



Manchmal habe ich das Gefühl, ich sollte direkt auf Hyper-V setzen, da wird viel mehr Hardware unterstützt. Aber ich will im Umgang mit ESXi sicherer werden, daher steht das leider nicht zur Debatte....
 
Wie sich die SSD verhalten wird, kann ich persönlich nicht einschätzen... Dennoch sollte man die Fakten halt nicht außer Beachtung lassen. Faktisch hast du wohl mit ner SSD die beste Performance, das dürfte wohl auf der Hand liegen...
Die Frage ist aber, ob du für das gleiche Geld nicht in Sachen HDDs etwas mehr bekommst. Bei der SSD müsste man dann auch minimum mit 256GB anfangen, eher mehr...
Mit 128GB Modellen kommt man da wohl nicht weit, in Anbetracht der Tatsache, das die Windows OS Partition mit ~40GB kalkuliert wird.
Dazu die Datenpartitions...
Und der Linux SMB Server? Wo holt der die Daten her, bzw. um wie viele Daten reden wir hier?

Zu deinen Preisen, man sollte nicht vergessen, das da noch andere Sachen zuzählen, oder hast du das alles zur Hand?
Weil die NICs müssen unterstützt werden -> was im Problemfall 20€ für ne Intel PCIe 1GBit NIC bedeutet. Ebenso der Storagecontroller... Da weis ich nicht, wie es mit Haswell ausschaut aktuell.
NT kommt noch hinzu und ein Gehäuse sollte auch da sein...

Die letzte Lösung mit der dedizierten GPU würde ich nicht nutzen, auch wenn die Karte vllt um die 5-10W im idle verbraucht, aber das ist unnötig rausgeschmissenes Geld beim Verbrauch.


Thema ESXi oder Hyper-V, das ist ansichtssache. Aber ich sag mal so, wenn du im Umgang mit ESXi besser werden willst, dann bringt dir die freie Version nix, denn die kann schlicht nix außer ein paar VMs bereit stellen. Darin kann man eigentlich keinen Umgang erlernen, da es selbsterklärend ist. Viel interessanter und vor allem anspruchsvoller ist das ganze Thema VCenter sowie das Thema Clustering im VM Umfeld. ;)
 
Ja ich weiß, aber ein VCenter-Server steht erst mal nicht zur Debatte. Ich will mich ebenso mit Windows DCs und etwas Exchange auseinander setzten. Und da wir bei allen Kunden auf ESXi setzen fällt die Wahl des Hypervisor leicht.

Ich tendiere aktuell zur Version mit der Ivy-Bridge CPU. Ein Mainboard werde ich mir nach Forenberichten suchen, vielleicht findet sich da etwas, was voll unterstützt ist.



Zur Festplatte:
Wie weit komme ich denn wohl, mit einer 7200er HDD? Ich hätte noch eine 24/7 500 GB Platte hier. Wenn die Systeme erst mal oben sind sollte die das packen?
Oder 2 2,5 Zoll 7200er HDDs im Raid-0 (ungerne, die Verfügbarkeit senken wollte ich nach Möglichkeit nicht :fresse:)? Skaliert die Performance mit Raid-0? Normale Betriebssysteme profitieren fast ausschließlich über die Zugriffszeiten...
 
Und VMs noch viel mehr, weil noch mehr Random Access vorhanden ist...
Raid0 macht 0 Sinn ;)

Aber man bekommt mit mehreren HDDs eben den Vorteil, dass die Belastung gesplittet wird. Ansonsten lassen sich solche Storagefragen idR schlecht vorhersagen, denn es hängt massivst von der Belastung ab, wann das Storage in die Knie geht. Ich sag mal so, man bekommt sogut wie jede Storagelösung klein ;)
Ich würde für so ne Testumgebung wohl mit 2 7,2k HDDs anfangen, ggf. auch 10k Raptor HDDs, die aktuell nicht wirklich teuer sind. Oder halt gleich SSDs, wobei ich da persönlich noch kein Vertrauen habe...
 
4-5 VMs von nem 7.2k RAID 1 geht schon einigermaßen, man darf halt keine Wunder erwarten und sollte z.B. nicht auf die Idee kommen überall gleichzeitig Windowsupdates oder irgendwas anderes installieren und gleichzeitig noch nennenswert damit arbeiten zu wollen.

Ich hab mir 2 RAID 1 Verbünde mit 7.2k Platten aufgesetzt, einer mit 80 GB Platten die richtig lahm sind und einen mit 500 GB Platten die auch nicht Bombe sind und man kann's aushalten aber toll ist es halt nicht.

Aber wie fdsonne schon sagte, es ist einfach sehr schwer abzuschätzen weil die Anforderungen von jedem System anders sind, und bei der Virtualisierung sprechen wir ja gleich von mehreren Systemen die da parallel laufen, da geht die Schere umso weiter auseinander.
Wenn ich das System nicht sowieso mit den Platten günstig gebraucht bekommen hätte dann hätte ich unter 10k HDDs gar nicht erst zum überlegen angefangen.
 
Wenn du noch Platz am LSI hast häng die Platten da ran und machs wie oben beschrieben mit RDM - sonst hilft alles nix.

Wenn ich das RDM für meine Fileserver-VM erzeuge, wird dabei der Inhalt des Arrays gelöscht? Oder kann ich mein aktuell ziemlich volles Array einfach nachträglich dadurch in die Ziel-VM mappen?
 
Wenn du noch Platz am LSI hast häng die Platten da ran und machs wie oben beschrieben mit RDM - sonst hilft alles nix.

Wie mach ich das denn mit RDM bei lokalem Storage? Der Punkt für Raw Device Mapping ist ausgegraut wenn ich versuche, eine neue HDD zu der Fileserver-VM hinzuzufügen *kopfkratz*
 
Hi

ich hätte mal ein paar Fragen - die mir die Profis sicher kurz beantworten können :)

Erst mal hätte ich eine Frage zu einer Konfiguration. Auf jedem der installierten hosts ist jeweils der Speicherpfad 2x erreichbar.
1x über direkt 10 GBit - und einmal über Backup 2 GBbit.

Ist es so, dass die Unterscheidung welchen "weg" er zum Storage nehmen soll nur in den Volume Eigenschaften zu sehen ist?
volume-eigenschaften.jpg



Sonst habe ich nämlich seit kurzem auch am Storage etwas Performance Probleme, die
sich so z.b. in zwei esxi hosts zeigen:

esxi2.jpg

esxi1.jpg

Jeder der beiden esxi hosts verfügt über 2x 10 gbit nic, welche mit 2 Storages verbunden ist. Die Storages syncen selbstständig die LUN/das Volume.

Hat jemand vergleichswerte? Mir kommen die Werte aber mal richtig schlecht vor :(

Ich habe auf einem der Server auch mal CrystalDisk Mark laufen lassen - unter 100 mb/s :(
Das Log der Sans ist sauber - kein einziger Fehler.

Wie würdet ihr die Perfoamance checken? Das "Bottleneck" suchen?!
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh