Home ESXi

D€NNIS

Pharao
Thread Starter
Mitglied seit
25.12.2003
Beiträge
4.098
Hallo euch,

ich möchte mir in nächster Zeit, primär zur eigenen Weiterbildung einen kleinen ESXi Server zulegen.
Da es hier im Forum haufenweise Leute mit reichlich Erfahrung und KnowHow im Umgang mit ESXi gibt, ist das natürlich auch für mich die erste Adresse meine Fragen loszuwerden.

Ich bin leider bisher beruflich noch nie mit ESXi in Kontakt gekommen deswegen würde ich das jetzt gerne im privaten Rahmen nachholen.
Dabei suche ich vor allem nach einer günstigen Lösung um erstmal ein paar Ideen zu verwirklichen und sich mit ESXi näher befassen zu können.

Xeon E3 in Verbindung mit einem Supermicro Board (C2xx Chipset) zzgl. ECC RAM ist mir im Augenblick etwas zu kostspielig.
Primär soll auf dem ESXi eine VM mit PfSense laufen, für ein bisschen NAT von 2-3 Clients im lokalen Netzwerk und OpenVPN.
Zusätzlich eine FreeNAS VM die Space für unterschiedliche Mediendaten bereitstellt und von der aus mein HTPC Content "streamen" können soll.
Dann eventuell noch eine VM um neue Betriebssysteme zu evaluieren.

Ich dachte selbst schon an den N40L Microserver von HP bin aber etwas skeptisch ob die Hardware in ESXi nicht doch eher zu schwachbrüstig ist, selbst für meine moderaten Anforderungen.
Gibt es ansonsten Alternativen für ein kleines komptaktes und günstiges ESXi Setup?

Danke für eure Tipüs und Ratschläge schonmal vorab.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hi,

also ich habe den HP N40L mit esxi am Laufen und dort ständig drei VMS am Laufen
- Firewall (Astaro)
- DLNA - Server (weiß nicht mehr ;-) )
- Musik (Ampache) + Test - Server

Alle drei auf Linux-Basis ohne GUI.

Hier und da starte ich noch nebenbei ein WinXP oder auch mal einen Win2008R2 Server. RAM habe ich 2x4GB verbaut, HDD die Standard 250GB + Verbindung zum NAS.


Auch wenn die 4. VM (WinXP) läuft ist das alles noch voll ok von der Performance. Allerdings lasse ich nun auch keine CPU intensiven Sachen laufen ;-)
Ist auf jeden Fall ein günstiger Einstieg in die Thematik, viel günstiger wird es wohl nicht denke ich ;)
 
Die Frage ist eher, wie stellst du dir das mit dem Storage vor... Wenn du dort irgendwie Routersachen usw. drauf laufen lassen willst, sollte es ja schon 24/7 sein, richtig?

Wenn ja, dann wäre zumindest drüber nachzudenken, wie du die HDDs redundant bekommst. Ne HDD fliegt dir schnell mal weg. Alternativ, sofern vorhanden irgendwie ein externes NAS via iSCSI/NFS an den ESXi anklemmen.

Wenn es günstig sein soll, wäre beispielsweise ein Core2Duo System für mich erste Anlaufstelle. Gebraucht bekommst du sowas für um die 100-150€ maximal. Leider bleibt ein kleiner Nachteil in Form der bestückbaren RAM Menge (4x2GB DDR2, maximal 4x4GB DDR2 möglich). Wenn es neu sein soll, dann irgendwas auf Sandy/Ivy Basis im S1155 (16GB RAM, maximal 32GB möglich)
Bei AMD musst du stark schauen, zumindest im Desktop Segment. Die RAM Einschränkungen bleiben aber identisch.
Ein gebrauchtes S1366 System wäre noch drin (DDR3 RAM 6x4GB bezahlbar, 6x8GB maximal). S2011 wäre wohl zu teuer, genau so wie irgendwelche Dual CPU Geschichten.

Willst du es weiterhin günstig als Spielwiese, wirst du wohl auf VT-d verzichten und ggf. auf nen Raidcontroller, welcher unterstützt wird. Damit fällt das durchreichen der Hardware erstmal flach, genau so redundante HDDs (es sei denn du nutzt ein externes NAS mit Redundanz)


PS: eine pauschale Empfehlung ist ziemlich schwierig und auch unnötig, du musst da schon etwas mehr ins Detail gehen. Speziell, was darf es kosten, was stellst du dir in Summe vor usw.
 
Ich betreibe @work einen ESXi als Spielwiese auf einem Core2Quad Q9450 mit 8 GB RAM und 4 Einzelplatten das geht ganz gut und ist für den von dir grob geschilderten Umfang prinzipiell ausreichend aber gerade was das Storage-Thema angeht muss ich mich ganz klar fdsonne anschließen, da musst du klar definieren was vor allem die FreeNAS Geschichte betrifft.
Und auch fürs VMStorage ist IMHO RAID auf jeden Fall mal zu überlegen, ne Platte ist schnell hin.

Das Problem beim ESXi und RAID für die VMs ist halt dass du nen Controller brauchst den der ESXi auch kennt, die Onboard RAID Lösungen greifen hier idr. nicht.
 
Der ESXi Server soll bei uns zuhause tatsächlich 24/7 laufen.
Umso eher hab ich natürlich ein Augenmerk auf den Energieverbrauch und auch wenn ich weiß das es grundsätzlich die Konfiguration etwas erschwert so
ist vorrangig wichtig, das der Energieverbrauch möglichst gering ausfällt auch wenn ich dabei Zugeständnise an gewisse ESXi Funktionen hinnehmen muss.

Im Fokus steht ganz klar PfSense. Anfänglich sah mein Vorhaben so aus ein kleines Atom ITX System anzuschaffen und darauf vorwiegend PfSense laufen zu lassen.
Da ich, wie ihr sicherlich auch, gerne neue Sachen ausprobiere war halt der Gedanke, PfSense als VM auf ESXi laufen zu lassen und gleichzeitig auf derselben physischen Hardware
etwaige andere Dinge zum testen, je nach Bedarf. Das Ganze macht natürlich nur dann Sinn, wenn die ESXi Kiste nicht mehr Saft zieht als beispielsweise ein
"dedicated Router" aus Atom Hardware + einer weiteren Kiste für die o.g Testzwecke.

Für den privaten Einsatz verzichte ich da gerne auf Redundanz zugunsten geringer Anschaffungskosten und geringem Energieverbauch.
Deswegen ist mir der Microserver ins Auge gefallen nur hatte ich bei dem Gerät dann tatsächlich Performancebedenken.
Ich suche halt für mich privat nach einem brauchbaren Kompromiss tendenziell ist mir der kompakte Aufbau und der nun von mir viel zu oft erwähnte geringe Energieverbrauch ;) aber wichtiger soweit mit ESXi möglich.
 
Zuletzt bearbeitet:
Mit halbwegs neuer Hardware (S1155) geht das mit dem Verbrauch schon, ich denke mal, komplett idle wirst du bei ordentlichen Komponenten auf vllt 40W kommen. Das Problem ist aber natürlich die Auslastung. So ne kleine Stromspar dedizierte Routerkiste kommt sicher auf weniger Verbrauch. Dafür macht sie dann aber auch nix anderes. Wenn du dann ncoh ein paar VMs 24/7 aktiv hast, die hin und wieder mal auf die CPU und das Storage gehen, kann der durchschnittliche Verbrauch über den Tag schon bei 60-80W liegen. Da interessieren weder komplette idle Werte noch Volllastwerte. Sondern eben die Teillast im Schnitt. (was schwieriger zu messen ist)

Nen einfachen ESXi ohne Raid und ohne Redundanzen bekommst du gebraucht für nen hunderter. Irgend was mit Intel, Dualcore sollte für den Anfang dicke langen, eine 7,2K HDD hinten dran und los gehts. Wahlweise noch ne Intel NIC dazu, wenn die OnBoard nicht geht und schon hast du ne Kiste mit um die 40-60W verbrauch.
Willst du HDD Redundanzen brauch es nem unterstüzten Raidcontroller. Oder du bastelst dir was in Form ner Storage VM (dafür dann aber VT-d benötigt) Beides lohnt da in meinen Augen fast schon nicht mehr irgendwie hinzubiegen. Da könnte man dann gleich ein SM Brett für S1155 und nen Xeon nutzen. Inkl. ECC RAM ;)
 
Wichtig wäre mir halt das die ganze Sache möglichst kompakt und ohne große Geräuschkulisse umgesetzt werden kann.
Ich hab leider nicht die Möglichkeit die Hardware in den Keller auszurangieren obwohl das natürlich optimal wäre.

Richtig, Du sagst es bereits selbst und das ist auch meine Ansicht entweder der günstige Einstieg oder halt (semi-)profesionell umgesetzt mit Supermicro und ggf. einem Xeon E3 auf IvyBridge Basis (v2)
Momentan würde ich da aber lieber erstmal kleine Brötchen backen. Was ist denn ganz konkret vom HP Microserver als ESXi zu halten bzw. zu erwarten?

Dank Cyrell hab ich ja schon ein kleines Feedback dazu bekommen. Denn das Teil ist eigentlich ideal da komptakt günstig und moderat im Energierverbrauch.
Das Teil könnte ich auch im Haus einsetzen wo ich eigentlich in jedem Raum Cat7 Kabel auf Cat6A Unterputzdose doppelt und dreifach liegen hab.
 
Also meine Erfahrung mit dem N40L ist durchwachsen... Ich hatte das Teil mit ESXi laufen, mir wars für die beiden VMs zu lahm - und die machen nicht wirklich was eigentlich... Ist aber schwer zu sagen wie das für dich wäre. Ich bin froh, dass ich meinen wieder schnell und ohne Verlust losgeworden bin...
 
Ich würd auch unterm Q9450 nicht anfangen wollen, das Hauptproblem ist dann halt dass einem bei 8 GB relativ schnell der RAM aus geht, die dicksten Core2 Kisten kann man mit 16 GB bestücken (P45) damit ist dann schon was anzufangen wobei man auch mit 8 GB schon halbwegs was packt.
Man darf halt nicht vergessen dass die Platten performancemäßig auch durchaus gefragt sind, einfach nur eine dicke Platte rein und VMs drauf bis kein Platz mehr ist is nicht.
 
Die CPU in der HP Büchse ist halt lahm ohne Ende... Das ist sowas wie der Atom von Intel, für ein NAS oder mal hier ne kleine Serveraufgabe zwar oft ausreichend fix. Aber keinesfalls wirklich performant.

Ein Quadcore muss es in meinen Augen nicht unbedingt sein für den Einstieg. Denn auch dei S775 Quads kosten schon noch gut was. Wenn man denn nicht die abgespeckten ohne Cache nimmt. (was ich nicht empfehlen würde). Ein ordentlicher Dualcore bringt einen da aber auch ziemlich weit vorran. Ich betreibe meinen E5500 mit Standardtakt, aber erhöhtem FSB für mehr RAM Speed und scharfen Timings. Das geht ganz ordentlich. Da laufen ein SBS 2011, zwei 2003 Server, ne XP Maschine, ne Nortel SSL Gateway Appliance, ne Astaro und ein OpenSuSE 11 drauf. Die CPU Last ist im Schnitt bei unter 30% über den Tag gesehen.
Für ein zwei Linux VMs und mal ne XP Test VM sollten die 8GB aber schon langen. Und der Dualcore denke ich sowieso...
 
Vor allem können die Atom-Teile auch nicht mit besonders viel RAM, ich weiß nicht wie's da bei der AMD Plattform aussieht.
 
Völlig klar, RAM wird eher der limitierende Faktor sein als CPU Power bei dem was ich plane mit ESXi umzusetzen.
Ich hätte zwar noch n Wolfdale hier rumfliegen aber ich würde dann fast dazu übergehen, mir eher einen kleinen Sandy Bridge i3, möglicherweise
einen i3 2120T zu besorgen. Ich hätte das Ganze halt wirklich sehr gerne kompakt zumindest in der Größenordnung eines HP Microservers.
Im LianLi Q08 würde mir sowas zwar gut gefallen aber auf der anderen Seite würde ich bei einer Neuanschaffung dann doch eher
gängige ESXi Hardware "ordern", sprich die erwähnte Supermicro Variante mit einem der aktuellen Ivy E3 Xeons.

Gut, der HP Microserver ist damit vom Tisch und Atom stand eigentlich nicht ernsthaft zur Debatte, zumindest nicht für ESXi.
Für gebrauchte Hardware wäre ich auch empfänglich es sollten aber keine Racksysteme sein.
Ich werf mal einen Blick in die Bucht.

Da ich noch nicht wirklich viel von ESXi verstehe mal was Grundsätzliches:

- ESXi kann grundsätzlich ohne Probleme auf einem kleinen USB Stick installiert werden.
- Der SATA Controller des Mobo Chipsets könnte per VT-d durchgereicht werden (sofern supported) und ich hätte damit quasi native I/O Performance, korrekt?
- Der durchgereichte Controller ist nur für eine VM verwendbar also müsste ich noch Storage für die VMs selbst bereitstellen, ist auch das korrekt?

Wie ist die I/O Performance grundsätzlich einzuschätzen wenn ich nicht "durchreiche" gibt es da Benchmarks oder irghendwelche Erfahrungswerte?
 
Zuletzt bearbeitet:
Die drei von dir angemerkten Punkte stimmen soweit (USB, durchreichen und Storage für vm)

Passende ESXi Server Hardware hab ich wie gesagt gebraucht im Verkaufsthread - Preis ist VHB ;)
 
Ok, dann würde mich mal wirklich sehr interessieren was im üblichen ESXi Umfeld als "common-practice" anzusehen ist.

Wenn ich nativ nur an eine VM durchreichen kann, ist es dann Usus das für gewöhnlich eine Storage VM aufgesetzt wird die als
Datenspeicher für wiederrum andere VMs herhält?
Mal angenommen ich habe 2 Raid Controller die von ESXi unterstützt werden oder auch einfache HBAs kann ich dann auch beide durchreichen oder ist es
eine technische Einschränkung in VT-d das dies nur einmalig möglich ist?

Werden die VMs selber dann im Regelfall extern gespeichert und über NFS iSCSI oder eben über ein SAN angebunden?
 
Zuletzt bearbeitet:
Das mit dem durchreichen und dann wieder einbinden ist bei den ZFS Geschichten so - napp-it o.ä.

Wenn du allerdings richtige Raid-Controller nimmst ist das imho nicht nötig - du hast ja dann schon ein Raid. Bei nem HBA sieht das dann schon anders aus. Alternativ gibts auch RDM (Raw Device Mappings) - da reichst du dann nicht den Controller durch sondern nur HDDs/Arrays - so kannst du auch mit einem Raidcontroller an verschiedene VMs durchmappen ohne den per VT/d auszublenden.

Ich hatte ne Faxkarte, einen Raidcontroller, den Onboard-SATA und nen USB Controller durchgereicht an eine VM, das sollte also nicht das Problem sein eigentlich.

Bzgl. externen Speicherung: Kommt auf die Umgebung an und wieviel man ausgeben will. Im alten Job haben wir insgesamt ~50 ESXi gehabt (20 an Standort 1, 15 an Standort 2, der rest Paarweise verteilt) und kein Zentrales Storage. Im neuen Job sinds 4 ESXi mit ner dicken Netapp... Zuhause als Spielwiese reicht imho normaler lokaler Storage
 
D€NNIS;19058717 schrieb:
Ok, dann würde mich mal wirklich sehr interessieren was im üblichen ESXi Umfeld als "common-practice" anzusehen ist.

Wenn ich nativ nur an eine VM durchreichen kann, ist es dann Usus das für gewöhnlich eine Storage VM aufgesetzt wird die als
Datenspeicher für wiederrum andere VMs herhält?

Im Grunde ist das durchreichen wenig professionel. Zumindest das Durchreichen eines Storage Controllers und das Betreiben einer Storage VM. Im Profiumfeld setzt man dann eher auf externe NAS Systeme, welche via NFS/iSCSI oder FC angebunden sind. Da diese im Clusterbetrieb auch shared Zugriff zulassen müssen und beim Ausfall eines Hosts dazu auch weiter laufen müssen.

Im privaten Umfeld kann man mit VT-d da schon eher was anfangen, es ist halt etwas gebastel, gerade mit der Storage VM.

Zum Thema Performance. Im Grunde kann man das eher auch vernachlässigen. Das Problem ist halt, je nach Storage Ausbau verliert man so oder so immer etwas Performance. Nutzt zu beispielsweise eine einzige HDD für eine einzige VM, hast du ohne VT-d schon nahezu nativen Speed der HDD, wenn der Storagecontroller halbwegs ordentlich unterstützt wird.
Ob sich das gebastel mit ner Storage VM und VT-d für einen selbst lohnt, muss man dann eben wissen. Vorteil ist auf jedenfall, das man ohne großen Geldeinsatz (Hardware Raidcontroller) HDD Redundanzen hinbekommt.

Es wäre beispielsweise auch denkbar die HDDs ohne Raid anzuklemmen, und ohne VT-d eine Storage VM zu betreiben, welche einfach normal dann ein paar VMDK HDD Container als Datenbasis nutzt. Beim Ausfall einer der HDDs geht es dann genau so weiter. Das Problem ist, fällt die HDD aus, wo die VM selbst drauf liegt, so steht das ganze System. Aber dieses Problem hat man mit der VT-d Lösung genau so.
 
Im Profiumfeld setzt man dann eher auf externe NAS Systeme, welche via NFS/iSCSI oder FC angebunden sind.

Wie verhält es sich denn mit FibreChannel Storage im virtualisierten Betrieb, hast Du da Erfahrungen?
Für shared Zugriff auf einen FC Storage der nicht direct attached ist sondern über eine fabric angebunden ist braucht es ja normalerweise
spezielle Filesysteme die mit Metadatencontrollern den Zugriff verwalten und regulieren. (z.B XSan oder MetaSAN)
Verhält sich das anders wenn der FC Storage zwar auf lediglich einem physischen Server läuft aber mehrere virtuelle Maschinen auf diesem physischen Server den
gleichzeitigen Zugriff aufs FC Storage benötigen?

Vorteil ist auf jedenfall, das man ohne großen Geldeinsatz (Hardware Raidcontroller) HDD Redundanzen hinbekommt.

Du sprichst vermutlich davon als Storage VM ein ZFS System aufzusetzen um Redundanzen losgelöst von Hardware Raids zu erzielen, versteh ich das richtig?
 
Zuletzt bearbeitet:
D€NNIS;19061264 schrieb:
Wie verhält es sich denn mit FibreChannel Storage im virtualisierten Betrieb, hast Du da Erfahrungen?
Für shared Zugriff auf einen FC Storage der nicht direct attached ist sondern über eine fabric angebunden ist braucht es ja normalerweise
spezielle Filesysteme die mit Metadatencontrollern den Zugriff verwalten und regulieren. (z.B XSan oder MetaSAN)
Verhält sich das anders wenn der FC Storage zwar auf lediglich einem physischen Server läuft aber mehrere virtuelle Maschinen auf diesem physischen Server den
gleichzeitigen Zugriff aufs FC Storage benötigen?
Die Filesystemverwaltung für die Datastores übernimmt der ESXi vollständig für dich. Da musst du gar nix machen, außer eben den Hosts selbst den Read/Write Zugriff auf die LUNs zu gewähren. Der Rest geschieht vollständig unter der Decke und es gibt auch keine Probleme damit. Zumindest nicht in "normalen" Umgebungen. Ab gewissen Größenordnungen könnte es da schwieriger werden. Aber das ist hier wohl nicht Thema...

Und zum Thema FC, das ist halt etwas komplex, ich bin mir nicht ganz sicher, was man da alles mit Servern machen kann, weil wenn ich FC in den Fingern habe, dann richtig als ordentliches SAN. Aber wie gesagt, wenn man einen Server aufbauen kann, welcher dir das SAN Storage über das Medium FC bereit stellt, sollte es sich nicht anders verhalten.

D€NNIS;19061264 schrieb:
Du sprichst vermutlich davon als Storage VM ein ZFS System aufzusetzen um Redundanzen losgelöst von Hardware Raids zu erzielen, versteh ich da richtig?

Das wäre eine Möglichkeit. Wie gesagt, aber eben mit in meinen Augen viel Bastelarbeit verbunden... Des weiteren schützt dich das System zwar vor Ausfällen des Datastores selbst. Zerlegt es dir aber den Datenspeicher, wo die Storage VM selbst drauf läuft, ist genau so Schicht im Schacht ;)
 
Und zum Thema FC, das ist halt etwas komplex, ich bin mir nicht ganz sicher, was man da alles mit Servern machen kann, weil wenn ich FC in den Fingern habe, dann richtig als ordentliches SAN.

Korrigier mich wenn ich falsch liege aber ich kann mir nicht vorstellen das ESXi simultane (blockbasierte) Schreibzugriffe auf einen FC Storage oder auch iSCSI selbst delegiert.
Was sicher möglich ist das einzelne VMs jeweils immer exklusiven Zugriff auf einen Teil des Gesamtstorage haben diesen dann aber auch voll für sich beanspruchen.
Falls sich das anders verhält wäre das für mich sehr interessant zu wissen, vielleicht kennt sich ja jemand aus.
Aber natürlich hast Du nicht Unrecht in der Praxis findet man per FC angebundene RAIDs ja auch meistens als SAN vor insofern stellt sich das Problem dann ja gar nicht mehr.
 
FC ist blockbasiert. Oder versteh ich dich nicht?
Worauf willst du hinaus?

IdR läuft das dann so, du hast irgendwo ein dickes SAN stehen, welches optimalerweise voll Redundant ausgelegt ist, dann hast du die SAN Verkablung dazu noch voll Redundant über mindestens zwei unabhängige FC Switche und die ESX(i) Hosts hängen mit mindestens jeweils einem "Bein" pro FC Switch am Storage.
Da FC eine Punkt zu Punkt Verbindung ist, kann/könnte man dort dann noch Restriktieren. Die Frage ist, will man das?

Ohne weitere Restriktion sieht dann jeder Host das komplette Storage, führt also ein Host eine VM aus, ist eine Online Migration von Host zu Host als Beispiel ohne Unterbruch möglich, der komplette Systemstate wird übertragen und ab dem Übertragungszeitpunkt übernimmt dann der andere Host die Lese/Schreibarbeiten auf das Storage. Die Bereiche der VMs sind aber soweit mir bekannt in jedemfall immer für den jeweiligen Host reserviert. Du kannst also eigentlich mit einem anderen Host keinen Schadem am Storage anrichten, da dieser zwar Zugriff auf das Storage hat, aber eben die Berechtigungen intern quasi fehlen, wenn man so will.
 
FC ist blockbasiert. Oder versteh ich dich nicht?

Genau, aus dem Grund sind eben konkurrierende Zugriffe auf ein FC Storage von mehreren Hosts aus immer
mit der Notwendigkeit eines SANs verbunden. (SAN in dem Kontext mal synonym für Filesysteme wie MetaSAN oder XSan auch wenn die Bezeichnung
SAN eigentlich eher das Konzept beschreibt)

Die Frage war halt ob sich diese Notwendigkeit bei mehreren VMs in ESXi erübrigt, gesetzt den Fall 2 VMs wollen beispielsweise auf einen Ordner gleichzeitig zugreifen.
Geht mir dabei auch nicht darum inwieweit das praxisrelevant ist (das ist es ehr weniger aus o.g Gründen bzw. Du hast diese bereits angeführt) es geht mir mehr ums Verständnis.
 
Moin,

ich hab hier einen N40L. 8GB ECC RAM, mehr geht ja leider nicht. Zusätzlich eingebaute Intel NIC. ESXI 5.0 läuft von USB Stick. Die 250GB Platte die dabei war, ist oben im ODD Slot eingebaut, darauf Speicher für die virtuellen ESXI Platten.
In den WechselSlots 4x (ältere) 250GB Spinpoint Platten.

Als virtuelle Maschinen laufen:
-Astaro Firewall (2. NIC Karte..)
-Win 2k8 mit Mailserver (grob 5-20 Emails am Tag)
-Freenas
-Testsysteme

Astaro hat reservierte CPU und RAM und läuft normal, würde ich sagen.

Mailserver, hmm ja, also wenn man per Remote drauf geht, könnte es schon noch etwas flüssiger sein. Ich finde es OK, da ich so nur ganz selten darauf zugreifen muss. Was mich da schon eher interessiert ist die Mail-Web-Oberfläche und die läuft ganz gut. Vorher lief das ganze unter Win 2k3 direkt aufm Blech von nem PIII - das war extreeeeem zäh..dagegen flutscht das jetzt richtig..muss ja nichts machen außer paar Mails abrufen, zur Verfügung stellen und sichern. Naja und halt Kontakte, Kalender. Das passt.

FreeNAS. Also hier hört der Spaß irgendwie auf. Die Platten werden über RawDeviceMapping an FreeNAS angebunden. VMDKs auf den Platten und dann an FreeNAS weiterreichen wollte ich nicht/halte ich nicht für sinnvoll. Extra Controller und dann alles weiterreichen wäre schön, aber geht beim N40L dank fehlendem vt-d nicht. (bzw. bei AMD heißt das doch irgendwie anders?). Wenn man so googelt ist es wohl gar nicht so einfach, eine CPU/Mainboard Kombi zu finden, die das unter ESXI auch wirklich kann.
Also Platten per RDM.
Vorteil: Wenn ich den ESXI Stick rausschmeiße und einen FreeNAS Stick anstecke und direkt FreeNAS boote werden (komischerweise immer erst nach dem 2. Booten) die Platten erkannt und alle Pools laufen normal. Sprich, wenn das System sich verabschieden würde und die Platten noch leben würden, könnte ich die auf nem anderen System problemlos weiter betreiben.
Nachteil: SMART läuft scheinbar nicht mehr gescheit. Zumindest schreibt mir FreeNAS keine Mails darüber. In der Konsole komme kann ich aber SMART schon abrufen, glaub aber das geht mit einem anderen Befehl. Etwas seltsam das Ganze. Läuft jedenfalls nicht so wie es sollte. Weit schlimmer ist aber, dass FreeNAS die Platten nicht mehr schlafen legen kann! Privat möchte man das einfach haben, würde ich sagen. Ich greife doch relativ selten aufs FreeNAS zu, hab dadurch aber grob 50W, statt 25-30W dauerhaft (Messungen sind schon länger her, weiß die exakten Werte nicht mehr).
Ich denke das liegt alles an dem RDM und würde per vt-d mit extra Controller richtig laufen.

Noch ein Punkt ist, dass FreeNAS einfach sehr langsam läuft. Ich bekomme per GBit und SMB 5 bis höchsten 35MB/s. Ich müsste noch mal testen, aber ich meine als FreeNAS direkt lief war das locker 2-3x so viel. Hab noch nicht so ganz raus gefunden warum, aber ich glaube hier ist RAM das Problem. Wobei die Performance mit iPerf auch etwas lächerlich ist - naja nicht ganz soo schlimm.

Astaro 1GB reserviert, FreeNAS 6GB, Win2k8 2GB, dann noch bisschen Overhead.., 8GB sind drin, es reicht einfach nicht...vielleicht kann man noch was optimieren, aber es ist schwierig Leute mit ähnlichen Konstellationen zu finden. Weiß nicht so recht was ich noch testen kann, bin zeitlich auch sehr eingespannt..


Ich sehe für mich eine Lösung, indem ich auf dem N40L FreeNAS aufs Blech installiere und einen 2. daneben stelle mit ESXI mit Astaro+Mail+Test - System. Wäre dann aber irgendwie halt auch 40-50W im Idle...
Oder eben ne dicke Kiste mit 16GB RAM vt-d und extra Controller. Und dann würde ich ja schon gerne noch etwas ala WechselSlots vom N40L haben. ESXI soll ja auch gut laufen. kA was man da nehmen kann. Möchte eigentlich keine 500€ ausgeben. Die CPU Auslastung vom N40L ist bei mir eigentlich gar nicht wild..nur die 8GB RAM sind doof.


Achja noch ein Wort zu den Raid-Controllern. Ich finde die brauchst Du privat nicht. Bei ESXI kommt jeder gleich mit den Dingern. Das gibt nur Ausfallsicherheit. Mir doch egal ob zu Hause dann mal 2 Tage keine Mails kommen...Falls sich die Platte verabschieden sollte, ESXI ist in 5min neuinstalliert und die Einstellungen hergestellt. Mailserver sichert sich aufs FreeNAS, wäre also auch kein Akt. Und Astaro schickt alle paar Tage ne Mail mit seiner Sicherung. Sprich, wenn die vmdk Platte abraucht, läuft das Zeug spätestens nach paar h wieder. Da fühle ich mich viel Sicherer, dass die Daten aufm FreeNAS mit ZFS liegen, als auf so nem Raid für paar Eur. Richtig gute Controller kosten auch extrem viel. Wenn man sich mal ZFS im Detail ansieht, ist das schon ein sehr sehr geiles System.

FreeNAS per iSCSI/NFS zum ESXI bringen würde ICH nicht machen, weil dann greift der ja ständig aufs FreeNAS zu und die Platten legen sich wieder nicht schlafen...

Gruß
Arek
 
D€NNIS;19061505 schrieb:
Die Frage war halt ob sich diese Notwendigkeit bei mehreren VMs in ESXi erübrigt, gesetzt den Fall 2 VMs wollen beispielsweise auf einen Ordner gleichzeitig zugreifen.
Geht mir dabei auch nicht darum inwieweit das praxisrelevant ist (das ist es ehr weniger aus o.g Gründen bzw. Du hast diese bereits angeführt) es geht mir mehr ums Verständnis.

Das kann dir aber eigentlich nicht passieren, also das zwei VMs gleichzeitig auf einen Ordner wollen. Denn jede VM hat ihren eigenen Ordner auf dem Storage. Soweit mir bekannt sperrt der Host eben die Files für Zugriffe von außen, also je nach Clustermodus und Einstellung verhält sich das so, das eben die Daten nur von Einem Host aus angesprochen werden. Migriert man die Maschine, wird der Zustand übertragen und eben die Files von nem anderen Host gemappt. Wie es ich schlussendlich bei FaultTolerance verhält, müsste ich mal nachlesen, aber das spielt in meinen Augen noch seltener eine Rolle.
 
@Areks

Danke für deinen Erfahrungsbericht mit dem N40L.
Ich suche zwar nach einem guten Kompromiss aus Energieverbrauch und Leistung bei möglichst geringen Anschaffungskosten
und dachte anfänglich der Microserver von HP könnte das leisten, mittlerweile bin ich aber davon runter ;)

@fdsonne

Ich werd das mal versuchen zu recherchieren, rein aus Interesse. ;)

-----

Um vielleicht nochmal auf den Kern der Sache zurückzukommen, hat jemand vielleicht gute Tips für gebrauchte Server in der Bucht die weitestgehend out-of-box ESXi ready sind?
Ich würde sonst mal die Whiteboxliste durcharbeiten aber mit den Erfahrungen die einige hier von euch im privaten Umfeld mit ESXi haben, geht das sicherlich schneller.
Oder eventuell warte ich noch auf die Desktop DualCore Ivys, kompakt und sparsam haben erstmal Priorität. :)
 
Also bis auf RAM kompletter Intelserver der Out-of-the-Box ESXi unterstützt und zertifiziert ist würde ich dir auf Sockel 1156 Basis für 330€ inkl Versand anbieten
 
Nicht das deine Hardware es nicht wert wäre aber meine Vorstellung für eine Gebrauchtanschaffung liegt zwischen 150 - 200 Euro.
Letztendlich ist ESXi für mich momentan nur Spielerei mit natürlich dem Interesse zur eigenen Weiterbildung, trotzdem danke für deinen Einsatz ;)
 
Kein Ding, aber dafür wirst du mM nach nur schwerlich was sparsames, leises, aktuelles finden was Out-of-the-Box läuft oder sogar auf der whitelist ist. Und der Plan mit dem Supermicro Board und dem Sandy/Ivy liegt da auch deutlich Höher ;)

Edit: Das war auch nicht böse gemeint und ganz unabhängig von meiner angebotenen Hardware - also bitte nicht falsch verstehen
 
Zuletzt bearbeitet:
Warte momentan zwar noch auf meine Lieferung, habe mich aber auch etwas in die Materie eingegoogelt.

Habe mir jetzt folgendes zusammengestellt und warte auf meine Lieferung :d.

80GB HDD (lag noch rum)
1TB HDD (neu) 80€
4GB USB Stick (lag noch rum)
DQ45CB Board mit VT-d + E5400 mit VT-x Unterstüzung + 2x2GB RAM (150€)
2x2GB RAM (lag noch rum)
300 Watt 80+ NT (lag noch rum)
Gehäuse (lag noch rum)
Billiger SATA RAID Controller zum durchreichen (lag noch rum)

Ich glaube viel günstiger geht es nicht. Speicher ist nur leider teurer als bei einer DDR3 Lösung.

Die 1TB HDD soll direkt an eine NAS4free VM gemountet werden und Datastore für die anderen VMs sowie Datenserver sein. Auf einer anderen VM soll dann eine USB Platte für das Backup der Daten und VMs angebunden werden. Da ich täglich in der Nacht ein Backup auf USB Platten fahre, sollte die Wiederherstellungszeit der VMs und Daten für Privatgebrauch ausreichend sein, so dass ich auf ein RAID verzichten werden.

Hilfreich fand ich die folgende Listen:
Intel VT-d Supported Boards
Intel VT-x Supported CPUs
Whitebox HCL 1
Whitebox HCL 2
VMWare Commuity List
 
Zuletzt bearbeitet:
Nur hinkt der Vergleich, hätte er die Hardware alles da, würde er nicht nachfragen :fresse:
Und S775 hat halt leider das Problem, das für bezahlbarem RAM bei 8GB schluss ist... Je nach dem, was man dann wirklich mit der Kiste anstellen will, ist das schnell mal zu wenig.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh