Hp nl40 mit ESXi (VMware vSphere Hypervisor) auf nem USB-Stick

Caerwynn

Neuling
Thread Starter
Mitglied seit
08.01.2013
Beiträge
18
hallo und guten abend allerseits,

ich habe nun die threads fuer esxi, esxi-hilfethread und hp nl40 durchgeackert und weiss nich so genau wo ich mein anliegen eigentlich unterbringen sollte also ^^ dachte ich mir ich mach nen eigenen thread auf und schau mal ob wer weiter helfen kann.

Aufgabenstellung war:

hp nl40 mit 4x2 tb in nem raid 01
esxi (lizensiert) sollte auf nem 16gb usb-stick installiert werden
- im esxi soll ein ubuntu 10.04 lts (oder spaeter 12.04lts) laufen
- aufgabe das guestsystems sollten sein: (ich glaub das hab ich in jedem 3. posting gelesen ^^)
- bereitstellen und versorgen des gesamten netzwerkes mit multimediainhalten (filme, musik)
- Datenspeicher fuer Backups, isos und anderen sonstigen daten
- vpn
zukunftsaussicht: - webserver (eventuell auf einer anderen virtuellen maschine)
- uswusw ^^

momentan habe ich 4x 80 gb (zu testzwecken und lernzwecken) zu einem 01er raid zusammen gebaut, der verbund wird mir unter vsphere-client auch sauber angezeigt usw.
Esxi liess sich doch relativ einfach installieren und konfigurieren. auch kann ich mit dem client sauber auf den esxi zugreifen, kann da rumspielen und testen.

Problem: ich bekomme ums verrecken esxi nicht dazu die vm bei sich entweder einzubinden (auf dem usb-stick) noch kann ich auf dem usb-stick selber eine vm mit vsphere anlegen, er zeigt mir den usb stick einfach nicht an.
kann mir jemand sagen wo mein denkfehler dabei ist oder was ich ueber lesen haben koennte?

p.s. in eigener sache werde ich (sofern man mich laesst ^^) diesen thread weiter pflegen und zu gegeben zeiten fortschritte bezueglich des projektes hier posten (mit problemstellungen und, hoffentlich entsprechenden loesungen)

in diesem sinne bedank ich mich schon mal ^^
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
So viel ich weiß wird der USB Stick als temporäres Medium angezeigt und auf diesen ist die Installation von virtuellen Maschinen nicht möglich.
 
ok danke fuer die prompten antworten. wie ich schon oben ausfuehrte bin ich noch in der "spielphase" im endgueltigen konzept wird da eine ausgemusterte 60gb ssd drin werkeln ^^

nachtrag: also ist die kombination usb-stick-esxi-vm´s so garnicht von vmware gewuenscht und die moeglichkeit es doch auf nem usb-stick zu installieren ein nettes gimmick?
 
Zuletzt bearbeitet:
Also die SSD kannste dir glaub ich sparen. Mein ESXi lief bis vor kurzem auf einem 1GB USB-Stick ;)Nimm die SSD lieber für VMs - das macht so richtig Laune damit!
 
ok dann hab ich wohl ein grundaetzliches fehlverstaendnis (also noch mal grundlagen durchlesen^^) mein urspruenglicher plan war esxi auf dem stick zu installieren (der hat 16gb) auf diesen 16 gb (respektive die ssd mit 60 gb) sollten ausserdem die vm eingebunden werden damit ich die 4 slots (wahlweise noch den dvd brenner entfernen und da noch nen slot freimachen) in nem 01er raid laufen lassen kann. dann sah die planaenderung vor die ssd an den dvd-brennerslot ranzuhaengen (da esxi druff + die vms) um halt den 01er zu realisieren.
also vom technischen her ist es da moeglich esxi und vms auf einem laufwerk (der ssd dann wohl) zu packen?

---------- Post added at 22:14 ---------- Previous post was at 22:12 ----------

weil wenn es sowaere dann wuerde das szenario so aussehen:

esxi - > usb-stick
|
vm -> auf der ssd (am sataslot des dvd-brenner)
|
raid 01 -> auf den 4 festplatten im schacht?
 
Ja, das Szenario würde durchaus Sinn machen. Je nach Raidcontroller den du verbaut hast (8 Port z. B.) könntest du natürlich auch mit 4 kleinen SSDs ein Raid 10 erstellen für die VMs. Dann rennt das ganze wie Schmitz' Katze.
 
^^ das denk ich auch aber 4 x ssd raid wuerde meine momentanen monetaeren mittel im privaten sprengen (und damit auch das verstaendnis meiner freundin)
 
Wenn der Raidcontroller dafür ja schon vorhanden ist, könntest du lediglich die 30 - 50 Euro für den Wechselrahmen ausgeben. Die SSDs kannst du ja dann später nachkaufen.
 
weil wenn es sowaere dann wuerde das szenario so aussehen:

esxi - > usb-stick
|
vm -> auf der ssd (am sataslot des dvd-brenner)
|
raid 01 -> auf den 4 festplatten im schacht?

So würde es funktionieren...
Vorraussetzung ist natürlich, das du nen supporteten Raidcontroller nutzt, denn sonst kein Raid 10 ;)
Und die SSD muss an einem Port dran geklemmt sein, wo auch der ESXi Zugriff drauf hat bzw. diesen auch nutzen kann. Ich weis nun nicht, ob die vier default Ports für die HDDs der Kiste alleine für ESXi funktionieren, oder ob der 5. auch dazu geht...
Aber wo du die SSD klemmst, ist auch ziemlich egal, wenn ein Raidcontroller vorhanden ist, sind ja die vier OnBoard Anschlüsse definitiv frei.

Was du eben auch machen kannst, wäre den ESXi mit auf die SSD packen, das spart dir den Stick.
Ob man den Stick nun braucht oder nicht, ist Ansichtssache. Vorteil wäre halt, du kannst bequem nen zweiten Stick in den Schrank legen und diesen nutzen im Falle dass dir der erste mal die Hufe reißt. Es schmieren zwar alle VMs ab, aber du kannst bequem vom zweiten Stick booten und diese wieder starten. Sollte mehr oder weniger problemfrei laufen...
Wenn es aber die SSD reißt, ist aber ebenso schluss mit den VMs, die dort drauf liegen ;) -> das sollte dir bewusst sein.

Gerade bei SSDs bin ich mir da persönlich noch über die Langzeitlaufleistung nicht ganz sicher, ob sich das ausgeht. Und wenn es, wie du sagst, ne alte ausgemusterte ist, wirst du ggf. wohl auch kein nagelneues Modell haben geschweige denn von nem Enterpriseteil dediziert für 24/7 Dauereinsatz.



PS: was noch leicht verwirrend ist in deinem Text. Was willst du mit dem Raid 10 machen?
Weil der ESXi kann dir das nicht irgendwie im LAN bereit stellen... Der kann das Raid nur als Datastore für weitere VMs nutzen... Das ist dir bekannt?
Wenn ja, dann stellt sich mir nämlich die Frage, warum überhaupt den Umweg über die SSD als quasi Single Point of Failure... Ein "parken" der VMs auf dem Raid wäre da in Sachen Verfügbarkeit die bessere Wahl...
Und solltest du nen anständigen 8 Port Raidcontroller nutzen, könnte man sogar den 5,25" Schacht mit nem 4x2,5" auf 5,25" Wechselrahmen für weitere vier 2,5" HDDs/SSDs umbauen. Kost nicht die Welt so ein Teil...
 
Welchen Raidcontroller hast du im Einsatz ?

Ich hatte das Grundsätzlich mal bei meinem N40L auch so geplant gehabt mit einem IBM M1015 Controller als Raid 10 für den Datastore der VMs.

Bin aber noch verschiedene andere Möglichkeiten am durchtesten Windows 2012 Hyper-V und Proxmox usw.
 
Welchen Raidcontroller hast du im Einsatz ?

Ich hatte das Grundsätzlich mal bei meinem N40L auch so geplant gehabt mit einem IBM M1015 Controller als Raid 10 für den Datastore der VMs.

Der M1015 ist ungeeignet für Raidarrays beim ESXi... Das Problem ist, er hat keine BBU.
Der Controller läuft auch ausschließlich im write-through Modus. Was zur Folge hat, das die Performance grottig ist. Ein Grund dafür ist, das der ESXi selbst kein Caching macht... Der M1015 kann dies aber nicht für den ESXi übernehmen, weil er dies nur macht, wenn er im write-back Modus laufen würde, was er wiederum nicht kann, weil er keine BBU hat.

Mit einem Windows Hyper-V beispielsweise hat man das Problem so nicht explizit ;)
Und wir sprechen hier von Datenraten von 20-30MB/sec lesend/schreibend wenn überhaupt :fresse:
 
ich benutze (noch) den original aufgeloeteten (ati sb700/sb800? bin mir da aber nich sicher is mit ubuntu ausgelesen
 
ich habe es vermutet :)

Das ist aber ein Software Raid Controller und wird von ESXI nur als normaler AHCI Controller erkannt und macht damit kein Raid.
 
ich habe es vermutet :)

Das ist aber ein Software Raid Controller und wird von ESXI nur als normaler AHCI Controller erkannt und macht damit kein Raid.

wie meinst du das? bis dato dachte ich immer der unterschied zwischen hard und softwareraid liegt darin das die cpu im prinzip die aufgaben uebernimmt dabei die aufgaben die bei einem hardwareraidcontroller die hardware uebernimmt.
 
Es gibt eigtl 3 arten von RAID-"Controllern":
1. Hardware-Raidcontroller -> eigene XOR CPU Welche die Berechnung und Verwaltung von Paritätsdaten usw. übernimmt
2. "Pseudo"-Hardware-Raidcontroller -> ist im ersten Moment wie 1, jedoch wird das RAID eigentlich durch Treiber bereitgestellt(emuliert) und die Berechnungen durch die CPU durchgeführt.
3. Software-RAID -> hier wird die Berechnung und Verwaltung durch ein Abstraction Layer im OS/Betriebssystem (Windows Software RAID, ZFS, mdadm usw.) und damit indirekt ebenfalls durch die CPU durchgeführt.

Die "Onboard-RAID-Controller" vieler (Consumer-) Mainboards sind fast immer zu 2.) zuzuordnen.
Ausnahmen gibt es da eigentlich nur im Enterprise Bereich, wo auch teilweise Hardware-Raidcontroller fest auf dem Mainboard mit eingebracht werden (inkl. eigener XOR-CPU zur Berechnung)
Und da der ESXi das nicht mitmacht (nicht supported), wird er wie ein normaler AHCI HDD-Controller benutzt. Die RAID-Features stehen damit sozusagen nicht zur Verfügung.

Hoffe das war gut genug erklärt
 
Zuletzt bearbeitet:
wenn ich das dann richtig verstanden habe (hab unterdessen etwas ueber raidcontroller nachgelesen) habe ich eigentlich nur 2 optionen

1. esxi weiter benutzen (und einen anderen (hardware) raid controller benutzen

oder

2. alternatives Host/betriebssystem (win2k8r2 oder ein unixoides bzw linux basiertes betriebssystem?
 
Ich würde es lieber so formulieren: Die Frage ist, was du die von deinem RAID erhoffst.

Du kannst ja die Platten so hernehmen, dann z.B. sie in NAS4Free mounten, und dann dort ein ZFS System aufbauen. Denke, sowas währe auch sinvoll und halt auch günstiger als eine RAID-Karte.

Oder halt komplett auf das RAID verzichten. Wollte ursprünglich auch ein RAID, aber ob die Ausfallsicherheit im privaten Bereich so wichtig ist.... Bei mir schaut es aktuell so aus, als dass ich mir zu meinem System dann externe Plattenr anhänge, und hin und wieder dann manuell sichere (Per Skript oder so).
 
also fuers raid 0 eine performancesteigerung bei den lese und schreibzugriffen. (kann sein das an dem punkt ein hw tatsache mehr sinn macht allerdings bin ich noch in der experementier/lern/spielphase mit raid und fuer den fall denke ich ist ein softwareraid ebenso effektiv wie ein hw)
fuer raid1 erhoffe ich mir natuerlich eine gewisse (ausfall)sicherheit fuer meine daten (filme, musik, backups, dokumente, photos usw) schlussendlich ist die zentralisierung der daten und der reibungslose betrieb die kroenung (in meinem speziellen fall moechte ich den familienmitglieder dann gruppen/homelaufwerke auf dem server bieten)
und was ich fuer mich nicht ausser acht lassen moechte ist der lern/spass-faktor. Ich bastel und fummel gerne an computern/netzwerken rum. irgendwann ist der schritt von pc->netzwerk->server->raid etwas das nur in sich logisch ist. (ausserdem ^^ langweilen mich andere hobbys schnell also hab ich mir vor vielen jahren ein hobby gesucht das skalierbar ist alleine auf der grundlage der moeglichkeiten der technik)
 
soooo heute kam fuern schmalen taler noch ein thecus 5200 dazu mal sehen wann ich genuegend platten habe ^^ dieses warten auf die platten nervt ^^aktuell hab ich nur fuer den n40l und dem n5200er nur 2x160 gb und 4x80 gb platten zurverfuegung ^^
 
so bin nun 2 tage am rumspielen mit W2k8R2 und muss sagen das laeuft alles bissl zaeh ;-( naja grundausstattung mit 4gb is da dann doch nich so pralle in kombi mit ner dual-cpu)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh