ESX / ESXi - Hilfethread

*grins* das kommt mir bekannt vor habe deswegen noch alle VMs auf SATA weil mir die SSDs für mein Homelab noch zu teuer sind :)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Da mein ZFS-Pool schnell genug ist, habe ich die SSD vorerst anderen Aufgaben zugeführt ;) Später soll dann ein SSD-Raid1 mit ZFS laufen. Aber ja: Backups machen die Sache eben einfach entspannter
 
Hab meine VMs auf einem ZFS SSD "RAID 0" Pool aus 4 SSDs. Der wird mit send/receive regelmäßig auf einen zweiten (lokalen) HDD RaidZ Pool repliziert und ab und an noch auf ein 2. Backup System mit einer Archive HDD gesichert.
 
Da im ML10 Thread wohl keiner helfen konnte / mochte:

Woran erkenne ich beim Passthrough:

- was welches Gerät ist
- und speziell ob sich evtl. der SAS Anschluss auf dem Board einzeln an eine VM durchreichen lässt. Die restlichen 2 einzelnen SATA auf dem Board würden mir sonst reichen

pt.JPG

Mit der DID / VID etc. finde ich nichts bei VMWare, leider.
 
Steht doch dabei was das für Geräte sind. Wo genau liegt dein Problem? Der Onboard Controller umfasst 6 Anschlüsse (die nicht auftauchen, da man die erst freischalten, d. h. händisch eintragen müsste) und damit den SAS und die Sata Anschlüße. Kannst die Laufwerke daran nur als Einzellaufwerke durchreichen.
 
Problem ist, dass man entweder eine große SSD kaufen, oder ein Raid aufbauen muss. Es fehlt mir irgendwie das native dedup. Ist bei Hyper-V einfach "besser" in dem bereich (auch wenns nicht offziell supported ist).

Neja, der ESXi ist halt keine Storagelösung. Sondern stellt nur das Virtualisierungsbackend. Das andere Lösungen, die weit Fetter sind, prinzipiell mehr können, sollte klar sein. Die Hyper-V Edition bei Microsoft ist auch "nur" eine Windows Core Install (also ohne GUI) und der Hyper-V Rolle + bisschen Beiwerk. Nur schlummert da drunter halt quasi ein volles und fettes Windows OS.

Wenn du Dedup willst, brauchst du halt eine Storagelösung die das kann. Anbinden an den ESXi ist ja durch iSCSI/NFS erstmal kein Problem. Oder halt andere Verfahren (FC/FCoE)...

PS: ich hab ein Raid1 mit zwei MX100 SSDs an nem Fujitsu Megaraid irgendwas Controller im Dell T20 stecken. Nutze diesen Datastore als Volume für Windows System VMDKs. Mit dem Platz muss man halt etwas kalkulieren. Geht aber, wenn es nicht zu viel wird. Die Kiste ist aber auch weniger Spielerei als eher produktiv. Sprich da wird nichts getestet oder probiert, ergo ändert sich der Datenbestand auch effektiv nicht, zumindest nicht bei den System VMDKs. Die VMs da drauf laufen, weil sie laufen sollen. Getestet wird auf der Workstation oder diversen anderen Testhosts...
 
Onboard pass ... geht das nun bei S1151 ... ? Sonst war das immer ein nogo

Frag nur nach da mit S1151 nie getestet

Edit: es sei denn der onboard ist ein Addon zum Intel
 
Zuletzt bearbeitet:
Habe eine Frage, und zwar bestell ich mir jetzt den ML10v2 und dort kommt ESXi drauf mit Storage VM ( Solaris mit Napp-IT ) habe dort dann 3x WD RED 3 TB die ich zu einen RAIDZ1 zusammenfüge, zusätzlich habe ich 2x Samsung Pro 256GB(VMStore), diese möchte ich aber ohne RAID betreiben, da ich somit mehr speicherplatz habe (keine panik werden täglich mit Veeam gesichert - und ist sowieso Homeserver) - meine Frage: ist es schlauer die SSDs direkt an VMware zu geben und diese dann mit VMFS zu formierten, oder sollte ich diese beiden SSDs trozdem zur ZFSStorage durchreichen und dann wieder zurück per NFS ?
 
Habe eine Frage, und zwar bestell ich mir jetzt den ML10v2 und dort kommt ESXi drauf mit Storage VM ( Solaris mit Napp-IT ) habe dort dann 3x WD RED 3 TB die ich zu einen RAIDZ1 zusammenfüge, zusätzlich habe ich 2x Samsung Pro 256GB(VMStore), diese möchte ich aber ohne RAID betreiben, da ich somit mehr speicherplatz habe (keine panik werden täglich mit Veeam gesichert - und ist sowieso Homeserver) - meine Frage: ist es schlauer die SSDs direkt an VMware zu geben und diese dann mit VMFS zu formierten, oder sollte ich diese beiden SSDs trozdem zur ZFSStorage durchreichen und dann wieder zurück per NFS ?

Ich würde auf den SSD auch ZFS nutzen (also per NFS zurückgeben). Bietet dir eben auch den Vorteil den das FS hat. Nachteil ist einzig: ohne die StoreageVM geht halt gar nichts.
 
Habe eine Frage, und zwar bestell ich mir jetzt den ML10v2 und dort kommt ESXi drauf mit Storage VM ( Solaris mit Napp-IT ) habe dort dann 3x WD RED 3 TB die ich zu einen RAIDZ1 zusammenfüge, zusätzlich habe ich 2x Samsung Pro 256GB(VMStore), diese möchte ich aber ohne RAID betreiben, da ich somit mehr speicherplatz habe (keine panik werden täglich mit Veeam gesichert - und ist sowieso Homeserver) - meine Frage: ist es schlauer die SSDs direkt an VMware zu geben und diese dann mit VMFS zu formierten, oder sollte ich diese beiden SSDs trozdem zur ZFSStorage durchreichen und dann wieder zurück per NFS ?

Wo soll die Storage VM hin und hast du weiteren Storage Controller zum Durchreichen an die Storage VM.

ML10v2 mit welche CPU ? wegen VT-D.

Ohne Raid hat man halt nicht alle ZFS Vorteile aber immer noch mehr als VMFS :)
 
Moin zusammen,

habe ein komisches Problem mit meinem ESXI 6.0.0 (latest update)

Auf meinem System habe ich 2 mal intel Corp 82576 GIb network und eine zusatz karte mit 2 mal 82571EB gib Network.

Wenn ich den ESXI neustarte läuft alles nur das unbestimmter zeit verliert der 82571EB seine verbindung und ich muss neustarten... Hab ihr eine idee was das sein könnte?
 
bräuchte noch einen kurzen ratschlag, ich möchte meine festplatten verschlüsseln, ist es schlauer hierbei solaris mit napp-it zu nehmen um direkt encryption auf zfs basis zu machen, oder einfach den klassiker omnios + napp-it und dann in der Fileserver vm (windows2012r2) den Bitlocker zu benutzen (geht hier nur um diebstahl/entsorgungs schutz)
 
Zuletzt bearbeitet:
Änhliches verhalten hatte ich bei ESXi 5.5 auf meinem Supermicro X9SCL-F die erste NIC hat sich nach einer Zeit immer verabschiedet.
Ich hab viel herumprobiert - verschiedene Treiber getestet jedoch konnte ich das Problem nicht dauerhaft lösen.
So das ich auf die zweite NIC umgestiegen bin. Ein zweiter Server mit X9SCM-F läuft ohne Probleme. Ich hab noch irgendwo ein Treiber VIB das du mal testen könntest.
Muss ich aber erst suchen
Moin zusammen,

habe ein komisches Problem mit meinem ESXI 6.0.0 (latest update)

Auf meinem System habe ich 2 mal intel Corp 82576 GIb network und eine zusatz karte mit 2 mal 82571EB gib Network.

Wenn ich den ESXI neustarte läuft alles nur das unbestimmter zeit verliert der 82571EB seine verbindung und ich muss neustarten... Hab ihr eine idee was das sein könnte?
 
bräuchte noch einen kurzen ratschlag, ich möchte meine festplatten verschlüsseln, ist es schlauer hierbei solaris mit napp-it zu nehmen um direkt encryption auf zfs basis zu machen, oder einfach den klassiker omnios + napp-it und dann in der Fileserver vm (windows2012r2) den Bitlocker zu benutzen (geht hier nur um diebstahl/entsorgungs schutz)

2 x StorageVM (OmniOS ZFS und Windows) ist heftig.
Oracle Solaris wäre da schon einfacher.

Man muss bei Solaris aber mit den HBAs aufpassen, insbesondere 12G Adapter gehen teils nicht.
 
Wieso heftig? wird doch auch in produktiven umgebungen so gemacht Storage -> ESX -> fileserver(linux/windows) -> smb/nfs etc
oder?
 
Nein eigentlich nicht.

Bei einer All-In-One Lösung hat man normalerweise eine Storage NAS/SAN VM für iSCSI, NFS und SMB. Solaris deckt zwar nicht alles ab was ein Windows Server kann, rein storagetechnisch (Sicherheit, Zuverlässigkeit, Performance, Versionierung, Uptime) bietet es aber deutlich mehr als Windows. Ein zusätzliches Windows auf ZFS via iSCSI für SMB würde vor allem deutliche Abstriche bei der Versionierung/Snaps bedeuten. Windows direkt auf Hardware wäre deutlich unsicherer mit ntfs oder deutlich langsamer mir ReFS.

Für reines Storage würde man professionell einen zusätzlichen ZFS Filer ohne Virtualisierung machen.
 
In dem Konzept Storage-->ESX-->Windowsserver ist Storage halt meistens Blockorientiert (FC, iSCSI oder Infiniband) gemeint und insoweit "dumm". Die komplexeren bzw. "schlaueren" Dienste (zu denen dann als Zwischenschicht nach Bedarf eben auch ein Hypervisor gehört, der dann eben Seinerseits auch nur Basis für "mehr" ist) greifen dann eben auf das Storage direkt zu.
 
Nein eigentlich nicht.

Bei einer All-In-One Lösung hat man normalerweise eine Storage NAS/SAN VM für iSCSI, NFS und SMB. Solaris deckt zwar nicht alles ab was ein Windows Server kann, rein storagetechnisch (Sicherheit, Zuverlässigkeit, Performance, Versionierung, Uptime) bietet es aber deutlich mehr als Windows. Ein zusätzliches Windows auf ZFS via iSCSI für SMB würde vor allem deutliche Abstriche bei der Versionierung/Snaps bedeuten. Windows direkt auf Hardware wäre deutlich unsicherer mit ntfs oder deutlich langsamer mir ReFS.

Für reines Storage würde man professionell einen zusätzlichen ZFS Filer ohne Virtualisierung machen.

Also ich habe noch keine Firma gesehen die einen SAN Storage als VM betreibt (Warum auch?). Höchstens virtualisierter Storage in einem richtigen SAN Storage,
sprich EMC VNX, Dell Equallogic, HP VSA, etc. Und Freigaben sind dann entweder auf einem weiteren NAS oder ähnlichem Storage, bzw. auf einer SMB Freigabe.
Das Storage selbst legt am Ende per definiertem Zyklus die Snapshots des LUNs an, bzw. noch genauer/als zweite Möglichkeit, dann eben das Backup von Veeam o.Ä. auf Guest File Basis.

Ich weiß ja nicht von welchen Umgebungsgrößen ihr hier gerade redet aber ab jedem Mittelständischen Unternehmen ist das normalerweise so geregelt.

Referenzen zu etwas anderem nehm ich gern an, würde gerne wissen wie dort die Ausfallsicherheit gewährleistet wird, falls ein Host mit dieser VM es krachen lässt.
Praktisch müsste man dort, wie bei einem SAN Storage, ja quasi mehrere VMs als Cluster verteilt auf mehreren Hypervisor laufen lassen, die ihren lokalen Storage dauerhaft replizieren.
Und jeder dieser Hosts müsste dann ja wieder per 10Ge an das SAN verbunden werden und zusätzlich noch Netzwerkkapazitäten für VMs, vMotion, Management, etc., das hört sich gruselig an ... :d
 
Es geht hier um All-In-One und Virtualisierung einer Storage VM direkt auf ESXi nicht um das allgemeine Konzept "Storage-Virtualisierung" also die Trennung von physikalischen und logischem Speicher.

Man muss sich das so vorstellen, dass die üblicherweise getrennten Systeme ESXi Server und NAS/SAN Server samt Storagehardware in einem System laufen - die Storage Appliance z.B. Solaris wird virtualisiert und die Hardware wie Controller und Platten per pass-through durchgereicht. Wenn das System entsprechend RAM (wie ein Barebone NAS/SAN) hat und die Extra CPU Last verträgt, ist damit eine vergleichbare Performance wie bei zwei getrennten Systemen erreichbar.

Das Konzept (das ich vor ca 7 Jahren erstmals vorgestelt habe) hat mehr Vor- als Nachteile

Nachteile
- Nicht geeignet für allerhöchste Performanceansprüche
- etwas komplexerer Setup, die Storage VM muss als erstes gestartet werden und stellt dann Storage für ESXi (oder allgemeine Filerdienste) per iSCSI, NFS oder SMB bereit, so wie bei einer Lösung mit 2 Servern

Vorteile
- "lokaler ESXi Storage = Shared Storage mit ZFS highend features wie Snaps, Cache, Replikation und Sicherheit" Bei mehreren ESXi Hosts hat jeder sein lokales SAN für seine VMs auf die aber auch andere ESXi zugreifen können. Ein Ausfall des ESXi oder des SAN betreffen nur diese Maschine. Storage oder VM Move sind nach wie vor möglich.

- High Performance zwischen ESXi und Storage intern in Software ohne teure und redundante Netzwerke


Anwendung:
Vor allem im Lab-Bereich und wenn man die Ausfallsicherheit mehrerer kleinerer Systeme ohne teure HA SANs haben möchte, dazu OpenSource Lösung, läuft perfekt mit ESXi free, Backup mit ZFS Replikation. In meinem Setup habe ich 10 All-In-One Systeme seit Jahren am Laufen, teilweise auch mit ESXi free.

Konfiguration
http://www.napp-it.org/doc/downloads/napp-in-one.pdf
 
Klingt sehr cool.
Muss meinen Home-ESXi auch mal überhaupt erst auf 6 updaten, ich hab's wegen dem SCSI Controller fürs Backup bisher nie gemacht, hab den Autoloader inzwischen aber eh außer Betrieb genommen und muss jetzt keine Rücksicht mehr drauf nehmen.
 
mal ne frage in die runde.

kann ich einen ESX auf ein zusätzliches Raid (in dem fall Raid1) in einem server installieren auf dem dann das data storage also die vms auf einem Raid10 laufen?
 
mal ne frage in die runde.

kann ich einen ESX auf ein zusätzliches Raid (in dem fall Raid1) in einem server installieren auf dem dann das data storage also die vms auf einem Raid10 laufen?
Ja, sofern du dafür einen Hardware Raidcontroller nimmst, Die Chipsatzraids werden durch die Bank nicht supported - jedenfalls nach meinem letzten Stand
 
hmm. naja das problem ist dass ich für mein ihk projekt einen HP ProLiant ML350 G5 hernehme. ich hab den esx dummerweise auf das raid10 geklatscht. etwas ungünstig. aber umstellen will ich es nicht da keine zeit.

ist da ein hardware raidcontroller drin? ich schau nebenbei mal selbst weiter..

ansonsten werd ich in der doku den esx klassisch aufn stick packen.

folgendes hab ich gefunden :

Storage Controller

Interface Type
Serial ATA-150 / SAS
Storage Controller Name
Smart Array E200i with 128MB BBWC
Buffer Size
128 MB

und

Storage Controllers
:
Entry Models: HP Smart Array E200i/64MB Controller (integrated SAS/SATA Hot-Plug Controller with RAID 0/1/1+0
support)
128MB BBWC optional upgrade kit for RAID 5 support also available
Base Models: HP Smart Array E200i/128 BBWC Controller (RAID 0/1/1+0/5

das fettmarkierte dürfte der punkt sein, an dem es klar wird, dass es ein software raid bzw kein separater raid controller ist?
 
Zuletzt bearbeitet:
Hallo zusammen,

schon jemand mal mit den neuen Xeon-D Boards gearbeitet? Ich bin am überlegen ob ich die Systeme in meiner Signatur gegen eins davon austauschen soll. CPU Leistung benötige ich eh kaum, daher wäre der maximale Ausbau an RAM für mich die interessante Variante. Ganze dann als allseits beliebtes All-in-one System.

Derzeit würde ich das SuperMicro X10SDV-TP8F bevorzugen. Es kommt einfach mit einem richtig guten Anzahl an Features her. Mit einem Zusätzlichen HBA eine gute Lösung.
 
hmm. naja das problem ist dass ich für mein ihk projekt einen HP ProLiant ML350 G5 hernehme. ich hab den esx dummerweise auf das raid10 geklatscht. etwas ungünstig. aber umstellen will ich es nicht da keine zeit.

[...]

das fettmarkierte dürfte der punkt sein, an dem es klar wird, dass es ein software raid bzw kein separater raid controller ist?
1. Ob der ESXi nun auf dem RAID 1 oder auf dem RAID 10 installiert ist, spielt im Prinzip keine Rolle. Das Betriebssystem braucht keine 5 GB auf der Platte, und sobald es einmal gestartet ist, läuft das im RAM, das RAID hat auch nicht mehr I/O-Last.

2. Wenn Du das schon installiert hast, ist es doch auch egal. Solange beide RAID-Verbünde erkannt werden, kannst Du die beide als Datastore nutzen und fertig ist die Laube. Ob das dann ein separater Controller oder ein Onboard-Controller ist, spielt dann keine Rolle mehr.
 
ich glaub es wurde nur das raid 10 erkannt aber ich bin gerade nicht sicher. müsste ich nachschauen

wie zur hölle komme ich denn an eine kostenlos esxi version? ich krieg gleich nen kollaps auf der vmware seite.ich lande dauernd auf der home seite egal was ich anklicke. selbst mit meinem free account.

wie komme ich denn an ne iso? will die installation mal aufm usb stick probieren.

über die download history komme ich "VMware vSphere Hypervisor 6.0
Download Center" dahin und kann "VMware vSphere Hypervisor 6.0 Update 1 - Binärdateien " runterladen.

eig wollte ich 5.5.0 haben -.- aber da will mir vmware einfach keinen downloadlink geben bzw keine richtige seite dafür.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh