Eigenes Shared Storage für kleines VMWare Cluster

Pazecx

Experte
Thread Starter
Mitglied seit
10.07.2016
Beiträge
282
Moin zusammen,

aktuell überlege ich mir ein kleines Storage zu bauen, von welchem sich meine beiden VMWare Hosts bedienen können.
Einmal kurz zu meinem jetzigen Setup:

Host1:

- 1x Xeon E5-1650v3
- Supermicro X10SRi-F
- 64GB DDR4 ECC
- SinglePort 10GBit Karte

Aktueller Storage:
SSDS:
- 128GB Samsung Pro
- 250GB Samsung Evo
- 275GB und 525GB Crucial
- 10TB Seagate IronWolf

Host2:
- 1x Xeon E5-1650v3
- ASUS Z10PA-U8
- 48GB DDR4 ECC
- SinglePort 10GBit Karte

Aktueller Storage:
- 500GB Samsung Evo
- 500 GB Liteonit (irgendwo gefunden)
- Adaptec 6405E mit 4x 1TB WD RED als Raid 0

Beide Hosts sind per SFP+ miteinander verbunden.
In Zukunft sollen die Umgebungen für mich redundante Systeme (meist auch nur Tests) wie Exchange Server betreiben.

Ich habe in beiden Hosts so viele unterschiedliche Platten drin, da mir die im Laufe der Zeit so zur Verfügung standen.
Aktuell "balance" ich die Last auf Host1, indem ich VMs auf die unterschiedlichen SSDs verteile. Auf der 10TB Platte liegt ein Fileserver.
Ich würde nun gerne ein einheitliches Storage bauen, auf welchen beide Hosts zugreifen können.
Dazu hätte ich nochmals einen Adaptec 6405E mit 4x 2TB SAS Platten zur Verfügung.

Geplant hätte ich jetzt einfach ein System zu bauen, dort beide Controller reinzupacken mit den jeweiligen Platten, und daraus dann das Storage zu betreiben.
Softwaremäßig vielleicht was in die Richtung Windows Server? Verträgt sich das?
Meine Frage wäre zudem dann noch, was ich mit den übrigen SSDS mache, oder ob ich daraus was bauen kann?
Sind halt alle nicht einheitlich, das erschwert die Sache ein wenig.

Platz finden soll das ganze in einem INTER-TECH IPC 4U-4088-S, welches mir 8 Hot Swap Plätze zur Verfügung geben würde.
SSDs könnten zudem noch im Gehäuse "gelegt" werden.

Anschaffen würde ich mir dann noch einen passenden Switch, damit ich alles miteinander verbinden kann.

Hat jemand Erfahrung in solchem Eigenbau?

Bin über jeden Tipp dankbar!
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hi,

Also ich habe es bei mir zuhause wie folgt realisiert. Ich habe als Hyper-Visor auch VMWare. Hierbei auf jedem Host eine Storage Applicance installiert. zb. HPE Store Virtual, Windows Server geht da auch. Im Endeffekt ist es so der Controller stellt lokal eine große VDisk an eine VM oder auch mehrere wenn SSD-Tier gewünscht ist. -> Diese dann wiederum per iSCSI direkt an den Host. Diese bilden auf beiden Hosts ein Network RAID10 das heißt alle Daten die auf dem ersten Storage geschrieben werden werden auch sychron auf das zweite weggeschrieben. Somit hast du den Vorteil keine weitere Hardware notwendig. Ich habe allerdings iSCSI und VM Lan getrennt. Das heißt 2x10Gbits und ab die Post. Somit kannst du das Geld in weitere Platten investieren und fährst doch sehr zuverlässig. Das heißt wenn ein Host wegschmiert. Läuft das System weiter und der FailoverManager sagt das ist jetzt das primäre SAN. Du benötigst je nach Konstellation 2-3 VM´s.

Gruß Niklas
 
Bez vSan könnte man sich auch StarWind Virtual SAN Free anschauen.

Aber was würde denn gegen einen OmniOS/Solaris/etc. + Napp-it Build sprechen ? Ist halt erstmal nur "dummes" Storage, aber mit den vorteilen von ZFS.

Die HDDs und SSDs in entsprechende ZFS Filesysteme (Ich ziehe ja mirror vor) integrieren und per NFS an die ESXi.
 
Zuletzt bearbeitet:
Den Plattenzirkus würde ich großteils verkaufen und dann 3x10TB@Z1 und ein/mehrere SSDs, ob RAID oder nur Backup, NVME/SATA etc hängt von den Anforderungen deiner VMs ab, in den Filer packen. Den Fileserver kann dieser auch gleich mitbetreiben oder evtl auch nur den, welches OS nutzt du denn für den Fileserver aktuell ?
 
ich hab als Fileserver aktuell ein NAS4Free am start, hier NFS-Shares auf denen die VMs liegen.
noch nur mit 1Gbit zwischen ESX und Switch und Storage, aber die 10G-Karten sind schon da.

in meinen 3 ESX Hosts sind je eine 120er SSD für Host-Cache verbaut, im Storage selber aktuell noch eine, die kommt aber weg, wenn das Storage demnächst umzieht und dann 128GB RAM zur Verfügung hat.
Storage sind derzeit 6x 2TB (Samsung Green) im Z2 und 4x 500GB (Blue) im Z1
Auf dem Z2 liegen die normalen Daten+Backup, share is SMB für die Clients - am Z1 liegt hier das NFS-Share für die VMs + 2 SSDs die direkt NFSshares sind.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh