Moin zusammen,
aktuell überlege ich mir ein kleines Storage zu bauen, von welchem sich meine beiden VMWare Hosts bedienen können.
Einmal kurz zu meinem jetzigen Setup:
Host1:
- 1x Xeon E5-1650v3
- Supermicro X10SRi-F
- 64GB DDR4 ECC
- SinglePort 10GBit Karte
Aktueller Storage:
SSDS:
- 128GB Samsung Pro
- 250GB Samsung Evo
- 275GB und 525GB Crucial
- 10TB Seagate IronWolf
Host2:
- 1x Xeon E5-1650v3
- ASUS Z10PA-U8
- 48GB DDR4 ECC
- SinglePort 10GBit Karte
Aktueller Storage:
- 500GB Samsung Evo
- 500 GB Liteonit (irgendwo gefunden)
- Adaptec 6405E mit 4x 1TB WD RED als Raid 0
Beide Hosts sind per SFP+ miteinander verbunden.
In Zukunft sollen die Umgebungen für mich redundante Systeme (meist auch nur Tests) wie Exchange Server betreiben.
Ich habe in beiden Hosts so viele unterschiedliche Platten drin, da mir die im Laufe der Zeit so zur Verfügung standen.
Aktuell "balance" ich die Last auf Host1, indem ich VMs auf die unterschiedlichen SSDs verteile. Auf der 10TB Platte liegt ein Fileserver.
Ich würde nun gerne ein einheitliches Storage bauen, auf welchen beide Hosts zugreifen können.
Dazu hätte ich nochmals einen Adaptec 6405E mit 4x 2TB SAS Platten zur Verfügung.
Geplant hätte ich jetzt einfach ein System zu bauen, dort beide Controller reinzupacken mit den jeweiligen Platten, und daraus dann das Storage zu betreiben.
Softwaremäßig vielleicht was in die Richtung Windows Server? Verträgt sich das?
Meine Frage wäre zudem dann noch, was ich mit den übrigen SSDS mache, oder ob ich daraus was bauen kann?
Sind halt alle nicht einheitlich, das erschwert die Sache ein wenig.
Platz finden soll das ganze in einem INTER-TECH IPC 4U-4088-S, welches mir 8 Hot Swap Plätze zur Verfügung geben würde.
SSDs könnten zudem noch im Gehäuse "gelegt" werden.
Anschaffen würde ich mir dann noch einen passenden Switch, damit ich alles miteinander verbinden kann.
Hat jemand Erfahrung in solchem Eigenbau?
Bin über jeden Tipp dankbar!
aktuell überlege ich mir ein kleines Storage zu bauen, von welchem sich meine beiden VMWare Hosts bedienen können.
Einmal kurz zu meinem jetzigen Setup:
Host1:
- 1x Xeon E5-1650v3
- Supermicro X10SRi-F
- 64GB DDR4 ECC
- SinglePort 10GBit Karte
Aktueller Storage:
SSDS:
- 128GB Samsung Pro
- 250GB Samsung Evo
- 275GB und 525GB Crucial
- 10TB Seagate IronWolf
Host2:
- 1x Xeon E5-1650v3
- ASUS Z10PA-U8
- 48GB DDR4 ECC
- SinglePort 10GBit Karte
Aktueller Storage:
- 500GB Samsung Evo
- 500 GB Liteonit (irgendwo gefunden)
- Adaptec 6405E mit 4x 1TB WD RED als Raid 0
Beide Hosts sind per SFP+ miteinander verbunden.
In Zukunft sollen die Umgebungen für mich redundante Systeme (meist auch nur Tests) wie Exchange Server betreiben.
Ich habe in beiden Hosts so viele unterschiedliche Platten drin, da mir die im Laufe der Zeit so zur Verfügung standen.
Aktuell "balance" ich die Last auf Host1, indem ich VMs auf die unterschiedlichen SSDs verteile. Auf der 10TB Platte liegt ein Fileserver.
Ich würde nun gerne ein einheitliches Storage bauen, auf welchen beide Hosts zugreifen können.
Dazu hätte ich nochmals einen Adaptec 6405E mit 4x 2TB SAS Platten zur Verfügung.
Geplant hätte ich jetzt einfach ein System zu bauen, dort beide Controller reinzupacken mit den jeweiligen Platten, und daraus dann das Storage zu betreiben.
Softwaremäßig vielleicht was in die Richtung Windows Server? Verträgt sich das?
Meine Frage wäre zudem dann noch, was ich mit den übrigen SSDS mache, oder ob ich daraus was bauen kann?
Sind halt alle nicht einheitlich, das erschwert die Sache ein wenig.
Platz finden soll das ganze in einem INTER-TECH IPC 4U-4088-S, welches mir 8 Hot Swap Plätze zur Verfügung geben würde.
SSDs könnten zudem noch im Gehäuse "gelegt" werden.
Anschaffen würde ich mir dann noch einen passenden Switch, damit ich alles miteinander verbinden kann.
Hat jemand Erfahrung in solchem Eigenbau?
Bin über jeden Tipp dankbar!
Zuletzt bearbeitet: