Cluster_
Enthusiast
Thread Starter
- Mitglied seit
- 02.05.2009
- Beiträge
- 147
- Ort
- Nähe München
- Desktop System
- Workstation
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- MSI MEG X570 ACE
- Kühler
- NZXT Kraken Z73
- Speicher
- 64 GB RAM DDR4-3600 G.Skill Trident Z Royal
- Grafikprozessor
- Gigabyte Aorus RTX 3090 XTreme Waterforce
- Display
- Samsung C49RG94SSU
- SSD
- 2 x Samsung 980 PRO NVMe M.2 2 TB
- HDD
- XPEnology NAS
- Opt. Laufwerk
- Da kann man ja gleich nach nem Plattenspieler fragen
- Soundkarte
- integriert over BOSE Companion 5
- Gehäuse
- be quiet DarkBase 700 Custom mod
- Netzteil
- be quiet Straight Power 11 - 1000 W
- Keyboard
- AZIO Retro Classic
- Mouse
- Logitech MX master 3
- Betriebssystem
- Windows 11 Pro
- Webbrowser
- Chrome
- Internet
- ▼1000 MBit ▲50 MBit
Hallo,
ich spiele momentan mit folgender Überlegung und hätte gerne etwas Input über Eure Erfahrungen und/oder Denkanregungen.
1 Host (single) - 8 x 8TB SATA + 8x512 GB SSD - Angebunden über zwei verschiedene HBAs
VMWare as Hypervisor - Startet von RAID 10 (4x512 GB) - Enthält 1 Speicherbereitstellungs VM mit FreeNAS welche per RDM auf den 8x8 TB HBA zugreift und damit ein RAID-Z2/3 + zweites 4x512 GB SSD als Cache per NFS(oder iSCSI) für den eigenen VMWare Host bereitstellt.
Die anderen Server-VMs liegen nur mit ihrer vmx und unter Umständen der System vmdk auf dem ersten 4x512 SSDs. Die Datenspeicher selber werden von der ersten VM bereitsgestellt welches über einen internen VMXNET3 10GBs NIC angebunden ist.
Vom Starten und Herunterfahren her (automatismus) müsste es ja praktisch gehen
VMWare ESXi Host statet -> autostart FreeNAS -> wait -> autostart andere VM . Beim Herunterfahren genau umgekehrt.
Sollte wiedererwarten der FreeNAS Speicher noch nicht im ESXi gemoutet worden sein, würde der Host das Hochfahren der VM aufgrund fehlender Platte in der vmx Konfiguration ja sowieso verweigern.
Hat jemand von Euch so etwas schon ausprobiert und Erfahrungen? Auch bezüglich Performance Blockdevice vs NFS.
Hintergrund ist die Integritätsprüfung im ZFS welche ja über "normale" HardwareRaid Controller nicht bereitgestellt wird. Die Prüfung der Integrität der Daten erfolgt hier ja NUR wenn ein Device Probleme an den HBA meldet. ZFS hingegen bei jeder Datenübertragung.
Gruß & Dank im Voraus
Thomas
ich spiele momentan mit folgender Überlegung und hätte gerne etwas Input über Eure Erfahrungen und/oder Denkanregungen.
1 Host (single) - 8 x 8TB SATA + 8x512 GB SSD - Angebunden über zwei verschiedene HBAs
VMWare as Hypervisor - Startet von RAID 10 (4x512 GB) - Enthält 1 Speicherbereitstellungs VM mit FreeNAS welche per RDM auf den 8x8 TB HBA zugreift und damit ein RAID-Z2/3 + zweites 4x512 GB SSD als Cache per NFS(oder iSCSI) für den eigenen VMWare Host bereitstellt.
Die anderen Server-VMs liegen nur mit ihrer vmx und unter Umständen der System vmdk auf dem ersten 4x512 SSDs. Die Datenspeicher selber werden von der ersten VM bereitsgestellt welches über einen internen VMXNET3 10GBs NIC angebunden ist.
Vom Starten und Herunterfahren her (automatismus) müsste es ja praktisch gehen
VMWare ESXi Host statet -> autostart FreeNAS -> wait -> autostart andere VM . Beim Herunterfahren genau umgekehrt.
Sollte wiedererwarten der FreeNAS Speicher noch nicht im ESXi gemoutet worden sein, würde der Host das Hochfahren der VM aufgrund fehlender Platte in der vmx Konfiguration ja sowieso verweigern.
Hat jemand von Euch so etwas schon ausprobiert und Erfahrungen? Auch bezüglich Performance Blockdevice vs NFS.
Hintergrund ist die Integritätsprüfung im ZFS welche ja über "normale" HardwareRaid Controller nicht bereitgestellt wird. Die Prüfung der Integrität der Daten erfolgt hier ja NUR wenn ein Device Probleme an den HBA meldet. ZFS hingegen bei jeder Datenübertragung.
Gruß & Dank im Voraus
Thomas
Zuletzt bearbeitet: