Thread Starter
- Mitglied seit
- 28.08.2004
- Beiträge
- 4.352
- Ort
- Radeberg
- Desktop System
- WandPC
- Prozessor
- AMD Ryzen 3600 nonX
- Mainboard
- Gigabyte B550i Aorus Pro AX
- Kühler
- Thermalright AXP120-X67
- Speicher
- 32GB Samsung ECC 2666CL19 @ 3600 CL18
- Grafikprozessor
- Gigabyte RTX 3070
- Display
- Alienware AW3225QF
- SSD
- Intel Optane P5800x, 800GB
- Opt. Laufwerk
- -
- Soundkarte
- FiiO E10
- Gehäuse
- ne Siebdruckplatte (WandPC)
- Netzteil
- BeQuiet DarkPower 13 - 850W
- Keyboard
- Logitech M720
- Mouse
- Logitech K850
- Betriebssystem
- Windows 11 Pro
- Webbrowser
- Chrome
- Sonstiges
- 30cm Pcie 4.0 Ezdiy-Fab Riserkabel
Servus...kurze frage: Ich hab ein etwas betagten Server, dieser wird von 2 SATA SSDs die an einem HW Raidcontroller im RAID1 laufen betrieben. Also über das Raid verbund startet der Server.
OS: Server 2019
Ist es jetzt möglich, zwei NVMe SSDs über zwei PCIe Adapter zu betreiben? Mir ist klar dass der Server nie im leben davon Booten kann da der server kein UEFI Bios hat. Aber kann man die SSDs unter Windows dann nach der NVME Treiber installation nutzen? Da könnte ich da über StorageSpace ein Softwareseiriges Raid1 einrichten...
Oder werden NVMe SSDs auch nicht im Windows erkannt wenn das Bios da nicht mitspielt?
Geht primär um die IOPS für ein paar HyperV VMs...
OS: Server 2019
Ist es jetzt möglich, zwei NVMe SSDs über zwei PCIe Adapter zu betreiben? Mir ist klar dass der Server nie im leben davon Booten kann da der server kein UEFI Bios hat. Aber kann man die SSDs unter Windows dann nach der NVME Treiber installation nutzen? Da könnte ich da über StorageSpace ein Softwareseiriges Raid1 einrichten...
Oder werden NVMe SSDs auch nicht im Windows erkannt wenn das Bios da nicht mitspielt?
Geht primär um die IOPS für ein paar HyperV VMs...