Thread Starter
- Mitglied seit
- 28.08.2004
- Beiträge
- 4.477
- Ort
- Radeberg
- Desktop System
- WandPC
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 9-9950X
- Mainboard
- ASRock B850i Lightning WiFi
- Kühler
- Arctic Freezer 36
- Speicher
- 64GB (2x 32GB) Kingston DDR5-6000 CL30
- Grafikprozessor
- Gigabyte Aorus RTX 5090 Waterforce WB, 420er Phobya G-Change v2 Radiator
- Display
- Alienware AW3225QF, 32" 240HZ Curved OLED
- SSD
- 2TB Samsung 990 Pro
- Opt. Laufwerk
- -
- Soundkarte
- FiiO E10
- Gehäuse
- ne Siebdruckplatte (WandPC)
- Netzteil
- BeQuiet DarkPower 13 - 850W
- Keyboard
- Logitech M720
- Mouse
- Logitech K850
- Betriebssystem
- Windows 11 Pro
- Webbrowser
- Chrome
- Sonstiges
- 30cm Pcie 4.0 Ezdiy-Fab Riserkabel
Servus...kurze frage: Ich hab ein etwas betagten Server, dieser wird von 2 SATA SSDs die an einem HW Raidcontroller im RAID1 laufen betrieben. Also über das Raid verbund startet der Server.
OS: Server 2019
Ist es jetzt möglich, zwei NVMe SSDs über zwei PCIe Adapter zu betreiben? Mir ist klar dass der Server nie im leben davon Booten kann da der server kein UEFI Bios hat. Aber kann man die SSDs unter Windows dann nach der NVME Treiber installation nutzen? Da könnte ich da über StorageSpace ein Softwareseiriges Raid1 einrichten...
Oder werden NVMe SSDs auch nicht im Windows erkannt wenn das Bios da nicht mitspielt?
Geht primär um die IOPS für ein paar HyperV VMs...
OS: Server 2019
Ist es jetzt möglich, zwei NVMe SSDs über zwei PCIe Adapter zu betreiben? Mir ist klar dass der Server nie im leben davon Booten kann da der server kein UEFI Bios hat. Aber kann man die SSDs unter Windows dann nach der NVME Treiber installation nutzen? Da könnte ich da über StorageSpace ein Softwareseiriges Raid1 einrichten...
Oder werden NVMe SSDs auch nicht im Windows erkannt wenn das Bios da nicht mitspielt?
Geht primär um die IOPS für ein paar HyperV VMs...