Du meinst PCIe x1 Karten? Ich wollte nämlich genau das gerade ergründen da ich so eine bei Ali bestellt habe und mich nun frage wie schlimm es wäre eine NVMe dadrin zu benutzen.
Dann ist die SSD eben nur mit einer PCIe Lane angeschlossen, funktionieren muss sie auch damit. Dies machen viele der billigen SSD NAS wie z.B.
dies hier ja auch nicht anders. Die Performance ist bei einer PCIe 3.0 Lanes etwa so real 800MB/s, nach Abzug allen Overheads des Protokolls und bei einer PCIe 4.0 Lanes eben doppelt so viel. Wenn es nur eine PCIe 2.0 Lane ist, kommt man nur auf so 400MB/s, ist als dann ein wenig langsamer als SATA 6Gb/s.
Man bekommt ja nur noch NVMe bzw. sind SATA exorbitant teuer (und dann so ein Kack wie die Crucial BX500 da ist jede NVMe fürs selbe Geld besser)
Die einzigen guten SATA SSDs die auch laut Hersteller wirklich noch einen DRAM Cache hat sind die Samsung 870 (EVO und QVO) und bei der EVO kann man auch noch sicher sein, dass TLC NAND verbaut ist. Bei keiner anderen SATA SSD habe ich noch Angaben zum DRAM Cache und NAND Typ gefunden, die alten Reviews bringen einen auch nicht weiter, die meisten Modelle wurden inzwischen überarbeitet, die NANDs mit denen sie damals vorgestellt wurden, dürften auch schon gar nicht mehr produziert werden. Entweder gilt dies auch für die damals verwendeten Controller oder der alte Controller unterstützt die neuen NANDs nicht und deswegen ist da meist auch ein anderer Controller verbaut und dabei wird meist auf einen DRAM less Controller gesetzt und nicht selten auf QLC gewechselt. SATA SSDs sind praktisch so gut wie tot.
Ich bereu einzig mir keine mit 4 Slots geholt zu haben weil die kaum teurer ist, der Slot hat ja eh x16 was also schon Verschwendung ist da nur eine draufzubauen.
Wobei man dann aber gerade bei
den billigen Adapterkarten ohne PCIe Lane Switch (aka PLX Chip) die teils keine 100€ kosten, wie die ASUS Hyper Cards, dann aber beachten, dass der Slot nicht nur auch wirklich elektrisch 16 Lanes haben muss, nicht jeder Slot der mechanisch x16 breit ist, hat auch 16 Lanes und dazu noch PCIe Lane Bifurkation unterstützen muss. Also die Lanes aufteilen kann und damit mehrere Geräte im gleichen Slot erlaubt. Damit alle 4 M.2 Slots solcher Karten laufen, muss der Slot also x4+x4+x4+x4 unterstützen und dies können meist nur die großen (Server / HEDT) Plattformen ab S.2066 (bei S.2011-3 können es einige Board bei einzelne Slots) und einige AM4/AM5 Boards können es bei den 16 Lanes des Slot in den meist die Graka kommt. Intel Mainstream Plattformen seit den
Z77 Chipsätzen können nur x8+x4+x4 (S. 1700 sogar nur x8+x8), damit gehen dann nur 3 der 4 M.2 Slots in so einer Karte. Außerdem muss das BIOS die PCIe Lane Bifurkation auch noch unterstützen, sonst funktioniert doch nur einer der 4 M.2 Slot der Karte.
Anders sieht es aus, wenn man
eine Karte mit PCIe Lane Switch (aka PLX Chip) nimmt, aber da werden dann schnell einige bis etliche Hundert Euro fällig, vor allem
wenn sie PCIe 4.0 können soll. Dann braucht man keine PCIe Lane Bifurkation und selbst wenn der Slot nur einer PCIe Lane hat, werden alle 4 M.2 Slots funktionieren, die Performance ist dann natürlich entsprechend bescheiden, aber es können alle SSDs genutzt werden. Die
Icy Dock sind zwar auch teuer, aber wie die Beschreibung schon sagt: "Benötigt Mainboards mit Unterstützung für PCIe Bifurcation." Die hat also auch keinen PCIe Lane Switch und
hier wird PCIe Bifurcation in einem Review der Karte erklärt.