@Holt
Mein Taichi X570 läuft gerade so mit den 24 PCIE 4.0 Lanes!
16*Lanes PCIE 4.0 für die GPU
4*Lanes PCIE 4.0 M.2 direkt an den Lanes der CPU
4*Lanes PCIE 4.0 über die CPU welche am Chipsatz gekoppelt sind für M.2 4.0 /3.0 dadurch fallen die SATA Ports dann weg!
Also 2 PCIE 4.0 M.2 Festplatten möglich ohne die PCIE 4.0 16 Fach Lanes für die GPU zu stutzen!
Laut Handbuch kann das Taichi doch aber die SATA Ports + 3x m.2 oder 2x m.2 + den 4x angebundenen unteren PCIe Slot bei vollem 16x Speed des Haupt PCIe Slots nutzen??
Wüsste auch nicht wo da technisch ein Limit sein soll.
Ich hab hier mit dem D8H alle SATA Ports in Use + 2x M.2 + hatte bis zum letzten GPU Wechsel nen Raid Controller im Chipsatz PCIe Slot klemmen + volle 16x bei der GPU oder halt 8x/8x bei SLI. Der Controller musste nur leider weichen, weil die scheiß neuen GPUs so ultra lang sind, dass es nicht ins Gehäuse mit steckenden HDD Käfig passte, also sind die Platten nebst Raidcontroller geflogen.
So wird es nun auch bei X670 sein was halt Mega ist wen man z.b ein RAID machen will ohne Abstriche zu machen !
Erst wen ich jetzt noch ne 3 PCIE 4.0 M.2 reinbauen würde würde ich die GPU auf 8 Fach limitieren!
Ehrlich gesagt erschließt sich mir der Sinn davon nicht. Raid 1, also als Mirror ergibt Sinn für die Erhöhung der Datensicherheit. Damit brauchts aber die Bandbreite nicht zwingend bzw. es ist fraglich, warum man Raid 1 mit drei SSDs machen sollte, damit das theoretisch ein Problem sein soll.
Raid 0 -> ergibt mMn keinen Sinn, es sei denn, man braucht exakt den einen einzigen Use Case von sequenziellem Datentransfer. Bei so witzig SSDs wie die Consumer Dinger beutet ne Single 4.0er SSD mit 7GB/sec lesend ca. 133 Sekunden, bis du einmal über so ne 1TB SSD gewandert bist. Nur muss das Zeug ja auch irgendwo hin? Wo hin schreibst du mit 7GB pro Sekunde 1TB Daten!? -> in ne RAM Disk, würde sich anbieten, kommst aber nicht so hoch vom Speicherplatz. In ein externes Storage -> auch möglich, blöderweise brauchts dafür schon mindestens Dual 25GBE oder ne Single 100GBE Verbindung. Die dann wieder an den PCIe Lanes klemmt und dir die Bandbreite auch noch weg mopst.
Für mich wirkt das alles wie, will ich haben, weil is geil. -> kann ich absolut verstehen, aber der Usecase ist extrem speziell und absolut fraglich.
Übrigens, nur mal als kleiner Sidefact - mit dem 5800X3D bist du "dank" Single CCD auf ca. bisschen über 30GB/sec Durchsatz von Cores in Richtung IO Die begrenzt. Wenn deine Grafikkarte da mal richtig los legt und Traffic auf der Fabric erzeugt, dann ist da quasi Dicht... Da verhungert der ganze Rest komplett. -> warum regt man sich da nicht drüber auf!?
Der Traffic, den du mit deinen SSDs erzeugst, der wandert bspw. auch komplett durch den IO Die über die IF zu den Cores und wieder zurück. Um so mehr du da vorn rein kippst, desto sinnbefreiter wird RAM Caching, weil das dummerweise auch durch den selben Falschenhals muss. Die drastisch höhere Bandbreite und niedrigere Latenz, die dir da der RAM Cache bereit stellt beim Arbeiten mit Daten ist abseits des TB weise einlesen von Daten von Disk in aller Regel deutlich mehr wert als paar Punkte mehr im Sequenziellen Durchsatz Bench. Und mit Raid wie gesagt, steigerst du da auch nur theoretisch die Leistung. Ab der dritten m.2 SSD im Raid 0 würdest du überhaupt erstmal in ein theroetisches Limit laufen.
Kannst dir ja mal den Spaß machen und den realen Traffic in/aus deinen SSDs über nen Arbeitstag mal mitprotokollieren lassen. Ich wage sehr zu bezweifeln dass man da wirklich limitiert ist. Das gilt für 5.0 wie auch schon für 4.0.