Acht PCIe-4.0-SSDs auf einem PCB: Rocket 4 Plus Destroyer 2 liefert 64 TB Rohdatenspeicher

Thread Starter
Mitglied seit
06.03.2017
Beiträge
112.375
sabrent_rocket_4_plus_8tb.jpg
Mit den Consumer-NVMe-SSDs geht es inzwischen bis 8 TB an Speicherkapzität hinauf, sodass diese dem Großteil der Anwender eine ausreichende Speichermenge ermöglichen. Doch geht natürlich immer noch mehr, wenn man im Enthusiasten-Segment unterwegs ist. Mit der Rocket-4-Plus-Destroyer-2-Erweiterungskarte lassen sich gleich bis zu acht PCIe-4.0-M.2-SSDs unterbringen.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Sieht nett aus,
Wie wohl die latenzen sind (sicher grottig).
Ich will nicht wieder die alte diskussion lostreten, aber könnt ihr im artikel die bezeichnung "raid 0" ändern, "raid 0" ist eben kein RAID. ich weis, korinthenkackerei, aber es stimmt nunmal
 
Es heißt nun mal RAID 0, wobei ich deinen Punkt verstehe.
 
Und wo ist der Test?

Ich mag blanke Zahlen und Balken sehen :shot:
 
Je länger der Balken, desto besser :lol:
 
Balken gut, alles gut. :d
 
Interessantes Produkt für Leute die dafür Verwendung haben, bei Sabrent scheint man aber der Namensgebung nach etwas zu viel Warhammer 40.000 konsumiert zu haben :giggle:.
 
Zwischen den beiden M.2-Vierer-Gruppen wurde der PEX88048B0 als PCIe-4.0-Switch von Broadcom hinterlassen, der die 16 Gen4-Lanes als Quelle auf bis zu 8x 4-Gen4-Lanes aufteilt beziehungsweise erweitert.
Switches teilen die Lanes nicht auf, sondern die Bandbreite und zwar dynamisch, solange also die Summe der benötigten Bandbreite der Downlinks nicht Bandbreite des Uplinks nicht übersteigt, ist der Uplink kein Flaschenhals und jedes der Geräte bekommt die Bandbreite die es nutzen kann. Aufteilen ist also in diesem Satz das falsche Wort und führt nur zu Missverständnissen wie so ein PCIe Switch funktioniert.
 
Schade, dass es keinen günstigen und sparsamen PCIe Multiplexer gibt, der zb PCIe 4.0 X8 in 8x 4.0 X1 wandelt. Mir würden für Storage bis 4 GB/s pro NVMe locker reichen. Klar müssen die Preise von 8TB NVMe auch noch runter, nur solange es eben viel zu wenige Anschlüsse gibt, wird ja erst Recht keiner einen Storage damit realisieren.
 
Switches teilen die Lanes nicht auf, sondern die Bandbreite und zwar dynamisch, solange also die Summe der benötigten Bandbreite der Downlinks nicht Bandbreite des Uplinks nicht übersteigt, ist der Uplink kein Flaschenhals und jedes der Geräte bekommt die Bandbreite die es nutzen kann. Aufteilen ist also in diesem Satz das falsche Wort und führt nur zu Missverständnissen wie so ein PCIe Switch funktioniert.
So schön du das nun auch erklärt hast, so ist meine Aussage im Kern dennoch richtig. Klar ist, dass die Karte selbst 16 Lanes aufnimmt und diese zunächst an den Switch weiterleitet. Du hast insofern recht, dass die Bandbreite entsprechend balanciert wird, dennoch wird die Anzahl der Lanes - wenn auch rein auf dem Papier - erweitert und "aufgeteilt". Dass dann am Ende eben "nur" etwa 28.000 MB/s bei rumkommen, steht auf einem anderen Blatt.
 
Schade, dass es keinen günstigen und sparsamen PCIe Multiplexer gibt, der zb PCIe 4.0 X8 in 8x 4.0 X1 wandelt.
Dazu bräuchte man einen PCIe Lane Switch, aka PLX Chip, denn wenn der PCIe Host Controller nur x8 bietet und keine Aufteilung der 8 Lanes in 8 x1 Lanes erlaubt (was Chipsätze üblicherweise tun, CPUs aber normalerweise eben nicht), dann unterstützt der auch nur ein PCIe Gerät an diesen 8 Lanes. Dies eine Gerät wäre dann eben der PCIe Lane Switch, der dann seinerseits wieder mindestens 8 Geräte unterstützen muss, denn neben der Anzahl der Lanes ist bei PCIe Host Controllern auch die Anzahl der Geräte limitiert. Dies gilt auch für PCIe Lane Switchs, die ja für die Geräte an ihren Downlinks dann der PCIe Host Controller sind und damit sind sie praktisch wie PCIe Host Controller mit PCIe Anbindung, ganz ähnlich wie USB oder SATA Host Controller oder NICs. Bei denen kann ja auch jeder Port die volle Geschwindigkeit erreichen, solange es in Summe nicht so viel ist, dass die Bandbreite der Anbindung zum Flaschenhals sind.

Deshalb ist auch die Idee der Aufteilung der PCIe Lanes falsch. Nimm z.B. den Marvell 9230 SATA Host Controller, der hat 2 PCIe 2.0 Lanes und 4 SATA 6Gb/s Ports. Hängte da nur eine SSD dran, dann kommt man fast die Performance eines nativen SATA 6Gb/s Ports, aber bei 2 SSDs im RAID 0 läuft man in den Flaschenhals der Anbindung, denn da wird ja auch nicht eine PCIe Lane für zwei SATA Ports und die andere für die anderen beiden genommen, sondern die PCIe Anbindung ist der Uplink und die 4 SATA Ports sind die Downlinks.

dennoch wird die Anzahl der Lanes - wenn auch rein auf dem Papier - erweitert und "aufgeteilt".
Nein, die Lanes werden nicht aufgeteilt, auch nicht auf dem Papier! Würden sie dies, dann wären nicht alle 8 Slots lauffähig, wenn die Karte in einem Slot mit weniger als 8 Lanes stecken würde, das ist sie aber, denn es ist bei jeder Karte mit einem PCIe Lane Switch der Fall. Nur die Bandbreite wird aufgeteilt und auch nur, wenn die Anbindung wirklich zum Flaschenhals wird, bei weniger Bedarf an Badbreite von den Downlinks, kann auch jeder von denen seine vollen Bandbreite bekommen.
 
Nein, die Lanes werden nicht aufgeteilt, auch nicht auf dem Papier! Würden sie dies, dann wären nicht alle 8 Slots lauffähig, wenn die Karte in einem Slot mit weniger als 8 Lanes stecken würde, das ist sie aber, denn es ist bei jeder Karte mit einem PCIe Lane Switch der Fall. Nur die Bandbreite wird aufgeteilt und auch nur, wenn die Anbindung wirklich zum Flaschenhals wird, bei weniger Bedarf an Badbreite von den Downlinks, kann auch jeder von denen seine vollen Bandbreite bekommen.
Die 16 Lanes (bestenfalls) gehen in den Switch, das ist Fakt! Von dem Switch aus werden die acht M.2-Steckplätze mit je vier Lanes versorgt. Wenn das kein Erweitern und Aufteilen ist. Aus den 16 Lanes werden quasi 32 Lanes, damit alle acht SSDs auf dem Papier mit vier Lanes angebunden sind. Die aus dieser Konstellation erreichbare Bandbreite kommt dann erst danach. Aber lass gut sein Holt, mit dir zu diskutieren macht einfach keinen Sinn, das haben auch schon viele andere User hier sehr gut erkannt. ;)
 
Wenn das kein Erweitern und Aufteilen ist.
Es ist eine Erweiterung, aber kein Aufteilen! Aufteilen wäre es, wenn Lanes des Uplinks geteilt und fest an einen Downstream weitergereicht würden. Dem ist aber nicht so! Die 16 Lanes des Uplinks enden in dem Switch, deshalb ist er für den PCIe Host Controller an dem er hängt, also i.d.R. den in der CPU, ja auch nur ein Gerät. Der gesamte Datenstrom sowohl der Downlinks als auch des Uplinks geht in den Switch und wird dort vermischt, daher ist es eben keine Aufteilung der Lanes. Es ist als wenn in einen Behälter 16 Wasserschläuche reingehen und 32 ausgehen, da würde man ja auch nicht sagen, dass die 16 Leistungen in 32 aufgeteilt werden, dies wäre der Fall, wenn man an jeden der 16 Schläuche ein Y-Stück mit 2 Schläuchen schrauben würde.
 
Bandbreite dynamisch aufteilen ist eine gute Erklärung, die auch verständlich ist. Bandbreite erweitern... Geht nicht. Beziehungsweise passt auch nicht.

Ansonsten ja, zum Diskutieren müssen beide Seiten gesprächs- und kompromissbereit sein. 😉
 
Bandbreite dynamisch aufteilen ist eine gute Erklärung, die auch verständlich ist. Bandbreite erweitern... Geht nicht. Beziehungsweise passt auch nicht.
Von Bandbreite erweitern habe ich auch nichts geschrieben. ;) Es ging mir in erster Linie um die Lanes und um nichts weiter. Aber da kommen Holt und ich eben nicht zusammen. Muss ja auch nicht.
 
Hmmm, vom Preis her geht das eigentlich.
zb wenn man von einem zentralen all Flash Storage auf vsan wechseln möchte. (sofern unterstützt)
Oder keine Lust hast auf die großen Hersteller und sich einen Server mit 4 der Karten hinstellen möchte mit zfs drunter.
 
...ohne ECC-RAM. ;)

Von Linux-Jüngern werde ich angepisst, weil ich BtrFS verwende. Dabei geht es mir aber ausschließlich um das Nachzählen der Bits:

Die Snapshot-Funktionalität habe ich deinstalliert. Macht nur Ärger. Ein Snapshot ist kein Backup.

PS
Ich laste absichtlich meine SSDs kaum zu 50% aus, wegen Over-Provisioning usw. Damit hätte ich dann wohl 7000€ Over-Pricing. :) :)
 
Zuletzt bearbeitet:
Warum ohne ECC RAM?
Dachte eher an ein Poweredge oder sowas.
 
Warum ohne ECC RAM?
Das war als Witz gemeint und bezog sich auf das besonders sichere Dateisystem ZFS. (Vllt hatte ich früher mal an einem Rechner mit ZFS gearbeitet.)

Wenn es nach mir ginge, dürfte es gar keine Computer ohne ECC-RAM geben.
 
ach komm, umkippende Bits die erst beim einspielen von Backups auffallen sind doch ne feine Sachen :)
 
Die Karte selber kostet 1400EUR. Macht bei 4 Stück mal eben schlappe 5600EUR, ohne SSDs.
Dafür bekommst du einen PowerEdge oder auch Proliant mit 24x U.2/U.3 Ports ausgestattet. (reiner Switch von SAS weg, dafür nur 24 Bays)
Vorzugsweise setzt man auf EPYCs und hat die SSDs dann direkt angebunden, mit full lanes.

Da bekommt man dann auch PLP-SSDs rein, bzw. Enterprise SSDs im allgemeinen, die man in so einem System schon eher haben will.

Setzt man dann noch auf vSAN braucht man ja gleich 3 solcher Systeme, was also 16800EUR nur für diese Karten bedeutet. Dafür bekommt man einen vollausgestatteten Server mit allem pipapo, mit SSDs.
Wer solche Storagepools hostet, setzt hoffentlich nicht mehr auf Consumer SSDs und das sind aber die, die primär auf diese Karte passen. (Enterpreise M.2 ist quasi nicht existent)

Für eine Workstation als "Cache" in jedem Fall ne nette Idee, besonders, wenn man eh schon wenig Platz hat und ggf. noch eingeschränkt ist, weil die Station kein Bifu kann.
 
OT
Hähähä....

Ich habe überhaupt nichts von Bedeutung auf meiner Celsius M770, aber es stinkt mir, wenn ich in einem Windows-Forum lese: Mach mal sfc /scannow oder dism scan...

Ich mache öfter mal kleine Backups, weil die ja sofort überprüft werden. Dann sehe ich: "Es scheint noch alles im grünen Bereich zu sein."

Für eine Workstation als "Cache" in jedem Fall ne nette Idee,
... aber etwas "speziell". Ich denke manchmal an ein Kästchen mit Lüftung im DVD-Laufwerksschacht plus dazugehörige PCIe-Adapterkarte plus entsprechendem Kabel - zum bezahlbaren Preis. Die NVMe-SSDs vllt hochkant von vorne einsteckbar.
 
Rocket Destroyer? Was geht bei den Leuten in der PR?
 
Rocket 4 Plus! Destroyer 2!
Dafür haben die sich richtig Mühe gegeben. Soviel Zeit muss sein! 😜
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh