Vier PCIe-5.0-x4-SSDs auf einer Karte: ASUS kündigt Hyper-M.2-x16-Gen5-Karte an

Thread Starter
Mitglied seit
06.03.2017
Beiträge
112.534
Wieder alles auf eine Karte setzen. Dies möchte ASUS nun mit der neuen Hyper-M.2-x16-Gen5-Erweiterungskarte Enthusiasten ermöglichen. Die Gen4-Version ist bereits lange bekannt, doch nun lassen sich gleich bis zu vier NVMe-SSDs mit der PCIe-5.0-x4-Anbindung kombinieren. Berücksichtigt wurde von ASUS auch eine aktive Kühlung, die Gen5-SSDs natürlich nötig haben.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Leider teurer geworden, da es das ältere PCIe4-Stück für ~60 EUR gibt. Leider kann ADL/RPL dann auch keine 4x4 Bifurcation, sondern nur krumme Zahlen zusammen mit dem M.2-Platz. Und Sapphire-Rapids hat noch immer sehr hohe Plattformkosten, die bereits bei Geizhals nicht zum Kaufen einladen.
 
4 PCIe-5.0-SSDs auf so engem Raum, das dürfte ne ziemliche Heizplatte werden, wenn man die belastet. Ist unter der Abdeckung überhaupt noch Platz für M.2-Kühler?
 
Ist leider auf keinem Bild zu erkennen, wie es innerhalb der Abdeckung ausschaut. Auch da sollten Wärmeleitpads angebracht sein, um die Wärme besser abzuleiten. Aber ja, bei vier Gen5-SSDs unter Last wird es sehr warm werden.
 
Ist leider auf keinem Bild zu erkennen, wie es innerhalb der Abdeckung ausschaut. Auch da sollten Wärmeleitpads angebracht sein, um die Wärme besser abzuleiten. Aber ja, bei vier Gen5-SSDs unter Last wird es sehr warm werden.
Mit solchen Pads hab ich keine gute Erfahrung. Hab gerade eine SSD, auf der ein BeQiuet MC1 saß statt mit den mitgelieferten Pads auf der Oberseite mit Wärmeleitpaste versehen, Da gingen die Temps um 10°C runter.
 
4 PCIe-5.0-SSDs auf so engem Raum, das dürfte ne ziemliche Heizplatte werden, wenn man die belastet. Ist unter der Abdeckung überhaupt noch Platz für M.2-Kühler?

Vermutlich nicht. Ich habe eine ähnliche Lösung (4.0 aber nur) von Gigabyte in Betrieb, dort wurde ein sehr flacher Kühlkörper verbaut der auf den SSDs aufliegt. Aber da ist nicht viel Platz, vieleicht 5-7mm maximal. Die ganze Karte ist sehr schmal, und die Asus siehts ehr ähnlich aus.
 
Leider teurer geworden, da es das ältere PCIe4-Stück für ~60 EUR gibt. Leider kann ADL/RPL dann auch keine 4x4 Bifurcation, sondern nur krumme Zahlen zusammen mit dem M.2-Platz. Und Sapphire-Rapids hat noch immer sehr hohe Plattformkosten, die bereits bei Geizhals nicht zum Kaufen einladen.
Nö, urprünglich waren die teurer. AsRocks Pendant kostet immer noch 100+ €. Diese Karten sind auch nicht wirklich für den Core i Kunden. Denn es werden 80€ für die Karte und 4x 170€ (Crucial T700 1TB). Das sind 760 € für 4TB PCIe5 mehr Speicher. Für das Geld kaufen sich die meisten ein ganzes System. Und ganz ehrlich man bekommt S-R Systen auch schon für knapp 1700 € hin. Wenn einem aber das schon zu teuer ist. Dann ist dies eh das falsche Produkt.

Was mich wundert ist der 6-Pin Stromanschluss. Wozu? Eine Idee @FM4E?
 
ASUS schreibt hierzu: "1 x 6-pin PCIe power connector and two-phase power solution with up to 14-watt output to support the latest NVMe drives." Über den Slot selbst können theoretisch selbst bis zu 75W bereitgestellt werden, aber ich denke ASUS möchte hierbei den PCIe-Slot entlasten und diesen einzig für die Datenübertragung verwenden.
 
Über den Slot selbst können theoretisch selbst bis zu 75W bereitgestellt werden
Das ist nur bedingt richtig. Das gilt einzig für den PEG-Slot, also den PCIe Slot, der für Grafikkarten gedacht ist.
Alle anderen, auch x16 Slots, sind auf 25W begrenzt. Zusätzlich sind die 75W nur bedingt wahr. Auf der 12V Leitung darf auf dem Slot nur 66W gezogen werden. Macht also nur 16,5W pro Slot.
(der Rest sind von der 3,3V Leitung)

Hinzu kommt, dass die Anforderungen an die Stromversorgung, also wie der Strom sich zu verhalten hat (z.B. Welligkeit), stetig steigt. Das wiederum stellt die Mainboards vor neue Herausforderungen.
Nicht umsonst haben immer mehr Mainboards zusätzliche PCIe Poweranschlüsse für das Bereitstellen der Betriebsspannung der Slots. Ein weiterer Aspekt ist die EMV durch die stromdurchflossenen Leiterbahnen, die durch die Art und Weise der Stromentnahme der Geräte, auch immer problematischer wird.

75W von vor 10Jahren sind etwas ganz anderes als heute. Die reine Zahl ist nur die halbe Miete.

Und da ist der sicherste, robusteste Weg, dass man eben die Stromversorgung relativ nah am Gerät nochmal aufbaut. Das passiert btw. auch schon beim DDR5 RAM, so dass das Modul die Stromversorgung (Regler) für sich selber übernimmt.

Weiterhin sollte man bedenken, dass die Leistungsaufnahme bei SSDs nur einen Weg kennt, nach oben. (Ausnahmen mal außen vor)
Wir sind heute schon bei 12W bei einer M.2. Bei U.2 und U.3 haben wir diese Zahl schon länger hinter uns gelassen.
Da sind die rechnerisch maximal 16,5W pro SSD nicht mehr so weit weg, bevor man die SPEC des Ports verlässt.

Also ja, das macht wohl leider Sinn. Die Frage ist, ob die Verwendung des PCIe Power zwingend notwendig ist, oder die Karte, bei entsprechenden SSDs auch mit der Slot Power klarkommt.
 
Zuletzt bearbeitet:
Danke für deinen ausführlichen Bericht, underclocker. Aber das was du schreibst, ist für mich nicht neu. Die 75W beziehen sich auf die theoretische Angabe der PCIe-Spezifikationen. Diese Werte sollten auf dem PEG-Slot natürlich niemals wirklich anliegen, was eben auf Dauer auch schädlich wäre. Dass die kleineren PCIe-Steckplätze keine ~66W liefern können, ist mir auch klar. Die Erweiterungskarte von ASUS ist mit x16 eben Full-Length und demnach sind hierbei die 75W in der Theorie (praktisch eben weniger) die logische Konsequenz.
 
Interessantes Produkt. Als Enthusiast würde ich das gerne mal mit einer Vollbestückung an Crucial PCIe 5-SSDs testen 🥰
 
Dass die kleineren PCIe-Steckplätze keine ~66W liefern können, ist mir auch klar. Die Erweiterungskarte von ASUS ist mit x16 eben Full-Length und demnach sind hierbei die 75W in der Theorie (praktisch eben weniger) die logische Konsequenz.
x16 != PEG.
Es gibt x16 Slot als PEG = 75W und als nonPEG = 25W.
Daher hat das nichts mit der Größe des Slots zu tun, sondern damit, wie dieser Slot deklariert ist.

Oder mit anderen Worten. Ein PEG Slot ist immer x16, aber nicht jeder x16 Slot ist auch ein PEG Slot.
 
Ja, das ist korrekt. Jedoch sind die x16-Steckplätze, dessen Lanes von der CPU kommen, in der Regel PEG-Slots. Zumindest im Desktop-Segment ist dies so.
 
Man kann ja auch notfalls die ASUS-Verkleidung weg lassen und einfach dort die Festspeicher mit den BQ MC1 Pro anbringen.
 
@FM4E
Es gibt aber eben von diesem primären PCIe x16 Slot immer nur einen.
Jeder weitere ist dann idR eben keiner mehr. Und wenn man PLXen einsetzt, sind wir auch gerne mal wieder, auch im Desktop, bei mehreren x16 Slots.
Da man diese Karte aber nicht nur exklusiv für Desktop oder PEG Slots (ich bin mir nichtmal sicher, ob die MB-Hersteller das oder die Leistungsdimensionierung so ausweisen) designt, gebietet es sich als Entwickler eben, da sowas dranzupappen, ungeachtet der anderen Tatsachen oben.
 
@FM4E
Es gibt aber eben von diesem primären PCIe x16 Slot immer nur einen.
Jeder weitere ist dann idR eben keiner mehr. Und wenn man PLXen einsetzt, sind wir auch gerne mal wieder, auch im Desktop, bei mehreren x16 Slots.
Da man diese Karte aber nicht nur exklusiv für Desktop oder PEG Slots (ich bin mir nichtmal sicher, ob die MB-Hersteller das oder die Leistungsdimensionierung so ausweisen) designt, gebietet es sich als Entwickler eben, da sowas dranzupappen, ungeachtet der anderen Tatsachen oben.
Ja, um sich eben abzusichern, macht ASUS' Entscheidung schlicht und ergreifend Sinn. ;)
 
Oder lieber warten bis gute PCIe5-Festspeicher raus sind. Die jetzigen kranken ja noch wie die ersten PCIe4.
 
Oder lieber warten bis gute PCIe5-Festspeicher raus sind. Die jetzigen kranken ja noch wie die ersten PCIe4.
Die haben ja auch alle den gleichen Phison E26 Controller, genau wie die ersten PCIe 4.0 Consumer SSDs alle den Phison E16 hatten und der war nur ein aufgebohrter PCIe 3.0 Controller und noch in 28nm gefertigt wurde. Erst mit dem E18 hat Phison dann einen richtig für PCIe 4.0 designeten Controller rausgebracht, der auch schon in 12nm gefertigt wird, wie E26. Ein PCIe 4.0 Controller muss gegenüber einem PCIe 3.0 Controller aber eben bestenfalls den doppelten Datenstrom in Echtzeit verarbeiten können und braucht entsprechend mehr Rechenleistung. Die kann man durch mehr Kerne, mehr Takt oder eben Kerne einer neueren Architektur mit mehr IPC erreichen, nur egal was man davon macht, es erhöht immer die Leistungsaufnahme, denn auch mehr IPC bekommt man vor allem durch mehr Transistoren für die Architektur hin, die dann auch wieder mehr Strom brauchen.

Das Gleiche gilt dann auch für einen PCIe 5.0 Controller gegenüber einem PCIe 4.0 Controller und daher muss man auch dort zu nochmals besseren und damit aber auch teureren Fertigungen umsteigen. Die nächste PCIe 5.0 Controller Generation dürfte also wohl in "7nm" Prozessen oder sogar darunter gefertigt werden und dann auch entsprechend weniger Leistungsaufnahme haben.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh