Crucial MX300 SSD mit 750 GB und 3D-NAND im Test

DoubleJ

Redakteur , Moderator
Thread Starter
Mitglied seit
02.01.2004
Beiträge
9.605
Ort
Südhessen
<p><strong><img src="/images/stories/galleries/reviews/crucial-mx300-750gb/teaser.jpg" alt="teaser" style="margin: 10px; float: left;" />Crucial meldet sich zurück und packt mit der MX300 aktuelle Speichertechnologie in ein 2,5-Zoll-Laufwerk. Den Anfang macht dabei ein einziges Modell mit einer ungewöhnlichen Speicherkapazität von 750 GB, das gegen die Samsung SSD 850 EVO und andere Mainstream-Laufwerke bestehen soll. Die wesentliche Neuerung ist dabei der 3D-Speicher, der in Zukunft bei allen Laufwerken von Crucial zum Einsatz kommen soll. Beim Aufbau des Speichers verfolgen Micron und Intel dabei eine grundsätzlich andere Strategie als Samsung – ob sie aufgeht, untersuchen wir auf den folgenden Seiten.</strong></p>
<p>Mit der Crucial MX300 gibt es nun ein weiteres Laufwerk auf...<br /><br /><a href="/index.php/artikel/hardware/storage/39452-crucial-mx300-ssd-mit-750-gb-und-3d-nand-im-test.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Cooler Test, habe was dazugelernt. Leider ist die MX300 wohl aus gutem Grund nur mit 750GB erhältlich und schließt somit die Lücke zwischen der MX200 mit 500GB und der MX200 mit 1 TB. Preislich reiht sie sich eigentlich ziemlich in das Bild ein und liegt pro GB kaum darunter, sodass ich persönlich von der Leistung weiterhin die MX200 bevorzugen würde.
 
Meldet sich Crucial wirklich zurück oder nicht doch eher ab, nachdem nun Highend PCIe SSDs unter dem Markennamen "Ballistix by Micron" statt wie bisher unter dem Label Crucial laufen sollen und Ballistix zu einer eigenständigen Gaming-Marke promiviert hat?

Mit einem SLC-Cache, von Crucial Dynamic Write Acceleration genannt, werden zur kurzzeitigen Performancesteigerung Schreibzugriffe abgefangen und erst zu einem späteren Zeitpunkt in den TLC-Speicher geschrieben.
Da es wie bisher nur bei MLC SSDs üblich ein Pseudo-SLC Schreibmodus ist der auf allen Zellen angewendet werden kann und kein fester Cachebereich mit Zelle die nur im SLC Modus arbeiten wie es sonst bei allen SSDs TLC und Pseudo-SLC Cache implementiert ist, würde ich es auch nicht als SLC-Cache sondern als Pseudo-SLC Schreibmodus bezeichnen. Der Unterschied ist eben, dass der größer ausfallen kann, aber die Write Amplification dadurch beim Umkopieren steigt, während man den festen Pseudo-SLC Cachebereichen die P/E Zyklen in diesen nur als SLC genutzten Zellen gar nicht mitzählt, die vertragen im Pseudo-SLC Modus ja auch deutlich mehr P/E Zyklen. Da man dann auch Daten die schon ungültig geworden sind weil überschrieben oder getrimmt wurden nicht in die normalen NAND Bereiche kopieren musst, erreicht man bestenfalls sogar eine Write Amplification von unter 1.

Damit ist auch der Teil "erst zu einem späteren Zeitpunkt in den TLC-Speicher geschrieben" falsch, denn alle Daten werden bei der MX300 immer in den TLC Speicher geschrieben, der Cache ist eben nicht in einem besonderen Bereich fest angelegt, sondern je Zelle kann auch als Pseudo-TLC Schreibcache dienen. Die Werte später nur umkopiert um dann statt einem Bit wieder 3 Bits in jeder Zelle gespeichert zu haben, sonst wäre die Kapazität ja nur noch 250GB.

Die von Intel und Micron verwendete Technologie führt zu einer Kapazität von 384 Gbit pro Die, wobei auf der Crucial MX300 750 GB insgesamt 16 Dice zum Einsatz kommen, was eine Bruttokapazität von 768 GByte ergibt.
Es sind 768GiB (Gibiybte) (bzw. 824GB) denn die NANDs haben ja auch nicht wirklich 768GBit sondern Gibibit. Das sieht man hier am Beispiel dieser alten Micron NANDs gut:

attachment.php


Jede Page hat 8192 Byte (+448 für Extradaten wie die ECC), also 8192*8 Bits, ein Block enthält 256 Pages und als 64Gb Die hat es 4096 Blöcke. Macht also 8192*8*256*4096 = 68719476736Bit. 68719476736/1024^3 sind dann genau 64 Gibibit und nicht 64 Gigabit, dafür hätte man durch 1000^3 teilen müssen.

Ein Feature, das man sonst praktisch nur bei wesentlich teureren Enterprise-Laufwerken findet, ist eine Power-Loss-Protection.
Wobei man aber zwischen den Lösungen bei Enterprise und Client Laufwerken unterscheiden muss. Die Enterprise SSDs haben dann i.d.R. eine Full-Power-Loss Protection die auch die Userdaten im Schreibcache absichert, während Client SSD wie die Crucial m500, m550, MX100, MX200 und nun die MX300 oder auch die OCZ Vector 180 nur eine Lösung zu Absicherung der Data-at-Rest haben, also der Mappingtabelle und Low-Pages. OCZ sagt das auch offen und es war in allen Reviews zu lesen, auch bei euch:
Bzgl. der Crucial SSDs hat Anandtech es im Review der Micron 500DC klargestellt:
Die MX300 ist damit für den Enterpriseeinsatz also nicht gleichwerte geeignet wie eine echte Enterprise SSD, dafür ist das Feature nicht gedacht und die Kondensatoren sind zu knapp dimensioniert, die auf der M500DC sind deutlich größer und dabei hat die MLC NANDs in die man im Zweifel die Daten deutlich schneller schreiben kann als in TLC und auf den Pseudo-SLC Schreibmodus kann man sich auch nicht immer verlassen, der könnte schon voll sein und damit nicht zur Verfügung stehen wenn gerade plötzlich die Spannungsversorgung unterbrochen wird.

Die Daten, die eigentlich in die Upper Page hätten geschrieben werden sollen, gehen dabei allerdings verloren. Daher handelt es sich nur um eine teilweise und nicht um eine vollständige Power-Loss-Protection.
Das stimmt so auch nicht, die Upper Page muss vollständig geschrieben werden, sonst kann man die Lower Page nicht schützen aber es wird dann eben nur noch die eine Upper Page vollständig mit Nutzerdaten beschrieben bei der diese Vorgang schon in Gang war und die anderen Userdaten aus dem Schreibcache gehen verloren, da die Kapazität der Stützkondensatoren eben nicht für alles reicht und die Verwaltungsdaten, also vor allem die Mappingtabelle (bei Micron L2P table - logical to physical - genannt) eben auch noch gesichert werden müssen.

es wurden bis dahin also ca. 50 GB mit voller Geschwindigkeit geschrieben.
50GB? komisch, bei Computerbase waren es nur 30GB mit der Firmware-Version nun M0CR011, mit der vorherigen M0CR010 deutlich mehr. Habt ihr das gemessen oder einfach nur aus der Geschwindigkeit in den 5s und der Zeit hochgerechnet? Die Leistungsbeständigkeit ist ja sowieso ein großes Problem der MX300, was die Unterschiede erklären könnte.

Bzgl. der Frage wie viel man davon im Alltag merkt, sollte man auch eine Messung mit einer fast vollen SSD, z.B. zu 80% gefüllt, ausführen, denn wie die Besitzer einer Toshiba SSDs mit so einem Pseudo-SLC Schreibmodus wissen, kann es dann bzgl. der Cachenutzung und damit bei der Schreibperformance schon deutlich anderes aussehen und bei den meisten anderen Reviews viel die Performance der MX300 deutlich, wenn diese nicht mehr leer war und zwar schon bei nur 50% Befüllung und Alltag dürfte kaum jemand auf seiner SSD dauernd die Hälfte unbenutzt lassen.

Unter Last ist der Stromverbrauch ziemlich niedrig
Ist auch so nur möglich, weil die eben einen großen Bereich als Pseudo-SLC Schreibcache nutzt und das schreiben nur eines Bits geht nicht nur schnell, es verbraucht auch sehr wenig Energie und wenn nur dann die Leistungsaufnahme ermittelt wird, entsteht halt ein falscher Eindruck. Der Controller muss die Daten hinterher ja noch umkopieren, kehrt also nicht so bald zuur gering Idle Leistungsaufnahme zurück, Akkulaufzeit würden also nicht so lang sein wie die Werte es vermuten lassen und sollte daher wirklich mit einem Notebook ermittelt werden. Diese normalen Messungen der Leistungsaufnahme sind auch wegen solche Pseudo-SLC Caches und der damit verbundenen Aktivitäten im Idle einfach nicht mehr geeignet darüber eine Aussage zu treffen wie lange ein Notebook auf dem Akku mit dieser oder jener SSD laufen wird. Rückschlüsse auf die Energieeffizienz aufgrund solche Momentaufnahmen verbieten sie damit ebenfalls.

Leider habt ihr die MX300 auch nur im Neuzustand gebencht, also leer und daher nicht die bei dieser SSDs besonders ausgeprägten Leistungsabfälle bei zunehmender Befüllung erkannt, obwohl andere Reviews die früher erschienen sind wie der von Computerbase auf diese Problem schon aufmerksam gemacht haben. Dieser Review ist daher leider als ähnlich schwach wie die Leistung der MX300 einzustufen.

microna.png
 
Zuletzt bearbeitet:
Die MX300 ist damit für den Enterpriseeinsatz also nicht gleichwerte geeignet wie eine echte Enterprise SSD, dafür ist das Feature nicht gedacht und die Kondensatoren sind zu knapp dimensioniert, die auf der M500DC sind deutlich größer und dabei hat die MLC NANDs in die man im Zweifel die Daten deutlich schneller schreiben kann als in TLC und auf den Pseudo-SLC Schreibmodus kann man sich auch nicht immer verlassen, der könnte schon voll sein und damit nicht zur Verfügung stehen wenn gerade plötzlich die Spannungsversorgung unterbrochen wird.

Anhang anzeigen 364908

Ist das bei der Samsung TLC 3DV 16TB SSD besser gelöst ?
 
Das stimmt so auch nicht, die Upper Page muss vollständig geschrieben werden
Was das angeht gibt es eine eindeutige Aussage von Micron:
"The hold-up capacitors provide only 1ms or so of hold-up time, which is enough time to place the signal in a lower-page program at its original level prior to the start of the upper-page program"
 
Ist das bei der Samsung TLC 3DV 16TB SSD besser gelöst ?
Keine Ahnung was Du genau meinst, aber die 16TB von Samsung ist eine Enterprise SSD und bei denen verzichtet Samsung ja i.d.R. auf einen Pseudo-SLC Cache oder Schreibmode und dann dürfte die 16TB auch eine Full-Power-Loss Protection haben, hat also Kondensatoren mit ausrechend Kapazität um auch mit Sicherheit noch alles nötig zu schreiben.

1ms ist zwar sehr, sehr wenig, die SSD schreibt im Zweifel mit knapp 300MB/s, somit könnte man aber dann 300kB in der einen MS schreiben. Selbst wenn die Pagesize 24k betragen sollte, wäre es also locker möglich die Page zuende zu schreiben und man muss ja keine ganze Page mit allen 3 Bits beschreiben, es reicht ja die upper-page. Denn wenn es so einfach wäre das man nur ein Flag setzt und sagt, ok lese nur die Low-Page aus, dann hätte Micron das sowieso saublöd gelöst, denn es wäre dann viel einfach diese Flag erst zu setzen, wenn die upper page auch wirklich zuende geschrieben wurde. Also die Erklärung kaufe ich denen nicht ab und auch die Bildchen mit den Spannungleveln der Bits in der Lower Page stimmt so nicht:
lower_page.png

upper_page.png

Das mit denen der Spannungslevel mit der programmierten Upper Page habe ich mal direkt darunter gemacht und da sieht man, dass die Spannungen demnach leicht fallen oder steigen müssen, aber man kann beim Schreiben nur noch zusätzliche Elektronen einbringen, aber keine mehr entfernen (das geht nur beim Löschen und dann immer für einen ganzen Block). Daher müsste die Abstände der Spannungen in der Lower Page größer sein und das Bild so aussehen wie mit L0 und L2. Diese beiden Spannungslevel werden beim Programmieren der ersten Bits erzeugt, wobei L0 eben keine Ladung bedeutet und dann wird eben ggf. beim Programmieren nächsten Bits noch ein wenig Ladung zugegeben oder nicht und je nachdem welchen Zustand das erste Bit hatte, geht es dann von L0 auf L1 oder von L2 auf L3 oder eben nicht. Ob jetzt 1 oder 2 Bits geschrieben wurden, muss sich der Controller natürlich auch irgendwo merken.
 
Das mit denen der Spannungslevel mit der programmierten Upper Page habe ich mal direkt darunter gemacht und da sieht man, dass die Spannungen demnach leicht fallen oder steigen müssen
L0 und L1 stehen doch genau an der gleichen Stelle wie vorher, siehe die Referenz "0 Volt". Wenn die Upper Page programmiert wurde, haben L0 und L1 nur andere (logische) Wertigkeiten bezogen auf die Lower Page, nämlich immer "1". (Ohne Upper Page steht L0 für logisch 1 und L1 für logisch 0.)
 
Zuletzt bearbeitet:
Mehrere Test zu Crucial BX 300 gelesen, auch aus Amiland, die Crucial freundlich sind, sie kam bei THG USA ziemlich schlecht weg, da ist hier das Review sehr freundlich... Samsung 850 Evo bestellt.. Leider kein Witz.. Mir hätte die Größe von 750 GB gereicht, aber Leistung und Preis... Es würde nun eine 1TB Samdumm. Ich wollte das vermeiden, aber, entweder die Crucial MX, die Sandisk Ultra II als Budget Lösung, oder halt die Evo. Es wurde nun die EVO, obwohl die bei dem Preis kein Power Loss hat ( Data-at-Rest ;) danke Holt), eigentlich eien Unverschämtheit bei dem Preis. Aber, aus Samdumm Logik nur eine EVO..
 
Zuletzt bearbeitet:
L0 und L1 stehen doch genau an der gleichen Stelle wie vorher, siehe die Referenz "0 Volt".
Ist doch trotzdem totaler Mumpitz, denn erstens kann man da keine positive und negative Ladung einbringen, 0 Volt müsste also am Ende stehen und kann nur in der Mitte stehen, womit es statt 0V eine Vref für den Zustand wäre, dass keine Ladung in die gelöschte Zelle eingebracht wurde. Von da an kann man nur noch Elektronen einbringen, also nach rechts wandern oder muss den ganzen Block löschen.

Wenn die Upper Page programmiert wurde, haben L0 und L1 nur andere (logische) Wertigkeiten bezogen auf die Lower Page, nämlich immer "1". (Ohne Upper Page steht L0 für logisch 1 und L1 für logisch 0.)
Ja eben, was vorher im oberen Bild L1 war ist dann nämlich im unteren L2, wenn beide Bit 0 sind und wird zu L3 wenn in der Upper Page eine 1 steht, denn in dem Fall fügt man mehr Elektronen hinzu. Umgekehrt fügt man dann Ladung hinzu, wenn im Lower Page eine eine 1 und im Upper eine 0 steht und sollte dann die Spannungslevel erzielen der Normalverteilungskurve eben im unteren Bild L1 ist.

Das Problem ist nur, dass diese L1 im oberen Bild keinen Platz zwischen dem dortigen L0 und L1 findet, dafür reicht der Abstand nicht, bzw. sind die Kurven zu breit. So wie oben dürften die Spannungen nach dem Schreiben des ersten Bits nur dann verteilt sein, wenn es wirklich SLC NAND oder eben ein NAND im Pseudo-SLC Modus in einem festen Pseudo-TLC Schreibcache ist. Wenn es aber wie bei der MX200 und MX300 ein Pseudo-SLC Schreibmodus in dem normalen Bereichen der MLC/TLC NANDs ist und das zweite Bit doch auch noch später geschrieben wird, dann ist die Toleranz für die Genauigkeit beim Schreiben des ersten Bits eben viel enger, denn es muss ja noch Platz für den (bei TLC die) nächste(n) Normalverteilungskurven der Spannungen der Upper Page(s) bleiben, denn bei denen fügt man ja immer nur noch ein wenig Ladung hinzu. Das obere Bild ist daher im Zusammenhang mit der MX200/MX300 einfach nur irreführen, es würde für BX200 passen.

Michalito, ein Review sollte nie den Herstellern freundlicher gesinnt sein als den Lesern, denn auch wenn man hofft sich so weiterhin Samples zu sichern, nutzt es am Ende nichts wenn außer den Fanboys keiner mehr die Lobhudelei liest. Diese Stützkondensatoren bei den Crucial und auch bei der Vector 180 sehe ich eher als eine Notlösung für ein Problem an, welches andere SSD in Umfang gar nicht haben. Micron/Crucial hat ja bei der m4 schon massiv mit Probleme des Nichterkennens nach plötzlichen Spannungsabfälle zu kämpfen gehabt und schreibt extra die LBAs nicht nur in die Mappingtabelle, sondern auch noch einmal zu den Daten, es gibt ja für die ECC und auch solche Daten extra noch hinter jeder Page zusätzliche Bytes. Die m4 Power Cycle Wiederbelebung dürfte einfach nur den Controller dazu anregen mit diesen Informationen die aufgrund eines plötzlichen Spannungsabfalls korrupt gewordene Mappingtabelle zu rekonstruieren und das vermeidet man eben, wenn man durch die Stützkondensatoren ein Zurückschreiben des Teils der Tabelle ermöglicht, der im DRAM Cache schon anderes als im NAND hinterlegt ist. So ganz scheint es auch nicht immer zu klappen, denn zuweilen liest man auch von gebrickte m500, m550, MX100 (an eine MX200 kann ich mich gerade nicht erinnern) die mit der Methode wiederbelebt werden konnten, bei denen also eine korrupte Mappingtabelle das Problem war. Bei anderen Herstellern kommen gebrickte SSDs fast nicht vor und selbst die BX100, die ja keine Stützkondensatoren hat, schneidet in der Statistik bei hardware.fr durchweg besser ab als die Crucial Modelle mit Marvell Controllern:
Die Samsung 850er habe ich mal drin gelassen, da die ja wegen der großen Stückzahlen von Samsung recht repräsentativ für SSDs ohne Stützkondensatoren sein dürften und die schneiden eben nicht schlechter ab die Crucial SSDs mit Stützkondensatoren, je nach Modell und Kapazität liegt mal die einen und mal die anderen vorne, die BX100 ist aber immer besser als die Crucial mit Marvell Controllern, die alle Stützkondensatoren haben. Eine Vorteile sehe ich also nicht in diesen Stützkondensatoren, sondern werte es eher als eine Notmaßnahme um ein Problem in den Griff zu bekommen, welches selbst Crucial mit anderen Controllern nicht hat. Der Preis dafür war bisher auch immer eine Leistungsaufnahme im Idle, vor allem ohne LPM (die ging von den ca. 600mW der m4 mit der m500 bis zu MX200 auf etwa 1W hoch), was man aber scheinbar bei der MX300 nun endlich in den Griff bekommen hat.

Die MX300 ist eine schwache SSD, schwächer als die MX200 die schon schwächer als die MX100 war und die wiederum war schon von Anfang an unter der m550 positioniert, auch wenn sie der sehr nahe gekommen ist. Die BX200 ist deutlich hinter der BX100, die Tendenz ist damit klar nach unten gerichtet. Daher ist es schon logisch wenn Micron nun versucht Ballistix als neue "high performance" zu etablieren, nur ist es schade um Crucial die mit der C300 und m4 damals sehr gute und bei der Performance führende SSDs hatten.

Laut Computerbase haben die 3D NANDs von Micron als TLC 1500 und als MLC 3000 P/E Zyklen, was die Hälfte dessen ist was Samsungs 3D NANDs der 2. Generation bieten, die Performance liegt offenbar auch weit unter der von Samsungs 3D NANDs, denn eine 850 Evo 500GB schafft auch ohne Pseudo-TLC Cache ihre 500MB/s schreibend und bei 4k lesend mit optimalen System um die 50MB/s, hat also auch lesend sehr geringe Latenzen. Damit überlässt IMFT weiterhin erstmal Samsung das Feld, aber mit dem 3D XPoint hat man ja auch eine wahrscheinlich noch einmal viel bessere Speichertechnologie in der Hinterhand und von daher macht es dann schon Sinn, wenn man beim 3D NANDs vor allen auf die Produktionskosten optimiert hat um damit den Budget Bereich abzudecken. Nur nutzt das dem heutigen Interessenten an einer gut performenden SSD nichts, wenn sie dann irgendwann eine Top-SSD mit 3D XPoint kaufen können. Gibt es von Micron überhaupt schon einen Termin dafür? Intel will ja noch diese Jahr eine bringen.
 
Ist doch trotzdem totaler Mumpitz, denn erstens kann man da keine positive und negative Ladung einbringen, 0 Volt müsste also am Ende stehen und kann nur in der Mitte stehen, womit es statt 0V eine Vref für den Zustand wäre
Wo man die "0 Volt" hinsetzt, ist doch relativ egal. 0V sind da, wo die Masseleitung angeschlossen wird, es gibt ja nun keine absoluten Spannungen, sondern immer nur Potenzialdifferenzen. Ob es glücklich ist, die 0V da hinzusetzen, darüber kann man diskutieren (wenn man das möchte), aber letztendlich ist es egal.

Ja eben, was vorher im oberen Bild L1 war ist dann nämlich im unteren L2
Lässt du dich eventuell von der mittleren orangenen Markierung verwirren? Die 0V sind nach wie vor an der gleichen Stelle, deswegen bleiben auch L0 und L1 an der gleichen Stelle. Je nachdem, ob die Upper Page programmiert wurde oder nicht, werden sie nur anders interpretiert.

Das obere Bild ist daher im Zusammenhang mit der MX200/MX300 einfach nur irreführen, es würde für BX200 passen.
Wie es im Text steht ist das Beispiel für MLC-Speicher. Dass es somit nicht 1:1 auf TLC-Speicher passt, ist klar. Das Prinzip ist aber identisch.
 
Danke Holt, für deiene ausführliche Erklärung der "Power Loss Stützkondensatoren" Geschichte in Consumer SSD, mal wieder was gelernt. Ich fand beim durchlesen dieses Reviews hier das die MX aufällig gut wegkam gegenüber, vorallem angelsäsischen Reviews, und, es ist wie du sagst, seit der MX 100 geht es bei Crucial leider mit jeder Neuerscheinung bergab, und nicht bergauf. Schade.
 
Zuletzt bearbeitet:
seit der MX 100 geht es bei Crucial leider mit jeder Neuerscheinung bergab, und nicht bergauf.
Was letztlich auch an dem Konsumverhalten liegt. Selbst hier im Forum wird schon teilweise TLC- Speicher empfohlen, wo nur 10€ Unterschied zu MLC oder 3D-V-NAND wäre. Das stört mich noch ein bisschen mehr, als mit billigen Netzteilen. Ich finde, dass an einem gewissen Punkt auch mal Schluss sein muss mit dem Sparen.
 
Kommt drauf an, ob man den String nach 3 Buchstaben beendet oder mehr zulässt...

Edit: Also ich habe bewusst TLC aus 3D-V-NAND ausgeklammert, weil ich selbst, sofern MLC nicht im Budget ist, auch TLC 3D-V-NAND empfehle, aber eben nicht planaren TLC.
 
Zuletzt bearbeitet:
Beknackt, dass die MX-Reihe jetzt auch TLC-Speicher bekommt.

Damit ist jeder Sinn hinter der Nomenklatur bei Crucial dahin. -.-
 
Die Bezeichnungen Mainstream und Budget sind weiterhin sinnvoll, auf den verwendeten Speicher haben sich die Namen nie bezogen.
TLC ist für mich der Inbegriff von Budget-SSDs.

Es macht in meinen Augen auch absolut keinen Sinn, dass die Vorgänger mit hochwertigem MLC-Speicher ausgestattet waren und nun plötzlich in der selben Reihe auf billigen TLC umgeschwenkt wird.

Das geht für mein Empfinden schon in Richtung unterschwellige Kundentäuschung - nicht im juristischen Sinne, sondern dahingehend, dass dem Interessenten hier ein besserer Nachfolger der MLC-SSD MX200 vorgegaukelt wird.

Gesendet von meinem SM-N9005 mit Tapatalk
 
Die Samsung SSD 850 EVO verwendet ebenfalls TLC-Speicher und ist damit eine der schnellsten SATA-SSDs, also alles andere als Budget.
Die Implikation "TLC -> Schlecht" ist jetzt genauso unangebracht wie "MLC -> Schlecht", als die meisten SSDs noch SLC-Speicher hatten :)

Eine Unterscheidung nach 2D/3D wäre da schon deutlich sinnvoller, auch wenn es trotzdem mehr auf das Gesamtpaket ankommt.
Mit hoher WA kann ein Controller jeden Speicher in kurzer Zeit kaputtschreiben.
 
Zuletzt bearbeitet:
Die Samsung SSD 850 EVO verwendet ebenfalls TLC-Speicher und ist damit eine der schnellsten SATA-SSDs, also alles andere als Budget.
Naja, wenn man 3D-NAND generell als Weiterentwicklung des planaren Speichers betrachtet, ist auch TLC 3D-NAND die Budgetversion von MLC 3D-NAND. TLC hat schon grundsätzlich große Nachteile, wenn man diese Speichervariante jeweils mit dem entsprechenden MLC- Pendant vergleicht. Trotzdem profitiert es von der dreidimensionalen Struktur. Deshalb finde ich auch, dass man TLC von TLC 3D-NAND unterscheiden sollte.
Trotzdem ist die 850 Evo natürlich eine ganz ordentliche SSD, auch wenn ich persönlich generell zur Pro greifen würde.
 
Zuletzt bearbeitet:
Also ich habe bewusst TLC aus 3D-V-NAND ausgeklammert, weil ich selbst, sofern MLC nicht im Budget ist, auch TLC 3D-V-NAND empfehle, aber eben nicht planaren TLC.
V-NAND ist der Name von Samsung für sein 3D NAND und wie die MX300 zeigt, muss man auch unter den 3D NANDs zwischen den Herstellern unterscheiden. Micron gibt für sein 3D NANDs als MLC nur die gleichen 3000 P/E Zyklen an wie Samsung für sein V-NAND als TLC und von der Performance her scheint Samsungs V-NANDs als TLC dem von Micron ebenfalls klar überlegen zu sein, zumindest wenn man die MX300 mit einer 850 Evo 500GB vergleicht. Die 3D NANDs der andere Hersteller kennen wir noch nicht, aber man macht es sich zu einfach, wenn man alle 3D NANDs in einen Topf wirft und ebenswenig kann man einfach pauschal alle TLC NANDs beurteilen, planare 15/16nm TLC NANDs unterscheiden sich schon sehr gewaltig von Samsungs V-NAND und das von Micron scheint dazwischen zu liegen. Hoffentlich ist es dann billig genug in der Herstellung, damit Crucial wenigstens über den Preis verkaufen kann, denn Mainstream ist die MX300 nur dem Namen nach, von der Leistung her ist es eine Budget SSD.
 
Kann es vielleicht sein das Crucial erst anfangsschwierigkeiten hat die mit Softwareoptiemierungen gelöst werden können ?

Und dieser 3D NAND ist ja eine gemeinschaftsendwirklung mit Intel von den bin ich recht gute qualität gewöhnt,
was wird den bald an Intel 3D NAND SSD angeboten ?

klein
 
Und dieser 3D NAND ist ja eine gemeinschaftsendwirklung mit Intel von den bin ich recht gute qualität gewöhnt,
was wird den bald an Intel 3D NAND SSD angeboten ?

Intel Rolls Out New PCIe SSDs for Cloud Datacenters

Die DC P3320 (Performance Series) gibt es schon von Intel. Die für noch mehr Performance optimierte P3520 sollte bald erscheinen. Von mir Gemunkelt bleibt, das Intel dann davon den Nachfolger der 750 NMVe SSD Series ableiten wird, mit samt den doch etwas mager ausgefallenen 256Gb 32-layer MLC Intel/Micron 3D NAND Chips.

Mal schauen, Samsung hat ja wohl hoffentlich die SM961 schon in die Channels gedrückt, und sie taucht dann mal bald bei einigen Retailers auf. Und wenn die, von der Leistung und dem Preis her, auch floppen sollte, dann gibt es ja schließlich noch Intels tolle Optane Technologie, so erstes Halbjahr 2017 herum, wenn alles gut geht, dann mal als Consumer SSD, aber doch bitte mit 4x PCIe Lanes, Danke!
 
Zuletzt bearbeitet:
Noch gibt es von Intel keine SSDs mit dem 3D NANDs, die Intel DC D3xxx Reihe an Enterprise SSDs wird damit erwartet. Außerdem ist Qualität das eine, Performance aber etwas ganz anderes. Es gibt andere SSDs mit dem Marvell 1074 und anderen TLC NANDs die durchaus eine im Vergleich zu Wettbewerbern gute Performance haben, wenn eben halt auch keine Spitzenperformance. Nur wenn man wie Micron/Crucial die Controller nicht selbst baut, muss man eben doch den passenden Controller auswählen, der Kunde kauft ja am Ende die SSDs so wie sie ist. Wie weit man da über die FW noch was machen kann, wird man sehen, aber es wurde ja schon nachgebessert, nach die Version mit der ersten FW schon im April bei Reviwern mit noch schlechterer Performance aufgefallen ist.

Mir wäre es jedenfalls zu riskant darauf zu wetten das da noch eine neue FW kommt die das Ruder komplett rum reißen wird. Wenn die kommt und dann Reviews mit der neuen FW Version erscheine die wirklich eine bessere Performance bei einigermaßen gefüllter SSD zeigen, bin ich aber gerne bereit meine Meinung zu revidieren.
 
Würde mir ja gerne noch eine 500 GB SSD gönen aber dann mit 3D NAND wegen der zuerwarten längeren Haltbarkeit traue den gängigen billig TLC NANDs nicht nicht so.

Samsung SSD mag ich nicht so hoffe das mir die konkurenz bald mal gute SSD mit 3D NAND anbietet,
sollte nicht bald auch was von Sandisk kommen ?

klein
 
Zuletzt bearbeitet:
Auch alle anderen NAND Hersteller arbeiten an 3D NAND, wie das dann aussehen wird und was für eine Haltbarkeit es bietet, wird man sehen müssen. Die 3D NANDs von Micron haben ja nur halb so viele P/E Zyklen wie die von Samsung, zumindest die die Crucial in der MX300 verbaut im Vergleich zu denen die Samsung in der 850 Evo einsetzt. Nur weil es 3D NAND ist, muss es übrigens nicht automatisch haltbarer sein, es kommt immer darauf an, wie das 3D NAND konkret aussieht und natürlich auch welche Qualitätsstufe ein Hersteller jeweils in seinen SSDs einsetzt.
 
Ist ja schon ziemlich einttäuschend, im Vergleich zu den bisherigen Crucials.
Die MX300 könnte sich ja eigentlich nur über den Preis verkaufen, aber vor ca. drei Monaten habe ich schon eine Sandisk 1TB SSD für glatte 200€ bekommen.
Da dürfte die relativ schlappe MX300 mit 750GByte doch nicht über 150€ kommen um interessant zu sein...aber so ist das Nix!
 
Ja für unter 200 Euro bekommt man von 'Marken'herstellern preiswerte SSD Modele um die 1 TB zum bespiel eine Toshiba Q300 mit 960 GB
und eine günstige 480 GB SSD kostet auch nur noch güt 100 Euro.

klein
 
Wenn die in 1TB nur 512$ kosten soll, muss Toshiba aber den Preis der 1TB RD400 noch mal senken. Bin mal gespannt wann dann eine Retail Version rauskommt, vielleicht als 960 Pro und vielleicht auch gleich noch als 960 Evo mit TLC NAND dazu,
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh