> > > > Crucial MX100 kommt mit 16-nm-Flash

Crucial MX100 kommt mit 16-nm-Flash

Veröffentlicht am: von

crucialDer Chiphersteller Micron wird bald eine neue SSD-Baureihe in sein Portfolio aufnehmen. Die Laufwerke werden im Handel unter der Bezeichnung Crucial MX100 zu finden sein und sollen vor allem durch neue Flash-Speicher-Bausteine auffallen. Der Hersteller wird in dieser Baureihe erstmals auf Speicherchips mit 16-nm-Prozess setzen und damit nochmals eine deutlich kleinere Strukturbreite nutzen. Durch die kleinere Strukturbreite sollen die Preise der Chips nochmals etwas nach unten gehen, aber diese Entwicklung wird wahrscheinlich noch einige Wochen dauern.

Leider sind bisher noch keine weiteren Details zu der kommenden Baureihe bekannt. Es ist weder bekannt, welcher Controller bei der MX100-Serie zum Einsatz kommt und auch die genauen Leistungsdaten wurden noch nicht verraten. Da die SSDs aber bereits Anfang Juni auf der Computex 2014 offiziell vorgestellt werden sollen, werden diese Informationen wohl nicht mehr allzu lange auf sich warten lassen.

crucial-mx100ssd

 

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (6)

#1
Registriert seit: 27.07.2009

Kapitän zur See
Beiträge: 3559
Im zweiten Absatz soll es wahrscheinlich auch MX100 heißen.
#2
customavatars/avatar92992_1.gif
Registriert seit: 10.06.2008
zuhause
Admiral
Beiträge: 11405
War es nicht so, dass mit sinkender Strukturbreite zwar der Verbrauch sinkt aber auch die Lebensdauer?
#3
Registriert seit: 01.12.2005

Bootsmann
Beiträge: 633
Die Lebensdauer der Flash Zellen hat heutzutage sogut wie nichts mehr mit der Lebensdauer von SSDs zu tun. Ohne Überprovisionierung und wear levelling wäre schon spätestens bei den 50nm MLC ICs schluss gewesen. Die Lebenssdauer ist nur hauptsächlich nur noch das Verhältnis von Überprovisionierung zu möglichen Schreibzyklen.

Zur Lebensdauer hier ein Diagramm: 30C3: Exploration and Exploitation of an SD Memory Card - YouTube habs leider nur als YT Video.
#4
Registriert seit: 05.07.2010

Admiral
Beiträge: 16665
Das Overprovisioning spielt nur im Zusammenhang mit der Write Amplification eine Rolle und da vor allem beim Betrieb im Steady State, also wenn die komplette Nutzkapzität gefüllt und die SSD dann mit zufälligen Zugriffen überschrieben wird. Sowas passiert aber bei Heimanwendern nicht, weshalb Heimanwender SSDs auch wenig OP haben und Enterprise SSD sehr viel, siehe die Micron M500DC.

Heimanwender sollte SSDs niemals zu voll werden lassen und da aktuelle System i.d.R. alle TRIM untersützten, kann darüber dem Controller wieder Platz als frei gemeldet werden. Außerdem sind die Schreibzugriffe bei Heimanwendern auch mehr sequentieller Natur als bei Enterpriseanwendungen. Die Lebendauer aktueller SSDs ist mehr als ausreichend und wenn mal eine kaputt geht, dann i.d.R. nicht wegen verschliessener NAND, von den Nieten wie solchen mit dem alten Barefoot oder den mit sehr minderwertigen NANDs dubioser Herkunft bestückten SSDs von Herstellern ohne eigene NAND Fertigung mal abgesehen.
#5
Registriert seit: 01.12.2005

Bootsmann
Beiträge: 633
Stimmt, Überprovisionierung war der falsche Begriff. Reservesektoren sollte wohl besser passen. Aber wie du schon sagst effektiv wird wohl kein Poweruser Heimanwender seine SSD in weniger als 10 Jahren kaputtschreiben können.
#6
Registriert seit: 05.07.2010

Admiral
Beiträge: 16665
Overprovisioning und Reservesektoren ist im Grunde das gleiche, zumal es bei SSDs eigentlich keine klassischen Reservesektoren wie bei HDDs gibt, also Sektoren die nie beschrieben werden bis man sie aufgrund des Ausfalls anderer Sektoren benötigt. Die aktuellen Controller nutzen grundsätzlich die ganze Kapazität aus und wenn Zellen ausfallen, hat man hinterher eben weniger Free Area bzw. OP.

Aber wie schon gesagt: Die Größe der OP spielt nur eine Rolle wenn es um die Write Amplification geht und solange eine SSD nicht zu voll ist, ist der Einfluss auf die WA auch gering und da Heimanwender ihre SSD nie ganz füllen sollten, hat das OP bei ihnen auch kaum Einfluss auf die Haltbarkeit.

Auf die möglichen Schreibzyklen hat das OP schon gleich gar keinen Einfluss, dass rechnen sich allenfalls die Marketingleute so hin, denn wenn ich NAND verbaue aber die Nutzkapaztität nicht erhöhe, dann verteilen sich die Schreibzugriffe ja auf mehr Zellen und damit kann ich im Ganzen mehr Daten auf die SSD schreiben bevor die Zellen die gleiche Anzahl an Zyklen erreichen, was dann das Marketing so hinstellt, als würden die Zellen mehr Zyklen abkönnen. Das ist als wenn man eine Doppelbereifung auf eine LKW Achse hat und der Reifenhersteller es als einen Reifen betrachtet und behauptet, dieser Doppelreifen könnte nun doppelt so viel tragen wie ein einzelner Reifen. Das stimmt nur in sofern, weil es ja zwei Reifen sind, wobei jeder von denen nicht mehr tragen kann, als wenn er alleine auf der Achse wäre.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Samsung SSD 970 PRO im Test: Hält länger und arbeitet schneller

    Logo von IMAGES/STORIES/2017/SAMSUNG_970_PRO

    Eineinhalb Jahre nach dem Start löst Samsung die SSD 960 PRO ab und schickt den Nachfolger ins Rennen. Der soll nicht nur ein noch höheres Tempo bieten, sondern auch langlebiger sein. Dabei halten sich die technischen Neuerungen in Grenzen, in den Mittelpunkt wird vor allem der neue... [mehr]

  • Samsung SSD 970 EVO im Test: Neue Mittelklasse kommt der PRO nahe

    Logo von IMAGES/STORIES/2017/SAMSUNG_970_EVO

    Nicht nur zahlungskräftigen Enthusiasten will Samsung locken, auch ein Segment weiter unten will man keine Käufer an die Konkurrenz verlieren. Entsprechend wird nicht nur die PRO-Linie aufgefrischt, sondern mit der SSD 970 EVO auch die Mittelklasse. Die soll nicht nur höhere Transferraten... [mehr]

  • Samsung SSD 860 EVO und PRO mit 4 TB im Test

    Logo von IMAGES/STORIES/GALLERIES/REVIEWS/SAMSUNG-860-EVO-PRO/TEASER

    Die perfekte SSD ist groß, schnell und preisgünstig. Doch wie immer kann man nicht alles haben, zumindest nicht gleichzeitig: Für maximale Performance muss man zu einer PCI-Express-SSD greifen, die inzwischen zwar auch mit relativ großen Speicherkapazitäten verfügbar, jedoch nicht günstig... [mehr]

  • Intel Optane SSD 900P 280 GB mit 3D-XPoint-Speicher im Test

    Logo von IMAGES/STORIES/GALLERIES/REVIEWS/INTEL-OPTANE-SSD-900P/TEASER

    Bei Halbleiterlaufwerken, kurz SSDs, war in den vergangenen Jahren eine konstante Evolution zu beobachten – im Wesentlichen wurde die Speicherdichte erhöht, wozu 3D-NAND einen zentralen Beitrag geleistet hat. Auch die Geschwindigkeit hat mit der breiten Verfügbarkeit von PCI-Express-SSDs und... [mehr]

  • Intel SSD 760p 512 GB im Test: Dem Vorgänger klar überlegen

    Logo von IMAGES/STORIES/2017/INTEL_SSD_760P

    Intel und SSD bedeutete zuletzt in erster Linie hohe Preise in Verbindung mit fragwürdigem Nutzen für Privatanwender. Mit der SSD 760p richtet man sich aber endlich auch wieder dem Massenmarkt zu, der rund eineinhalb Jahre vom Vorgänger SSD 600p bedient worden ist. Die konnte seinerzeit im... [mehr]

  • Toshiba OCZ RC100 im Test: Kleine SSD mit klaren Vorzügen

    Logo von IMAGES/STORIES/2017/TOSHIBA_OCZ_RC100_02

    Kompakt, nicht zu teuer, aber auch nicht zu langsam: Mit der OCZ RC100 bringt Toshiba eine NVMe-SSD in den Handel, die in vielerlei Hinsicht bewusst anders sein soll. Das ermöglicht dem Unternehmen zufolge das Ansprechen einer ganz bestimmten Zielgruppe. Denn so mancher wird nach wie vor von den... [mehr]