Ab 2030: Seagate kündigt 100-TB-HDDs an

Generell denke ich das nicht nur die Entwicklung von Flash Speicher auf einem Plateau angekommen ist sondern auch die Größenentwicklung von Multimediadatein wie Filmen und Fotos und damit der Speicherplatz den solche Datein benötigen.
4K bluray rips gehen schnell richtung 40-60gb.
auf einem 4K monitor/tv muss entsprechende qualitaet schon sein.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wie kommen denn einige hier zu der Annahme, dass sich die NAND verlangsamt oder gar ein Plateau erreicht hat? Das sehe ich überhaupt nicht. Natürlich wird die Fertigung aufwendiger und damit skaliert die Kostenreduktion nicht 1:1, aber das heißt keinesfalls, dass keine großen Schritte mehr möglich sind.

Man muss sich mal vor Augen führen: Die aktuellen Flashprodukte nutzen mehrheitlich noch "alten" Speicher im Bereich ~64-96 Layer, teilweise gar noch MLC. ~128 Layer kommt gerade erst auf dem Markt an, MLC verschwindet und QLC wird weiter ausgebaut. ~160 Layer läuft schon im Labor, allermindestens 256 Layer sind noch möglich (eher 300+) und dann gibt es auch noch das Thema PLC, ggf. kommt gar OLC.

Gerade für den hier so viel beschworenen Archivspeicher wird sowas äußerst interessant, da braucht man keine DWPD und Stromverbrauch/Platzbedarf sind wichtige Faktoren. Da geht noch einiges...
 
Bleibt aber die Frage wie viele TB man denn wirklich braucht...
Für den Heimanwender ja, aber diese HDDs mit sehr hohen Kapazitäten sind nicht primär für Heimanwender, die sind vor allem für Unternehmen und da gehen so viele von denen hin, dass die Enterprise Modelle wie z.B. die Exos meist schon billiger zu haben sind als die für Heimanwender gedachten NAS Modelle wie die IronWolf. Eigentlich war es immer umgekehrt, aber die schieren Stückzahlen dürften dafür verantwortlich sein, dass die eigentlich höherwertigeren Serien im Handel billiger als die abgespeckten Baureihen sind.

Magnetbänder sind auch weitgehend ausgestorben
Das halte ich für einen Irrtum, die Entwicklung geht auch da noch munter weiter, was nicht der Fall wäre, wenn diese ausgestorben wären. Die sind nur eben auf eine kleinere Nische als vorher verdrängt worden und bei Heimanwendern spielen sie schon lange keine Rolle mehr, dafür sind die Laufwerke zu teuer. Bänder lohnen sich umso mehr, je mehr Bänder man pro Laufwerk hat, denn die Bänder sind billig, die Laufwerke aber teuer und daher braucht man entsprechend viel Daten bis die Rechnung aufgeht. Cern hat auch noch ein Tape Archive als "archival storage system for the custodial copy of all physics data at CERN." aka Backup und "CERN Data Centre passed a major milestone on 29 June 2017 with more than 200 petabytes of data now archived on tape".

Wie kommen denn einige hier zu der Annahme, dass sich die NAND verlangsamt oder gar ein Plateau erreicht hat?
Lies noch mal Post #21, auch wenn es lang ist, aber da steht sogar ein Zitat einer Aussage von einem NAND Hersteller (Intel) in dem genau dies gesagt wird und deshalb hat Intel sich auch entschieden seine NAND Fertigung an SK Hynix zu verkaufen.

Das sehe ich überhaupt nicht. Natürlich wird die Fertigung aufwendiger und damit skaliert die Kostenreduktion nicht 1:1, aber das heißt keinesfalls, dass keine großen Schritte mehr möglich sind.
Welche Schritte sollten dies denn sein? Die sind in der Phase wo es nur noch mit Tippelschritten vorangeht was die Kostensenkung angeht. Kann es sein das bei dir nur der Wunsch der Vater des Gedankens ist? Klar würde jeder von uns, wir sind ja Kunden und nicht Hersteller, gerne deutlich günstigere SSD Preise sehen, aber nur deswegen werden die Preise nicht fallen, sondern nur wenn die Herstellungskosten weiter gesenkt werden, kann dies auf Dauer passieren.

Die aktuellen Flashprodukte nutzen mehrheitlich noch "alten" Speicher im Bereich ~64-96 Layer, teilweise gar noch MLC.
Welche aktuellen Flashprodukte nutzen denn noch MLC NAND? Die Samsung 970 Pro und 860 Pro waren die letzten die es noch genutzt haben und die nun Nachfolgebaureihen bekommen haben, die keine Option mit MLC mehr enthalten. Pass auch wenn Du bei Geizhals nach dem Datum schaust seit wann gelistet sind, da tauschen immer wieder mal uralte Modelle erneut auf, schau also im Zweifel auf das Daten eines Reivews oder das Datum im Datenblatt.

Übrigens dürfte es kaum noch SSDs mit 64 Layer NAND geben, selbst Crucial hat die MX500 auf 96L NAND umgestellt, ohne dies mitzuteilen, denn die Fertigung diese alten NANDs dürfte langst ausgelaufen sein.
 
Mal eine andere Frage, die sich mir stellt. Bei solchen Festplattengrößen steigt doch auch der Bedarf an parallelen Zugriffen, wenn die Daten dann doch benötigt werden. Welche Schnittstelle packt das dann? Und sind die Zugriffe auf die Daten selbst intern dann schnell genug? Oder werden solche Monster dann wirklich nur als Datengrab verwendet? Also für Daten, die kaum jemals benötigt werden.
 
Bei solchen Festplattengrößen steigt doch auch der Bedarf an parallelen Zugriffen, wenn die Daten dann doch benötigt werden. Welche Schnittstelle packt das dann?
Die Schnittstelle ist weniger das Problem als die HDDs selbst. Deshalb will Seagate diese großen HDDs auch auch nur als Mach.2 ausführen, also mit Multi-Actuator-Technologie um die IOPS pro TB zu erhöhen indem mehr also nur ein Kopf zeitgleich aktiv sein kann.
 
Zumindest auf absehbare Zeit hat SATA 3 noch genug Luft, um HDDs mit voller Geschwindigkeit anzubinden. Schnelle Platten machen in der Spitze ca. 300 MB/s, die Schnittstelle kann 500 MB/s. Allgemein wächst die Kapazität bei HDDs deutlich schneller als die Geschwindigkeit. Wenn SATA 3 (ist von 2009!) irgendwann einmal ausgereizt ist, kann man auch locker ne schnellere Schnittstelle erfinden.
 
Die ganzen Backups/Snapshots der VMs zum Beispiel werden ziemlich sicher auf HDDs ausgelagert. Und wenn ich mir die Daten auf unseren Systemen anschaue, da sprechen wir teilweise von deutlich mehr als 1PB, sind gut 80% "kalte Daten", auf die keiner mehr zugreift (vor allem CAD-Daten sind oft riesig und uralt). Die liegen einfach da, löschen kann/darf man nicht bzw. es traut sich keiner und so muss man den ganzen "Müll" ewig mitschleppen.
Der Use-Case war mir bewusst.
Einfach tote Daten, die man halt behalten will, obwohl sie niemand mehr braucht - warum auch immer.

Das Firmen solche Rabatte bekommen, kann ich mir kaum vorstellen, dafür ist NAND einfach zu stark gefragt und wird von zu wenigen Firmen angeboten, deren Gewinne nach dem letzten großen Preisverfall zu sehr gefallen sind, als dass diese derartige Rabatte geben würden.
[snip]
Jenseits des Tellerrands gibt es eben noch eine ganze Welt und da werden massenhaft und vor allem in steigender Zahl HDDs solche mit hohen Kapazitäten verwendet.

Der Rabatt kommt allein durch die wegfallende Mehrwertsteuer und Steuererleichterung (jede Anschaffung reduziert ja den Gewinn, auf den man die volle Steuer zahlen würde). Massenrabatte habe ich da noch gar nicht mit eingerechnet. Die würden noch obendrauf kommen (aber natürlich auch nur mit den ca. 40% multipliziert netto)

Über den Tellerrand hinaussehen will ich ja, darum habe ich ja nach Use-Cases gefragt. Daher verstehe ich den angreifenden Ton auch absolut nicht.
Du behauptest hier stur, dass da steigende Zahlen und Kapazitäten verwendet werden, aber genauso könnte ich behaupten, dass steigende Zahlen von rosaroten Kassetten verwendet werden. Bisserl belegen / begründen sollte man dann schon, wenn die Frage nach genau solchen Beispielen war und nicht nach wilden Behauptungen, ohne Beispielen. ;-)

Archivdaten ist ein Argument und Use-Case, den bestreite ich ja nicht.
Aber habt Ihr auch mal auf die KOSTEN dieser großen HDDs geschaut? Und die Stromkosten in großen Mengen?
Bei Linus Tech Tips war vor ner Weile erst ein Video, dass so eine riesen HDD Lösung getestet hat und als Bottomline hinterfragt hat, wieso man das machen würde,... weil SSDs mit dergleichen Kapazität sogar billiger gewesen wären. Noch bevor man die Stromkosten mit einbezieht, die ja auch höher sind.

Was bringt mir ne 100tb HDD, wenn ich zu vergleichbarem Preis 10x 10tb SSD kaufen kann und die Differenz der laufenden Kosten 2 weitere SSDs pro Jahr kaufen würde?
Wir haben diese Rechnungen nun schon seit 3 Jahren bei uns und die SSDs gewinnen da immer, allein schon beim Preis... noch ohne die anderen Vorteile zu bewerten.
Damit es wirklich BILLIGER ist, müssten wir 8-10TB HDDs nehmen (bester Preis / GB) und hätten dann Platz und Kabelprobleme im Austausch für nen paar Euro fünfzig an Preisersparnis.
Dazu kann man nicht mal eben entscheiden, dass der Server dann für anderes genutzt wird, weil er dann halt super langsam ist.

Also klar:
Schaut man immer nur STUR auf EINE Metrik, kann man das argumentieren. Aber in keinem Szenario ist stur nur diese eine Metrik relevant. Platz, Strom, Kosten / GB, Leistung, Zugriffszeiten, Zugriffsfrequenz, laufende Kosten, Flexibilität usw. usw. müssen alle für jeden Use-Case gleichzeitig bewertet werden. Nicht nur "oh, 100 TB klingen toll für ein Drive!"
 
Die güntigste SSD mit 4TB kostet 350€, etwas mehr als eine HDD mit 16TB. Die kleinste HDD in meinem Server hat 12TB. Wie soll ich denn da komplett auf SSDs umsteigen? Alleine von den Anschlüssen geht das schon nicht.

Vom gleichen Preis pro TB bei SSDs und HDDs sind wir noch meilenweit entfernt.
 
@Tech Enthusiast
In deine Aufrechnung fehlt ein wesentlicher Aspekt!
- Jeder Anschluss/Schnittstelle, Montageplatz/Einschub und nicht zu vergessen jede Höheneinheit im Rack kostet!


Gehen wir doch mal in ganz Große Gefilde, bei "Big Data" reden wir von solchen Geschützen!
 
Zumindest auf absehbare Zeit hat SATA 3 noch genug Luft, um HDDs mit voller Geschwindigkeit anzubinden.
Naja, wenn man an die Multi-Actuator-Technologie denkt und dann wirklich von beiden Teilen (wobei es später sogar mehr als zwei Gruppen unabhängig beweglicher Köpfe geben könnte) und da jeweils ein Kopf aktiv sequentielle Daten überträgt, wäre man schon heute über dem Limit der SATA Schnittstelle. Ich würde eher sagen, dass es auf absehbare Zeit knapp wird mit der Bandbreite, allerdings dann eben erst, wenn die Multi-Actuator-Technologie auch in SATA Platten verwendet wird.
Allgemein wächst die Kapazität bei HDDs deutlich schneller als die Geschwindigkeit.
Das ist klar, da bei jeder Steigerung der Datendichte ja neben der Anzahl der Sektoren pro Spur auch die Gesamtzahl der Spuren steigt und daher steigt bei einer Steigerung der Datendichte die Kapazität im Quadrat zur Steigerung der Geschwindigkeit. Bei der Steigerung der Kapazität durch mehr Platter oder durch SMR steigt nur die Kapazität, aber nicht die Geschwindigkeit (bei SMR fällt die Schreibgeschwindigkeit sogar). Nur die Multi-Actuator-Technologie kann daran etwas ändern, weshalb man diese ja auch entwickelt. Ich hatte mich schon immer gefragt warum bei HDDs immer nur ein Kopf zur Zeit aktiv ist, die Antwort scheint im Problem der exakten Positionierung zu liegen.
Wenn SATA 3 (ist von 2009!) irgendwann einmal ausgereizt ist, kann man auch locker ne schnellere Schnittstelle erfinden.
Wozu sollte man eine neue Schnittsteller erfinden wollen? Dann wird man wahrscheinlich wie bei den SSDs auf PCIe wechseln. Bis dahin dürfte PCIe 4.0 Standard und PCIe 5.0 schon verfügbar sein, womit schon eine PCIe Lane erstmal genug Bandbreite bieten würde und sonst bündelt man eben zwei oder gar vier. Wenn man sie die aktuellen Chipsätze ansieht, so ist es dort ja inzwischen Standard das man bei einem Teil der I/O Ports zwischen SATA und PCIe Lanes wählen kann, die sind in dem Sinne schon auf die Zukunft vorbereitet, auch wenn dies natürlich im Hinblick auf SSDs und nicht auf künftige HDDs passiert ist.
Der Rabatt kommt allein durch die wegfallende Mehrwertsteuer und Steuererleichterung (jede Anschaffung reduziert ja den Gewinn, auf den man die volle Steuer zahlen würde). Massenrabatte habe ich da noch gar nicht mit eingerechnet.
So ein Quatsch, zumal der Wegfall der Umsatzsteuer und die Abschreibung auf SSDs genauso wie bei HDDs anzuwenden wäre.

Bisserl belegen / begründen sollte man dann schon
Spricht ausgerechnet derjenige keinen einzigen Beleg gebracht hat, ich es getan habe. Wenn aber jemandem weder das im Post #21 enthaltene Zitat von IDC mit darin verlinkte Quelle (einfach mal auf das Zitat klicken) ebenso wenig wie aufgefallen ist wie Post #23, dann kann ich da auch nicht dafür.

Belege wäre auch sinnvoll für die Behauptung man könne für den Preis einer 100TB HDD dann 10x10TB (wobei 10TB für SSD ein sehr ungewöhnlich Kapazität wäre) kaufen, dies ist nämlich überhaupt nicht in Sicht und wenn dem so wäre, wäre die Existenz von HDDs in der Tat schon stark gefährdet und eben die angeblichen Stromkosten. Dies mag bei Consumer SSD ja noch stimmen, aber Enterprise SSDs brauchen auch im Idle deutlich mehr Strom, so gibt Micron im Datenblatt der 5210 ION 1,5W im Idle an, die Nimbus Data ExaDrive soll Idle 10W brauchen und um auch mal SAS zu berücksichtigen, die Samsung PM1643a 5W.

Zwar weiß ich nicht wie viel Strom eine 100TB im Idle ziehen würde, aber da die Laser bei HAMR im Idle ja nicht aktiv sein werden und man kaum noch viel mehr Platter ins Gehäuse gezwängt bekommt wird, dürften dies nicht viel mehr als bei den aktuellen HDDs mit Heliumfüllung sein und da gibt WD für die Red Pro mit 16TB und 18TB je 3,6W an, für die 14TB 3W und für die 12TB sogar nur 2,8W. Im Datenblatt der Seagate Exos X18 Reihe sehen wir für die 16TB und 18TB 5,3W im Idle für die SATA und 5,8W für die SAS Version. Eine Enterprise SSD mag im Idle weniger Strom brauchen, aber 10 davon werden auch in Zukunft kaum weniger Strom auskommen als eine Enterprise HDD.

Soviel zum Thema wilde Behauptungen statt Belege!
 
Du führst hier Datenblätter von idle Stromverbrauch auf. Das ist ja mal ein Beleg, nur... belegst Du damit bestenfalls den einen Use-Case, den ich ja selber sehe.
Datengrab für Dinge, die nie abgefragt werden.

Hab doch gesagt, dass dafür HDDs taugen, oder nicht? :-)

Ich versuche hier einen ZWEITEN Use-Case zu finden, den unsere Servertypen nicht finden (suchen natürlich auch nur nach für uns relevanten Dingen).
Sobald man auf die Daten auch zugreifen muss, sind HDDs schon echt derbe lahm.

Mag ja sein, dass sie pro GB im Schnitt noch billiger sind (bei den KLEINEN Drives zumindest, nicht bei den 50 und 100tb Dingern!), aber für Unternehmen fallen eben maximal die 40% des Preises an. Egal, ob Du das für Quatsch hälst oder nicht. Das sind die Preise die wir zahlen. Ja, streng genommen überweist man 100%, aber 19% sind innerhalb von 3 Monaten zurückerstattet und der Rest nach maximal 365 Tagen.

Nimmt man nun diese 40% (ja, sowohl für HDDs, als auch SSDs), dann ist der preisliche ABSOLUTE Unterschied echt nicht mehr der Rede wert.
Man erkauft sich damit aber einen enormen Speedvorteil und vor allem FLEXIBILITÄT. Eine SSD kannste für alles hernehmen, eine HDD nur als Datengrab. Werden die Daten auf einmal doch benötigt, dann muss man eh umsteigen.

Um mal echte Zahlen zu nennen:
Wir sind zwar fast nur in den vier größten Clouds als Kunden unterwegs, aber Lokal haben wir ein paar Server mit 1-20 Exa, für die Daten, die regelmäßig on-site benötigt und aktiv benutzt werden. Das spart einerseits die Latenz, die Internetverbindung brennt nicht laufend und natürlich sind auch die Übertragungskosten in Clouds nicht gerade bei 0 Euro angesiedelt.
Nach Einholung von über 100 Angeboten zu Gesamtsystemen und einzelnen Komponenten gab es ein paar KeyTakeaways:
* selber bauen rentiert auch im professionellen Umfeld. Fertig gelieferte Dinger kosten zwischen 70 und 310% mehr,... total deppert.
* HDDs haben den geringsten initialen Anschaffungspreis pro Exa.
* (NVME) SSDs haben den geringsten Platzbedarf pro Exa.
* HDDs haben, je nach Modell mehr oder weniger gravierend, höheren Stromverbrauch pro 100TB transfered.
* der Aufpreis zu SSDs (20% davon sogar NVMEs) war Netto im Bereich von 30-35% (es war nicht genug vom billigsten Produkt lieferbar, daher waren mehrere Anbieter beteiligt final).

Diese 35% Aufpreis entsprechen einem Gewinn von knapp unter 2 Tagen in meiner Firma.

Nimmt man die Kosten für Strom und Fläche dazu, amortisieren sich SSDs bereits nach 3 Jahren in den Kosten. Ganz losgelöst von der fehlenden Performance.
Nimmt man noch die Gehälter dazu (bei 100TB am Tag muss man bei HDDs ganz schön viele Tassen Kaffee trinken, während man auf die Arbeit wartet), amortisiert sich das schon nach unter einem Jahr.

Wegen den 2 Tagen "Gewinnverlust", die dann eh ausgeglichen werden,.... würden wir nie die Mitarbeiter an langsame Hardware koppeln. Die sollen arbeiten und nicht Kaffee trinken! Gut, und natürlich nervt es sie auch, wenn ein Projekt fertig werden soll und sie ein Server Bottleneck haben. ;-)

Nun ist das aber natürlich UNSER Use-Case und wir nutzen die Daten halt und haben sie nicht nur irgendwo abgestellt. (noch mal, ich sagte ja, dass HDDs als Grab taugen).
Wenn jemand weniger Daten / Tag benötigt, wird auch die Arbeitszeit nicht so stark leiden, ebenso klar.

Nun steht meine Frage aber weiterhin im Raum:
Welcher Use-Case, der nicht mit "wir haben Daten, die wir nie benutzen" anfängt, ist sonst noch vorhanden in der realen Welt?
Gibt es Systeme, die sau viele Daten haben, davon aber immer nur super kleine Teile brauchen und entsprechend die Vorteile von SSDs nicht nutzen würden? Also in der Theorie, natürlich... aber in der Praxis? Was wäre da ein Beispiel für?
 
Du führst hier Datenblätter von idle Stromverbrauch auf. Das ist ja mal ein Beleg besser als keiner.
Eben, es ist ein Beleg und damit
Hab doch gesagt, dass dafür HDDs taugen
Darum ging es doch nicht, sondern um diese Aussage:
Und die Stromkosten in großen Mengen?
Die damit bei HDDs besser als bei SSDs aussehen dürften, zumindest solange man mehr SSDs als HDDs für die gleiche Storagekapazität braucht.

Ich versuche hier einen ZWEITEN Use-Case zu finden, den unsere Servertypen nicht finden (suchen natürlich auch nur nach für uns relevanten Dingen).
Wie sollen wir den finden und wieso sollten wir dies überhaupt versuchen? Weder kennen wir die Gegebenheiten noch ich zumindest Lust hier kostenlos kommerziellen Support zu geben. Aber sei sicher, nur weil es bei euch keinen solchen Use Case gibt, bedeutet dies aber eben noch lange nicht, dass andere Unternehmen solche Use Cases nicht haben und wie schon in Post #23 erwähnt, haben großen Cloud Anbieter ganz offenbar für durchschnittlich 90% ihrer Daten sehr wohl HDDs gewählt. Frage dort doch einfach selbst an wieso sie dies machen.

Jedenfalls habe ich keine Lust mehr hier weiter auf komplett unsinnige und unbelegte Aussagen wie "für Unternehmen fallen eben maximal die 40% des Preises an" einzugehen. Wenn ihr nur Hot-Data on-side haben die ständig benötigt werden, dann machen SSDs vor Ort sinn, wenn diese nur 30 bis 35% teurer als HDDs waren, dann ging es dort sehr wahrscheinlich nicht um High Capacity HDDs (um die es hier aber eben geht), sondern um die Mission-critial HDDs, also die 2.5" mit 10k rpm oder 15k rpm, die aber einmal ein anderes Marktsegment bedienen oder eher bedient haben, da sie wie gesagt praktisch schon komplett von SSDs verdrängt wurden. Daher ist das ein Vergleich von Äpfeln und Birnen und damit unsinnig.

Wenn ihr im professionellen Umfelt selber gebaute Storages nehmt, dann habt ihr hoffentlich auch selbst den nötigen und vor allem kompenten Support zur Hand und ebenso die Spare Parts, sollte mal was ausfallen. Oder haben sich diese 30 bis 35% Mehrpreis gegenüber HDDs auch deshalb ergeben, weil einfache Consumer SSDs genommen wurden? Wie auch immer, wenn die Cool und Cold Data bei Cloud Anbietern liegen, so kann man davon ausgehen, dass die allermeisten davon auf HDDs lagern werden und damit nutzt ihr sehr wohl noch HDDs, wenn auch nicht direkt und vor Ort. Genauso dürfte es vielen Heimanwendern gehen, die zwar in ihren Rechnern keine HDDs mehr verbaut haben, deren Daten dann aber sehr wohl in der Cloud auf HDDs gespeichert sind.
 
Es geht aber um die Entwicklung in den nächsten 10 Jahren, nicht um den Istzustand... Seagate fabuliert ja von 2030 (nachdem sie uns die letzten Jahre konstant über die Marktreife von HAMR belogen haben :fresse2:).

Zwischendurch lohnt es sich nochmal auf die aktuellen Preise zu schauen: SSDs sind bereits jetzt, mitten in einer globalen Chipkrise, schon nur noch ca. um Faktor vier teurer 🤷‍♂️

Lies noch mal Post #21, auch wenn es lang ist, aber da steht sogar ein Zitat einer Aussage von einem NAND Hersteller (Intel) in dem genau dies gesagt wird und deshalb hat Intel sich auch entschieden seine NAND Fertigung an SK Hynix zu verkaufen.
Hab ich durchaus gelesen, aber da steht eigentlich nichts interessantes. In dem Zitat geht es in erster Linie nur um die Strukturgröße, das Thema ist ein ganz alter Hut, die Lithografie wird nicht mehr verkleinert. Ansonsten liest man dort nur ein schwammiges "Joar, Stacking geht nicht unendlich." Das ist schon klar.

Intel sieht sich scheinbar bei margenträchtigeren 3D X-Point Produkten für Server, bei NAND wirkten die nie mit ganzem Herzen dabei. Es ist letztlich auch nur einer von diversen gescheiterten Geschäftsbereichen bei Intel in den letzten Jahren. Das dürfte wohl mehr an Intel selbst liegen als am Markt, wenn man sich die gesunden Zahlen bei Samsung, Micron, WDC und Kioxia anschaut.

Welche Schritte sollten dies denn sein?
Die, die ich genannt habe: Mittelfristig mindestens eine Verdopplung der Layer (~160 Layer sind in der Pipeline, Forschung an ~256 läuft, wahrscheinlich geht 300+), Ausbau von QLC im Mainstream, Erweiterung auf PLC für Produkte mit niedriger Schreibbelastung.

Man kann natürlich stumpf jegliche aktive Forschung beiseite wischen, "sollen die erstmal zeigen, dass das in der Praxis funktioniert." Das kann man aber genauso auch in Bezug Seagates bisher substanzlose 100TB Träumereien sagen.

Welche aktuellen Flashprodukte nutzen denn noch MLC NAND? Die Samsung 970 Pro und 860 Pro waren die letzten die es noch genutzt haben und die nun Nachfolgebaureihen bekommen haben, die keine Option mit MLC mehr enthalten. Pass auch wenn Du bei Geizhals nach dem Datum schaust seit wann gelistet sind, da tauschen immer wieder mal uralte Modelle erneut auf, schau also im Zweifel auf das Daten eines Reivews oder das Datum im Datenblatt.
Und etwa die genannte 860 Pro ist aktuell kein Massenprodukt mehr? Die Welt besteht ja auch nicht nur aus den neuesten Samsung Serien. Wenn man einen Blick auf Geizhals wirft, sieht man, dass viele 2,5" Produkte noch auf auf ~64 Layer setzen. Erst bei M.2 hat sich ~96 Layer "schon" durchgesetzt, ~128 hat es bisher kaum auf den Markt geschafft.
 
SSDs sind bereits jetzt, mitten in einer globalen Chipkrise, schon nur noch ca. um Faktor vier teurer
Die Chipkrise betrifft meines Wissens aber weder NAND noch DRAM, sondern die Founderies wie TSMC die nur Chips für andere herstellen, was bei den NAND Herstellern nur Samsung betrifft (und ggf. Intel, die haben ja die ein Programm gestartet um fremde Designs in ihren Fabs zu fertigen, aber ich glaube da ist nie was draus geworden), wobei die Prozesse und wahrscheinlich sogar Fab da getrennt sein dürften. Weder Micron noch Kioxia oder SK Hynix bieten die ihre Fertigungskapazitäten einzeln an, sondern fertigen da nur NAND (Micron und SK Hynix auch DRAM).
Intel sieht sich scheinbar bei margenträchtigeren 3D X-Point Produkten für Server, bei NAND wirkten die nie mit ganzem Herzen dabei.
Nein, die hatten das ja zusammen mit Micrn im Joint Venture IMFT gemacht, bis Micron dann das Joint Venture aufgelöst hat, weil sie es laut Vertrag konnten und Intel dazu noch die Finanzierung geben musste. Nachdem Intel sich damals nicht an der Entwicklung des 16nm NAND beteiligt und stattdessen direkt die Entwicklugn der 3D NAND forziert, weshalb es damals auch schon Intel SSDs mit SK Hynix NAND gab.

Das Intel sich auf 3D XPoint konzentriert, ändert aber nichts an der Aussage bzgl. des sehr beschränkten Potentials für künftige Kostensenkungen bei NAND.
Es ist letztlich auch nur einer von diversen gescheiterten Geschäftsbereichen bei Intel in den letzten Jahren. Das dürfte wohl mehr an Intel selbst liegen als am Markt
Nachdem Intel nicht mehr zusammen mit Micron an NAND forscht und fertigt und der jetzt der kleinsten NAND Hersteller ist, dürfte es für sie besonders schwer sein und dann ist da immer noch der Schweinezyklus, der gerade die kleinen Hersteller regelmäßig in die Verlustzone treibt. Außerdem ist es ja nicht so das es immer eine schlechte Entscheidung sein muss sich von einem Geschäftsbereich zu trennen, wie der Verkauf von Samsungs Festplattensparte 2011 zeigt, als sich Samsung komplett auf NAND und SSDs konzentriert hat.
Die, die ich genannt habe: Mittelfristig mindestens eine Verdopplung der Layer (~160 Layer sind in der Pipeline, Forschung an ~256 läuft, wahrscheinlich geht 300+), Ausbau von QLC im Mainstream, Erweiterung auf PLC für Produkte mit niedriger Schreibbelastung.
PLC bringt wie schon geschrieben, maximal 20% Ersparnis, tatsächlich wegen der wohl nötigen zusätzlichen Bits für die ECC und auf Kosten der Schreibrate und Zyklenfestigkeit. Die zusätzlichen Layer werden auch nur durch Stacking erreicht, Intel ist mit seinem 144L NAND als erster Hersteller auf 3 Dies im Stack gegangen, aber dies bedeutet eben auch, dass man aus 3 Wafern am Ende dann doch nur so viele Dies wie aus einem Wafer bekommt. Klar muss man nur bei einem der drei auch die Logik unterbringen, die ja inzwischen allen Herstellern unter dem Array liegt, spart also ein paar Bearbeitungsschritte, aber dies ist nicht die Welt.

Mehr native Layer würden günstiger sein, aber auch nur bis zu der Grenze, wo man wegen Fehlern den ganzen Wafer verliert und diese Grenze war vor Jahren mal bei so 128 Layern vermutet worden. Dies scheint eine recht gute Prognose gewesen zu sein, auch wenn nur Samsung diese Grenze jetzt wirklich erreicht und sogar überschritten hat:
Dies ist aus einer News von Samsung selbst vom 6. August 2019, die schaffen also 136 Layer (offizielle nennt es sich "6th-generation 1xx-Layer V-NAND")in eiem Stack, während Intel für 144 Layer drei braucht!
Weiter steht in der Samsung News:
Auch Samsung wird also künftig zu Stacking übergehen, was Micron z.B. schon seit seinen 64L NANDs macht und auch Kioxia und SK Hynix haben mit oder nach 64 Layern damit begonnen. Ob die nächsten Generation Stacking haben wird, steht in dieser News vom 24. Oktober 2019 leider nicht:
Aber wenn es fast 200 Layer sein sollte, wären dies nochmal rund 50% mehr also vorher und damit Samsung Vorsprung vor den anderen noch viel größer als gedacht, während Intel mit seinen 48 nativen Layern klar abgeschlagen ist. Wenn Samsung dazu aber 2 Dies stacken wird, dann dürfte damit auch klar sein, dass mehr als 100 Layer unwirtschaftlich sind und Samsung daher bei der Anzahl der nativen Layer lieber einen Schritt zurückgeht.
Und etwa die genannte 860 Pro ist aktuell kein Massenprodukt mehr?
Die ist ein altes Produkte und dürftr schon eingestellt sein oder bald eingestellt werden, nachdem nun nach der 870 QVO auch die 870 EVO erschienen und mit einer 870 PRO (mit MLC) nicht zu rechnen ist. Die Zeit von MLC (2bpc) ist vorbei!

Wenn man einen Blick auf Geizhals wirft, sieht man, dass viele 2,5" Produkte noch auf auf ~64 Layer setzen.
Auch hier gilt, dass die Angaben bei Geizhals oft falsch sind, zum Teil weil die Hersteller die NANDs einfach gegen neuere NAND Modelle ersetzen, weil diese eben günstiger sind und weil dann auch die Fertigung der alten NAND Generatio eingestellt und die Anlagen auf die Fertigung der nächsten Generation umgestellt werden. So steht auch die Crucial MX500 noch in der Liste der 64L NAND SSDs bei Geizhals, dabei wurde diese mit der Einführung der FW mit 30er Nummern auf 96L NAND umgestellt.

Erst bei M.2 hat sich ~96 Layer "schon" durchgesetzt, ~128 hat es bisher kaum auf den Markt geschafft.
M.2 ist nur ein Formfaktor, den bei SATA SSDs übrigens am Aussterben ist, so hat Crucial die MX500 im M.2 Formfaktor eingestellt und Samsung die 870 Evo gar nicht erst als M.2 vorgestellt. Die 96L NANDs sind weiter verbreitet als die Angaben bei Geizhals glauben machen und die neusten SSDs haben auch schon NAND mit noch mehr Layern drin, wie die Samsung 870 EVO, die 980 und die 980 Pro die alle genau diese 136 Layer Gen6 V-NANDs (oft wird auch von 128 Layern gesprochen) verbaut haben:
Neue NANDs werden vor allem deshalb entwickelt, um die Kosten zu senken, nur senkt auch eine Verdoppelung der Layer eben die Kosten bei weitem nicht auf die Hälfte ab! Die Hersteller verwenden daher die neuen NANDs sobald diese ausgereift sind, so hat SK Hynix im August 2020 die Gold P31 mit seinen neuen 128 Layer NANDs vorgestellt und andere tauschen einfach die NAND der SSDs aus ohne darüber ein Wort zu verlieren. Wie schnell die Entwicklung geht, sieht man an diesem Tetxt aus dem Review der Gold S31 vom November 2019:
Vor nicht einmal 1½ Jahren waren also nicht einmal SSD mit 92L (Samsung) oder 96L Layer Dies auf dem Markt, inzwischen kommen schon Modelle mit 128+ Layer NANDs, wie die Intel 670p die die 144 Layer NANDs hat. Es dürfte kaum noch eine SSD mit 64 Layer NANDs gefertigt werden, eben weil kaum noch solche NAND hergestellt werden dürften, nachdem die Hersteller inzwischen den Übergang von den nachfolgenden 96 Layer NAND auf die nächste Generation vollziehen. WD hat beim Wechsel von der SN500 auf die SN550 (seit Dezember 2019 bei GH gelistet) von 64L auf 96L (BiCS4) NAND gewechselt, auch die SN850 hat diese NAND, aber laut Geizhals soll die erst im Februar 2021 erscheinen SN750 4TB noch das alte 64L BiCS3 haben, dabei steht weder auf ]der Produktseite der SN750 noch im Datenblatt der SN750 überhaupt drin welche NAND genau verwendet werden.

Die hat garantiert kein uralten 64 Layer NAND mehr verbaut, wenn sie erst jetzt und damit so viel später als die ersten WD SSDs mit dem 96L NAND erschienen ist, dann ist da vermutlich sogar schon das neue 112L BiCS5 NAND verbaut, welches im Januar 2020 announced wurde, denn 1 bis so 1½ zwischen der ersten Pressemittelung über die neuen NANDs bis zum ersten Produkt sind normal. Die Samsung 136L 6Gen V-NANDs wurdem im August 2019 angekündt, die 980 Pro als ersten SSDs damit kamen im September 2020, die erste News über das 128 Layer NAND von SK Hynix war im Juni 2019 und im August 2020 erschien die erste SSD damit. Ebenso ist es normal, dass die neusten NANDs meist eher größere Diesize haben als die alten, sich also besonders für SSDs mit größeren Kapazitäten eignen bzw. diese größeren Kapazitäten erst ermöglichen, wenn man sonst schon am Limit der Anzahl der Dies ist die der Controller unterstützt.

Bei den Samsung 980 gibt es bei GH auch einen Fehler was die NANDs angeht, da war wohl Anandtech schuld:
 
Was die Marktreife von HAMR angeht:
Dies klingt doch sehr danach, dass man bald mit größeren Stückzahlen rechnet, also die Erfahrungen damit gut sind, sonst würde man keinen Second Source Lieferanten benötigen. Die Mehrkosten scheinen auch nicht so hoch zu sein:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh