Wenn es iwas extrem günstiges in ssd und groß also 8tb+ gäbe, würde ich meine externen hdds direkt abschaffen, aber das wird noch Jahre dauern.
Das Problem ist, dass NAND nicht billiger wird, nur weil man mehr davon in eine SSD packt, statt es auf mehrere zu verteilen. Der Aufpreis für die 8TB Modelle fällt zwar schon gewaltig und wird irgendwann verschwinden, wie es bei 4TB ja auch war, zuerst haben die pro TB noch deutlich mehr als ihre kleinen Geschwister gekostet, jetzt sind sie oft die pro TB billigsten Modelle einer Baureihe. Mehr als 8TB für Consumer SSDs wird es so bald nicht geben, da der Preis dann vierstellig wird und dies scheint selbst für die meisten Enthusiasten ein Problem zu sein.
Aktuell gibt es ne Lexxar für 585€. Wenn die mal Richtung 200 fällt okay
Das ist kaum zu erwarten, da eben:
Die krassen Einsparungen sind mit der jetzigen Technik halt schon weitestgehend gemacht...
So ist es, erst hat man mehr als ein Bit pro Zelle gebracht und dazu die Größen (und Abstände) der Zellen reduziert, bis man bei 16nm und nur noch so 20 Elektronen pro Zelle angekommen ist, was schon für TLC grenzwertig war. Dann hat man den Schritt in die Dritte Dimension vorgenommen, was auch nur einmal geht und damit die Größen und Abstände der Zellen wieder deutlich erhöht. Aber jeder native Layer erfordert zusätzliche Bearbeitungsschritte, die kosten Geld und bringen das Risiko durch Fehler den Wafer zu verlieren. Dann ging man dazu über mehrere Dies übereinander zu packen und durchzukontaktieren, aber wenn man das mit zwei Dies macht, bekommt man pro Wafer am Ende nur halb so viele Dies, man spart sich aber bei einem die Logik. Die neuste Optimierung ist, die Logik getrennt herzustellen und damit alle Dies mit dem Array darauf zu packen und durchzukontraktieren, so dass man die alle gleich herstellen kann, statt eines mit Logik und andere ohne Logik getrennt zu fertigen.
NAND ist eben, genau wie übrigens auch DRAM, extrem simple aufgebaut, da lässt sich nichts finden was dies noch simpler machen könnte. Dann wurden alle großen Optimierungen schon gemacht, mehr Bits pro Zelle und 3D. Es gibt immer wieder Gerüchte um mehr Bits pro Zelle durch Zellen die wie zwei getrennte Zellen funktionieren sollen und wo man dann eine Hälfte getrennt von der anderen Lesen und Beschreiben kann, aber ich sehe nicht, wie das praktisch funktionieren und zugleich kompakter als zwei Zellen sein soll. Was bleibt ist die Prozesse zu optimieren um noch ein paar mehr native Layer herzustellen, mehr Dies übereinander zu stacken um so noch weniger Dies mit Logik zu benötigen, die Abstände und Größe der Zellen zu optimieren, oder eben mehr Bits pro Zelle zu speichern, was sich aber gegenseitig irgendwann ausschließt.
Das sind aber alles nur kleine Trippelschritte, große Sprünge sind aber nicht mehr in Sicht. Was auch ein Grund war, warum Intel sich damals von seiner NAND Sparte getrennt hat, da sie damals mehr Potential in 3D XPoint gesehen haben. Leider haben sie dies dann aufgegeben, bevor wir erfahren konnten, ob dieses Potential wirklich vorhanden war, aber es hätte sich einige Zeit gedauert, bis man dort angekommen wäre und der Markt war einfach nicht bereit solange den Aufpreis zu zahlen und Intel (und Micron) nicht, die Verluste länger zu tragen. Aber vielleicht haben sie auch gesehen, dass ihre Erwartungen an die Skalierbarkeit von 3D XPoint überzogen waren und es nie preislich mit NAND hätte konkurrieren können.
Wir werden wohl damit leben müssen, dass SSDs immer pro TB teurer sein werden als HDDs und man sich eine SSD mit hoher Kapazität er Ersatz für eine HDD eben leisten können / wollen muss. Die Preise schwanken immer mal wieder, gerade auch aufgrund externer Einflüsse wie nun dem KI Boom, vor so 15 Jahren mal der Flut in Thailand die einige HDD Fabriken überschwemmt hat, aber ich sehe nicht, dass HDDs verschwinden werden, auch weil es doch noch neue Technologien in der Pipeline gibt, wie die nun auf dem Markt erscheinende HAMR.
Und was dann danach iwann mal an womöglich noch unbekannter neuer consumerschnittstelle kommen soll bleibt auch ungewiss.
Die Schnittstellen bestimmen nicht den Preis! Es gibt immer wieder Leute die meinen, wenn man SATA nehmen würde, wäre ja eine günstige 16TB SSD möglich, aber dies stimmt nicht. Der Löwenanteil der Kosten so einer großen SSD sind die RAMs und dann gibt es wohl keinen SATA SSD Controller, zumindest keinen für Consumer SSDs, der so eine große Kapazität unterstützt, der müsste als neu entwickelt werden und wäre entsprechend teuer. Denn neue Controller und dies sind Controller mit der neusten (heutzutage PCIe) Schnittstelle anfangs viel mehr, dies war bei PCIe 4.0 anfangs auch so. Aber inzwischen hat jede neue Budget SSD die erscheint, eine PCIe 4.0 Anbindung und der Aufpreis für PCIe 5.0 Consumer SSDs, die anfangs pro TB doppelt so viel wie vergleichbare PCIe 4.0 SSDs gekostet haben, ist schon auf etwa ein Drittel gefallen und wird irgendwann ganz verschwinden.
Die Idee Geschwindigkeit für Kapazität tauschen zu können, ist also Blödsinn. Man spart ein paar Dollar bei einem einfachen DRAM less Controller, dazu inzwischen einige beim DRAM selbst, aber der DRAM less Controller ist meist auch einfacher, hat weniger NAND Channels und kann daher keine so großen Kapazitäten verwalten und im Vergleich den Kosten für zu 8TB+ NAND ist das alles Peanuts. Die Consumer SSDs mit den jeweils höchsten Kapazitäten kosten pro TB anfangs so viel mehr, weil die Stückzahlen gering sind und die Entwicklungskosten wieder herein geholt werden wollen, genau wie es ist es wenn die nächste PCIe Generation unterstützt wird und die Kunden die solche SSD kaufen, eben auch bereit sind dafür mehr zu zahlen. Man kann eben nicht immer auf zwei 4TB SSDs aufweichen, wenn man nur einen verfügbaren M.2 Slot hat und 8TB will, muss man die Kröte schlucken und wer eben unbedingt einer der ersten Besitzer einer PCIe 5.0 SSD sein will, dann eben dafür zahlen muss.
Aber warten wir ab, wann die erste Consumer SSD mit mehr als 8TB kommt, es wird dann wohl eine M.2 NVMe SSD sein und sie wird richtig teuer verkauft werden, so dass eine (gebrauchte) Enterprise SSD wohl die bessere Wahl wäre. Es wäre auch spannend, ob es je eine echte Alternative zum M.2 Formfaktor für Consumer SSDs geben wird, aber da die PCIe Schnittstelle immer schneller wird und es schwerer ist solche Signale über Kabel (zumal je länger diese sind) zu übertragen, sehe ich da nichts am Horizont. Außerdem ist es für die SSD Hersteller sehr attraktiv den Notebook und Desktop Markt mit den gleichen Modellen bedienen zu können und M.2 bietet genau dies.