HDDs könnten schon schneller sein.Die aktuellen HDDs haben ja nur 7.200 UPM.
Früher gabs auch HDDs mit 10.000 UPM und 15.000 UPM.
Wie Du ja schon selbst schreibst:
Allerdings sind damit keine so großen Kapazitäten möglich, weil die Platten aus technischen Gründen kleiner sind.
Bei 15.000 UPM-Platten steckten 2,5"-Platten im 3,5" Gehäuse
Wobei zuerst die Platter in den 3.5" Gehäusen kleiner wurden und dann diese Platten auch wirklich 2.5" Gehäuse bekommen haben.
SSDs gibts inzwischen schon mit mehr als 122 TB.
Da kann keine HDD mithalten.
Ja, aber die kosten dann auch entsprechend und der Vorteil von HDDs ist eben der günstigere Preis pro TB, auch wenn die Preise derzeit generell wegen des KI Booms verrückt spielen. Der Vorteil der HDDs ist eben, dass man die Kosten pro TB senken kann, wenn man die Datendichte steigert, denn auch wenn die neuen Techniken die dafür nötig sind zuerst teurer sind, so fallen diese Kosten mit der Zeit und steigenden Fertigungsvolumen. Eine HDD mit 4TB pro Platter zu fertigen kostet dann also bei weitem nicht das doppelte wie eine mit 2TB pro Platter.
Bei SSDs mit hohen Kapazitäten macht das NAND den Löwenanteil der Kosten aus und die NANDs werden nicht billiger, wenn man mehr davon in eine SSD verbaut, statt es auf mehrere mit geringeren Kapazitäten zu verteilen. Die Kosten der NANDs pro GB sind schon gewaltig gefallen, auch wenn sie zuletzt wegen des KI Booms wieder gewaltig angestiegen sind, aber sie weiter zu senken wird immer schwerer. Man hat die einfachen Sachen alle schon gemacht, von einem auf zwei, drei und nun 4 Bits pro Zelle, die Strukturen immer mehr geschrumpft, wo man bei so 15nm am Limit angekommen ist und die Zellen so klein wurden, dass es kaum noch 20 Elektronen enthalten haben. Dann ging es in die dritte Dimension und man schafft da auch immer mehr native Layer und stapelt mehr Dies übereinander (stacking), aber jeder zusätzliche Layer erfordert zusätzliche Bearbeitungsschritte und erhöht damit neben dem Aufwand (also den Kosten) auch das Risiko den Wafer durch Fehler zu verlieren. Das Stacking bedeutet am Ende auch nur, dass man zwei oder mehr Dies fertigen muss um am Ende ein fertiges Die zu bekommen, da spart man sich nur die Logik, weil man diese nur einmal braucht und inzwischen geht der Trend dahin, die Logik getrennt zu fertigen und die Dies mit dem Array drauf zu setzen.
Da kann man nicht etwas optimieren und ebenso die Größen und Abstände der Zellen weiter optimieren, was aber die Anzahl der Bits pro Zelle limitiert, aber von PLC hört man schon länger nichts mehr, außer von wilden Ideen mit halbe Zellen. Man wird sehen was daraus wird, aber es würde die Komplexität steigern und die Einfachheit des Aufbaus der Zellen macht NAND so günstig und man wird sehen was daraus wird. Man sollte aber keine Kostensenkungen wie in der Vergangenheit erwarten. HDDs dürften also pro TB noch sehr lange günstiger bleiben, wenn nicht für immer. Denn auch wenn immer wieder überall an Alternativen geforscht wird, was hat da nicht alles Schlagzeilen gemacht, so ist davon bisher nichts auf den Markt gekommen, außer dem 3D XPoint, von dem Intel sich mal versprochen hat, es wäre besser skalierbar als NAND. Entweder war dem doch nicht so, oder Intel haben die vielen Milliarden gefehlt um dies dann irgendwann zu erreichen, denn auch wenn die Optane sehr, sehr teuer (gerade auch pro GB) waren, konnte Intel damit kein Geld verdienen. Alternativen zu NAND und HDDs sind also nicht in Sicht.