PCIe 5.0 und QLC-NAND: Kioxia präsentiert die Exceria-G3-Serie

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.326
Kioxia Europe hat mit der Exceria-G3-SSD-Serie eine neue Consumer-Speicherlösung vorgestellt, die den Einstieg in die PCIe-5.0-Klasse zu einem vergleichsweise günstigen Preis ermöglichen soll. Die Serie richtet sich an Privatnutzer, die von älteren SATA-, PCIe-3.0- oder PCIe-4.0-Laufwerken auf eine moderne Plattform wechseln möchten, ohne in das obere Preissegment greifen zu müssen.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die neue Serie soll damit eine Lücke für Nutzer schließen, die von der neuesten Schnittstelle profitieren möchten, aber keine High-End-SSD benötigen.
Warum brauche ich die neueste Schnittstelle wenn ich keine absolute Highend-SSD will? 98% der User werden keinen Unterschied zwischen PCIe 4 oder 5 merken im täglichen Arbeiten, egal mit welcher SSD.

Wir reden hier auch von QLC ohne DRAM-Cache...
 
Sitze gerade an meinen Bastel-PC mit einer Samsung 830 128 MB von 2012 die ich endlich mal sterben lassen möchte. :LOL::ROFLMAO::ROFLMAO:
 
Warum brauche ich die neueste Schnittstelle wenn ich keine absolute Highend-SSD will? 98% der User werden keinen Unterschied zwischen PCIe 4 oder 5 merken im täglichen Arbeiten, egal mit welcher SSD.

Wir reden hier auch von QLC ohne DRAM-Cache..

Achtung Ironie:

bedenke das jedes Spiel +20FPS erhält durch eine schnellere und nochmal teurere SSD ...weitere +100FPS sind möglich wenn die SDD blau (nur blau rot macht es langsamer) beleuchtet ist dabei :d

Ironie ende

VG
 
Wir reden hier auch von QLC ohne DRAM-Cache...
Weil sie mehr als die 7000MB/s von PCIe 4.0 erreicht?

"In Verbindung mit der PCIe-5.0-Schnittstelle im Gen5x4-Layout erreicht die SSD sequenzielle Leseraten von bis zu 10.000 MB/s sowie Schreibgeschwindigkeiten von bis zu 9.600 MB/s. "
 
Name = Fail, eine Exceria (Plus) G3 gibt es bereits.

Hätte man in Anlehnung an die PCIe-Generation nicht einfach G5 nehmen können?

QLC und Geschwindigkeiten weit unter PCIe5.0-Spec, wenn die nicht sehr billig ist sehe ich wenig Marktchancen. Die G4 ist schon eine unsinnige SSD, was treibt Kioxia da nur? Die haben guten NAND und waren in der Vergangenheit P/L-Kracher. Jetzt bauen sie zwar recht günstige PCIe5.0-SSDs die aber langsamer sind als die ersten (Konkurrenz-) Modelle die 2023 auf dem Markt kamen
 
Weil der DRAM doppelt so groß ist?
 
Warum brauche ich die neueste Schnittstelle wenn ich keine absolute Highend-SSD will? 98% der User werden keinen Unterschied zwischen PCIe 4 oder 5 merken im täglichen Arbeiten, egal mit welcher SSD.
PCIe 5.0 SSDs mit diesen billigen dram less Controllern sind im Alltag meist langsamer als ordentliche PCIe 4.0 SSDs mit DRAM Cache. Es ist ja nicht nur der DRAM Cache der einen Unterschied macht, der fällt ja erst bei Zugriffen über große Adressbereiche wirklich ins Gewicht, sondern die DRAM less Controller sind eben in aller Regel auch einfacher aufgebaut um billiger zu sein. Die haben gerne nur 4 NAND Channels, manche der frühen SATA Modelle hatte sogar nur zwei und auch intern weniger Kern. Deshalb ist dieser Satz auch etwas problematisch:
Die Serie richtet sich an Privatnutzer, die von älteren SATA-, PCIe-3.0- oder PCIe-4.0-Laufwerken auf eine moderne Plattform wechseln möchten, ohne in das obere Preissegment greifen zu müssen.
Wenn man vorher eine gute PCIe 4.0 SSD hatte, ist das Update auf so eine DRAM less PCIe 5.0 SSDs sinnlos und kann am Ende sogar zu weniger Alltagsperformance führen.

Weil sie mehr als die 7000MB/s von PCIe 4.0 erreicht?
Wobei man aber gerade bei den Leseraten, Schreiben passiert meist sowieso gepuffert, da spielt die Schreibrate erst ab einigen GB am Stück eine Rolle, einige parallele und lange Zugriffe braucht, um so hohe Leseraten aus den SSDs zu kitzeln. Bei einem zufälligen 4k kurzem Zugriff kommen die besten nur etwas über 100MB/s hinaus, wobei dies auch sehr vom System und dessen Energiespareinstellungen abhängt. Da bringt PCIe 5.0 auch nur ganz wenig, weil die Befehle und Daten halt schneller übertragen werden, aber man bleibt eben noch weiter unter der maximalen Leserate die im Datenblatt steht. Deshalb bringt der Wechseln von PCIe 4.0 auf PCIe 5.0 auch für kaum jemanden einen spürbaren Vorteil, so wie es schon beim Wechsel von PCIe 3.0 auf PCIe 4.0 war und selbst der Wechseln von SATA auf PCIe 3.0 (sofern man nicht eine DRAM less SATA SSD hatte), war bei weitem nicht die Erfahrung wie der Wechsel von einer HDD auf eine SATA SSD, weil es eben die Zugriffszeiten sind, die im Alltag den größten Unterschied machen!
 
Name = Fail, eine Exceria (Plus) G3 gibt es bereits.
Bin auf Geizhals zuerst bei einer Speicherkarte mit dem Namen gelandet und war mittelmäßig verwirrt :confused:
Beitrag automatisch zusammengeführt:

Achtung Ironie:

bedenke das jedes Spiel +20FPS erhält durch eine schnellere und nochmal teurere SSD ...weitere +100FPS sind möglich wenn die SDD blau (nur blau rot macht es langsamer) beleuchtet ist dabei :d

Ironie ende

VG
Ich dachte die +100fps kommen nur durch die Photonen (Lichtgeschwindigkeit!!) einer vernünftigen RGB-Beleuchtung :banana:
 
Ich bin da ganz bei holt. Als system ssd fährst du da mit einer guten pcie4 ssd besser.
Wenn es iwas extrem günstiges in ssd und groß also 8tb+ gäbe, würde ich meine externen hdds direkt abschaffen, aber das wird noch Jahre dauern. Selbst sowas ohne dram wäre dafür okay. Rein als datengrab. Aktuell gibt es ne Lexxar für 585€. Wenn die mal Richtung 200 fällt okay aber das wird noch ewig dauern. Die krassen Einsparungen sind mit der jetzigen Technik halt schon weitestgehend gemacht...Und was dann danach iwann mal an womöglich noch unbekannter neuer consumerschnittstelle kommen soll bleibt auch ungewiss.
 
Wenn es iwas extrem günstiges in ssd und groß also 8tb+ gäbe, würde ich meine externen hdds direkt abschaffen, aber das wird noch Jahre dauern.
Das Problem ist, dass NAND nicht billiger wird, nur weil man mehr davon in eine SSD packt, statt es auf mehrere zu verteilen. Der Aufpreis für die 8TB Modelle fällt zwar schon gewaltig und wird irgendwann verschwinden, wie es bei 4TB ja auch war, zuerst haben die pro TB noch deutlich mehr als ihre kleinen Geschwister gekostet, jetzt sind sie oft die pro TB billigsten Modelle einer Baureihe. Mehr als 8TB für Consumer SSDs wird es so bald nicht geben, da der Preis dann vierstellig wird und dies scheint selbst für die meisten Enthusiasten ein Problem zu sein.

Aktuell gibt es ne Lexxar für 585€. Wenn die mal Richtung 200 fällt okay
Das ist kaum zu erwarten, da eben:

Die krassen Einsparungen sind mit der jetzigen Technik halt schon weitestgehend gemacht...
So ist es, erst hat man mehr als ein Bit pro Zelle gebracht und dazu die Größen (und Abstände) der Zellen reduziert, bis man bei 16nm und nur noch so 20 Elektronen pro Zelle angekommen ist, was schon für TLC grenzwertig war. Dann hat man den Schritt in die Dritte Dimension vorgenommen, was auch nur einmal geht und damit die Größen und Abstände der Zellen wieder deutlich erhöht. Aber jeder native Layer erfordert zusätzliche Bearbeitungsschritte, die kosten Geld und bringen das Risiko durch Fehler den Wafer zu verlieren. Dann ging man dazu über mehrere Dies übereinander zu packen und durchzukontaktieren, aber wenn man das mit zwei Dies macht, bekommt man pro Wafer am Ende nur halb so viele Dies, man spart sich aber bei einem die Logik. Die neuste Optimierung ist, die Logik getrennt herzustellen und damit alle Dies mit dem Array darauf zu packen und durchzukontraktieren, so dass man die alle gleich herstellen kann, statt eines mit Logik und andere ohne Logik getrennt zu fertigen.

NAND ist eben, genau wie übrigens auch DRAM, extrem simple aufgebaut, da lässt sich nichts finden was dies noch simpler machen könnte. Dann wurden alle großen Optimierungen schon gemacht, mehr Bits pro Zelle und 3D. Es gibt immer wieder Gerüchte um mehr Bits pro Zelle durch Zellen die wie zwei getrennte Zellen funktionieren sollen und wo man dann eine Hälfte getrennt von der anderen Lesen und Beschreiben kann, aber ich sehe nicht, wie das praktisch funktionieren und zugleich kompakter als zwei Zellen sein soll. Was bleibt ist die Prozesse zu optimieren um noch ein paar mehr native Layer herzustellen, mehr Dies übereinander zu stacken um so noch weniger Dies mit Logik zu benötigen, die Abstände und Größe der Zellen zu optimieren, oder eben mehr Bits pro Zelle zu speichern, was sich aber gegenseitig irgendwann ausschließt.

Das sind aber alles nur kleine Trippelschritte, große Sprünge sind aber nicht mehr in Sicht. Was auch ein Grund war, warum Intel sich damals von seiner NAND Sparte getrennt hat, da sie damals mehr Potential in 3D XPoint gesehen haben. Leider haben sie dies dann aufgegeben, bevor wir erfahren konnten, ob dieses Potential wirklich vorhanden war, aber es hätte sich einige Zeit gedauert, bis man dort angekommen wäre und der Markt war einfach nicht bereit solange den Aufpreis zu zahlen und Intel (und Micron) nicht, die Verluste länger zu tragen. Aber vielleicht haben sie auch gesehen, dass ihre Erwartungen an die Skalierbarkeit von 3D XPoint überzogen waren und es nie preislich mit NAND hätte konkurrieren können.

Wir werden wohl damit leben müssen, dass SSDs immer pro TB teurer sein werden als HDDs und man sich eine SSD mit hoher Kapazität er Ersatz für eine HDD eben leisten können / wollen muss. Die Preise schwanken immer mal wieder, gerade auch aufgrund externer Einflüsse wie nun dem KI Boom, vor so 15 Jahren mal der Flut in Thailand die einige HDD Fabriken überschwemmt hat, aber ich sehe nicht, dass HDDs verschwinden werden, auch weil es doch noch neue Technologien in der Pipeline gibt, wie die nun auf dem Markt erscheinende HAMR.
Und was dann danach iwann mal an womöglich noch unbekannter neuer consumerschnittstelle kommen soll bleibt auch ungewiss.
Die Schnittstellen bestimmen nicht den Preis! Es gibt immer wieder Leute die meinen, wenn man SATA nehmen würde, wäre ja eine günstige 16TB SSD möglich, aber dies stimmt nicht. Der Löwenanteil der Kosten so einer großen SSD sind die RAMs und dann gibt es wohl keinen SATA SSD Controller, zumindest keinen für Consumer SSDs, der so eine große Kapazität unterstützt, der müsste als neu entwickelt werden und wäre entsprechend teuer. Denn neue Controller und dies sind Controller mit der neusten (heutzutage PCIe) Schnittstelle anfangs viel mehr, dies war bei PCIe 4.0 anfangs auch so. Aber inzwischen hat jede neue Budget SSD die erscheint, eine PCIe 4.0 Anbindung und der Aufpreis für PCIe 5.0 Consumer SSDs, die anfangs pro TB doppelt so viel wie vergleichbare PCIe 4.0 SSDs gekostet haben, ist schon auf etwa ein Drittel gefallen und wird irgendwann ganz verschwinden.

Die Idee Geschwindigkeit für Kapazität tauschen zu können, ist also Blödsinn. Man spart ein paar Dollar bei einem einfachen DRAM less Controller, dazu inzwischen einige beim DRAM selbst, aber der DRAM less Controller ist meist auch einfacher, hat weniger NAND Channels und kann daher keine so großen Kapazitäten verwalten und im Vergleich den Kosten für zu 8TB+ NAND ist das alles Peanuts. Die Consumer SSDs mit den jeweils höchsten Kapazitäten kosten pro TB anfangs so viel mehr, weil die Stückzahlen gering sind und die Entwicklungskosten wieder herein geholt werden wollen, genau wie es ist es wenn die nächste PCIe Generation unterstützt wird und die Kunden die solche SSD kaufen, eben auch bereit sind dafür mehr zu zahlen. Man kann eben nicht immer auf zwei 4TB SSDs aufweichen, wenn man nur einen verfügbaren M.2 Slot hat und 8TB will, muss man die Kröte schlucken und wer eben unbedingt einer der ersten Besitzer einer PCIe 5.0 SSD sein will, dann eben dafür zahlen muss.

Aber warten wir ab, wann die erste Consumer SSD mit mehr als 8TB kommt, es wird dann wohl eine M.2 NVMe SSD sein und sie wird richtig teuer verkauft werden, so dass eine (gebrauchte) Enterprise SSD wohl die bessere Wahl wäre. Es wäre auch spannend, ob es je eine echte Alternative zum M.2 Formfaktor für Consumer SSDs geben wird, aber da die PCIe Schnittstelle immer schneller wird und es schwerer ist solche Signale über Kabel (zumal je länger diese sind) zu übertragen, sehe ich da nichts am Horizont. Außerdem ist es für die SSD Hersteller sehr attraktiv den Notebook und Desktop Markt mit den gleichen Modellen bedienen zu können und M.2 bietet genau dies.
 
Ich glaub die Preise werden für viele User ein immer größerer Faktor sein.

Da sehe ich derzeit noch nicht so richtig den Kaufgrund für QLC-SSDs, abseits von wirklich guten Angeboten. Das es Zwecke gibt in denen eine QLC-SSD reicht ist aber Tatsache. Und ans Schreiblimit bin ich noch bei keiner gelandet.

Bin auf Geizhals zuerst bei einer Speicherkarte mit dem Namen gelandet und war mittelmäßig verwirrt

Exceria ist eine Art Standardbezeichnung bei Kioxia.

Die Exceria Plus G3 war mal nen echter Tipp, aber das Namensschema ist mies. Die Bezeichnung "G" mit einer Nummer kann man schnell als (PCIe-)Generation interpretieren, da paßt durchgehend nix.
 
Da sehe ich derzeit noch nicht so richtig den Kaufgrund für QLC-SSDs, abseits von wirklich guten Angeboten.
Ja, die Preise für QLC SSDs sind selten attraktiv genug um den Kauf zu rechtfertigen. Man sollte aber nicht vergessen, dass es theoretisch maximal 25% Kostenvorteil für QLC gegenüber TLC NAND gibt, man braucht eben nur 75% so viele Zellen um die gleiche Anzahl an Daten zu speichern. Aber praktisch hat NAND immer mehr Kapazität als angegeben, da es bei jeder NAND Page noch zusätzliche Bytes gibt um Verwaltungsdaten, vor allem die ECC für die Daten in der Page, zu speichern. Die ECC für QLC dürfte aufwendiger sein als bei TLC. womit es dann weniger als die theoretischen 25% sein dürften. Aber wenn man sich die Preise der SSDs ansieht, fragt man sich wo selbst dieser vielleicht 20% die es dann bei den gesamten Kosten (bei großen Kapazitäten macht NAND ja den Löwenanteil der Kosten aus) blieben.
 
@Holt

Den kostenvorteil hat man schon. Das problem ist dass man vom endpreis erstmal bei uns steuern, provisionen der händler, versand und lager usw. Abziehen muss. Dann bleibt von den 20% am endpreis gemessen sehr wenig übrig. Den rest schnappen sich gerne aufschläge wegen Angebot/nachfrage.

20% theoretischer kostenvorteil in der produktion bedeutet ja nicht 20% billigere endkundenpreise.
 
Das problem ist dass man vom endpreis erstmal bei uns steuern, provisionen der händler, versand und lager usw. Abziehen muss.
Was aber genauso für SSDs mit TLC NAND gilt.
20% theoretischer kostenvorteil in der produktion bedeutet ja nicht 20% billigere endkundenpreise.
Eben und deswegen sind SSD mit QLC NAND meist keine attraktiven Angeboten, weil eben der Kostenvorteil in aller Regel nicht bei Kunden ankommt, wenn auch nicht aus den Gründen die Du genannt hast.
 
Das es Zwecke gibt in denen eine QLC-SSD reicht ist aber Tatsache.
Als die ersten QLCs kamen war meine Hoffnung in 2,3 Generationen die letzte HDD (im AS) ausn Haus verbannen zu können, leider sank der Preis nicht wie ich gehofft hatte.
 
leider sank der Preis nicht wie ich gehofft hatte.
Viele haben gedacht die NAND Preise würden immer so weiter fallen wie in den erste 10 Jahren nachdem SSDs auf den Consumer Markt angekommen sind. Dabei haben sie aber übersehen, was ich im Post #12 geschrieben habe: Die Skalierung geht halt nicht ewig weiter, bei so 16nm war man bei planaren NANDs am Ende der Schrumpfung der Zellen und Zellabstände, dann ging man in die dritte Dimension, was aber nur einmal geht und bei den Bits pro Zelle sieht es so aus, als wäre bei 4 das Ende erreicht, von PLC NANDs liest man kaum noch was, vielleicht sind die Zellen schon wieder so klein, dass da gar nicht mehr genug Elektronen rein passen um 5 Bits pro Zelle zu unterscheiden.

Man ist im Grunde am Ende dessen angekommen, was relativ gut machbar war, aber dies ist ja nichts Neues. Als die CPUs Frequenzen 1GHz erreicht haben nachdem sie laufende um 100MHz gesteigert werden konnten, hat man auch gedacht bald würde man bei 10GHz ankommen, aber wie wir wissen, ist dies bis heute nicht der Fall, sondern man kämpft eher bei der Hälfte davon um jedes MHz und ist dann auf mehr Kerne gegangen um die Leistung weiter steigern zu können und arbeitet natürlich weiter an den Architekturen um mehr IPCs zu erhalten.

Die Leute verfallen aber eben immer wieder der Versuchung anfängliche, gewaltige Fortschritt in alle Ewigkeit Fortschreiben zu wollen und sind dann immer wieder überrascht, wenn dies nicht klappt, weil man einfach irgendwann immer gegen eine Wand läuft.
 
Darauf hast nicht nur du gehofft ;)

Wobei ich mir nicht sicher bin ob Datenlager, die man vielleicht Jahre nicht einschaltet, das richtige Szenario für SSD ist.

Derzeit sind die Preise für QLC im Normalfalle nicht niedrig genug, aber da die Preise wohl erstmal nicht fallen wird vielleicht so manch einer zu QLC greifen.

Ein anderes Problem was ich sehe ist dass PLC-NAND -falls es je kommt- sich immer weiter verzögert hat; SK Hynix hat vor über 3 Jahren eine Demo gemacht, bis heute gibt es aber kein Produkt damit zu kaufen. kA ob ich darüber traurig sein soll, die derzeitige NAND-Technik scheint so langsam an die Grenzen zu kommen. Zumindest scheint die Entwicklung langsamer zu gehen.
 
Wobei ich mir nicht sicher bin ob Datenlager, die man vielleicht Jahre nicht einschaltet, das richtige Szenario für SSD ist.
HDDs mögen dies aber auch nicht, die sollten auch regelmäßig mal eingeschaltet werden und können Schaden nehmen, wenn sie zu lange gelagert wurden. Seagate erlaubt z.B. maximal 12 Monate Lagerung bei 25°C und maximal 40% Luftfeuchtigkeit, sonst nur 180 Tage in der ungeöffneten, originalen Verpackung oder 60 Tage nach diese geöffnet wurde.
Ein anderes Problem was ich sehe ist dass PLC-NAND -falls es je kommt- sich immer weiter verzögert hat
PLC würde theoretisch maximal 20% Kosten einsparen, praktisch aber wohl weniger, da es vermutlich noch mehr zusätzliche Bytes pro Page für eine noch aufwendigere ECC erfordern dürfte. Das größere Problem ist aber, dass die Zellen mehr Elektronen enthalten müssen um mehr Ladungszustände unterscheiden zu können, was die minimale Größe der Zellen limitiert und da stellt sich dann schnell die Frage ob es sich nicht eher lohnt die Zellen zu schrumpfen und die Kosten darüber zu mindern. Da würde ich den Grund vermuten, warum es um PLC so still geworden ist. QLC sollte ja auch schon zu Zeiten der planaren NANDs kommen, erschien dann aber erst als 3D NAND, weil die Zellen bei 20nm und weniger schon so klein waren und damit wenig Elektronen enthielten, dass man keine 4 Bits in einer Zelle speichern konnte. Mit dem Sprung auf 3D wurden die Zellen dann erstmal wieder deutlich größer, aber im Rahmen der Optimierungen dürfte man diese wieder geschrumpft haben um die Datendichte zu erhöhen.
die derzeitige NAND-Technik scheint so langsam an die Grenzen zu kommen. Zumindest scheint die Entwicklung langsamer zu gehen.
Das ist schon länger so und scheint nicht nur so. Alleine durch die geringen Preise 2023 aufgrund eines Überangebotes, dürfte manche verleitet haben zu glauben es würden noch massive Fortschritte bei der Kostensenkung gemacht. Diese Leute haben aber übersehen, dass die NAND Hersteller damals Milliardenverluste eingefahren haben und die geringen Preise einfach dem Schweinezyklus geschuldet waren, der nun definitiv in die Phase der sehr hohen Preise gehen dürfte. Weil es eben durch den KI Boom viel mehr Nachfrage als Angebot gibt.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh