Die SSD-FAQ: Aktuelle SSD-Technologien im Überblick

Veröffentlicht am: von

In Kooperation mit WD

wd

Einen aktuellen PC ohne Solid-State-Drive zu konfigurieren, dürfte bereits seit einigen Jahren für viele Anwender undenkbar sein. Zu groß sind die Vorteile zumindest einer SSD als Systemlaufwerk gegenüber klassischen Festplatten. Doch wenn man auf die Suche nach einer SSD geht, findet man viele Fachbegriffe: In den Datenblättern gibt es Unterschiede beim Controller, der Schnittstelle, beim Flash, diverse Haltbarkeitsbegriffe und vieles mehr. Dass damit vor allem Anfänger der PC-Zusammenstellung etwas überfordert sind, überrascht daher wenig. Dieser Artikel soll die wichtigsten Begrifflichkeiten und Unterschiede erläutern, welche Technologie sich für welchen Zweck am ehesten eignet und auch die Schnittstellen und Formfaktoren ein wenig entwirren. 

Heutige SSDs sind zuverlässig, schnell und auch immer preiswerter: Einen Grund, nicht auf die neuen Datenträger zu setzen, gibt es nicht mehr. Die ersten Laufwerke - damals noch im 3,5-Zoll-Format - fielen oft aus, auch die erste Generation 2,5-Zoll-SSDs war nur etwas für Bastler. Teilweise mussten Firmwares selber aktualisiert werden oder das Einbinden per Treiber war kompliziert. Heute gibt es nicht nur eine breite Unterstützung von Seiten des Betriebssystems, auch die Qualität jeglicher Laufwerke am Markt ist auf einem hohen Niveau. 

Die Unterschiede zu Festplatten waren aber schon damals ein Kaufargument: Schnelle Zugriffe bei höheren Datenübertragungsraten, dazu ein lautloser Betrieb (der gerade gegenüber High-End-Festplatten mit 10.000 U/min sehr deutlich wurde), geringere Energieaufnahme und auch Stoßunempfindlichkeit, was gerade bei Notebooks nicht mehr wegzudenken ist. Lediglich die Kapazitäten waren stets ein Hemmschuh - oder aber zumindest die Bezahlung dieser.

» zur Galerie

Doch auch diese Probleme gehören zunehmend der Vergangenheit an. Zwar sind nach wie vor Festplatten in ihrem Preis-Kapazitäts-Verhältnis meist eine sehr gute Wahl, doch begünstigt durch Fortschritte in der Fertigung und der Einführung neuer Technologien fiel der Preis für SSDs zuletzt so deutlich, dass heute auch für Datensammler ausschließliche SSD-Konfigurationen erschwinglich sind.

Welche SSD – oder besser gesagt: welcher SSD-Typ für wen dabei die beste Lösung ist, hängt letztlich von mehreren Faktoren ab. Manchmal schon ganz einfach am vorhandenen Platz. Auf der nächsten Seite klären wir somit zunächst einmal die Formfaktoren aktueller SSDs. Hiermit einher geht natürlich die Frage des Anschlusses, insofern gehen wir auf Seite 3 auf die Schnittstellen wie SATA und NVME ein. Anschließend werfen wir einen Blick in das Innere der SSD und beschreiben Controller- und Flash-Typen, die aktuell am Markt vorzufinden sind. Letztendlich gehen wir darauf ein, welche Technik für welchen Anwender die Beste ist - auch hinsichtlich der Haltbarkeit und Anwendbarkeit.

In Kooperation mit WD


In Kooperation mit WD

Aktuell findet man vor allen Dingen zwei Formfaktoren am Markt: Die SSD im 2,5-Zoll-Format und als Steckkarte.

SSDs im 2,5-Zoll-Format

Das immer noch meist genutzte Format ist dabei das 2,5-Zoll-Format, das man schon von Notebook-Festplatten kannte. Abgesehen von sehr dünnen Notebooks und Tablets findet man auch heutzutage mit diesem Format noch Platz in allen Gehäusen. Für die meisten Anwender ist das Format auch praktisch: Man kennt die Art des Anschlusses schon von Festplatten. Auch bei einer 2,5"-SSD wird diese mit einem SATA-Datenkabel und einem Stromkabel verbunden, zudem findet man in modernen Gehäusen auch vielfältige Möglichkeiten, die SSDs einzubauen. 

Einen weiteren Vorteil haben die 2,5-Zoll-Modelle: Sie stecken meistens in einem Aluminium-Gehäuse, welches über ein Wärmeleitpad oft eine Kühlung der verbauten Komponenten erreichen kann. Die Controller werden also selten zu heiß oder müssen mit einem separaten Kühler versehen werden. 

Allerdings haben die 2,5-Zoll-Modelle auch einen Nachteil: Die meisten von Ihnen werden per SATA-Anschluss betrieben, nur einige Server-Modelle bieten einen schnelleren U.2-Anschluss. Entsprechend sind sie limitiert auf die maximalen Übertragungsraten des SATA-Busses und erreichen nicht mehr als 550 MB/s beim Lesen und Schreiben. 

» zur Galerie

SSDs im m.2-Format

Soll es allerdings noch kompakter werden und sind bereits die schmalen SATA-Kabel zu sehr im Weg, und auch besitzen die 2,5-Zoll-SSDs eine Höhe von 7 mm. Daher hat sich in den letzten Jahren das M.2-Format als neuer Standard etabliert, zunächst für den Notebook-Bereich, mittlerweile aber auch im Desktop-Bereich. 

Diese schmalen Speicherkarten können auf den meisten aktuellen Mainboards direkt installiert werden und brauchen keinerlei zusätzliche Verbindungsleitungen. Das gängigste Format zeigt die im Bild abgebildete Western Digital WD_Black SN750 im sogenannten "2280"-Format. Dabei stehen die ersten beiden Stellen für die Breite (sprich: 22 mm) und die letzten beiden für die Länge. Die 80 mm der SN750 sind dabei meist der Standard, den jedes aktuelle Mainboard unterstützt. Größere Formate mit einer Länge von 110 mm sind für Consumer-SSDs bislang nicht veröffentlicht. Kleine Längen wie etwa 2230 oder 2242 hingegen schon. Gerade in sehr flachen Laptops oder Tablets kann hier weiterer Platz gespart werden.

Der Vorteil der m.2-SSDs liegt auch im verwendeten Interface: Neuere Modelle setzen nicht mehr auf das SATA-Interface, sondern bieten ein PCI-Express-basiertes Protokoll, das die Anbindung deutlich schneller macht. Gleichzeitig ist dies aber vielleicht auch verwirrend: Ältere Mainboards unterstützten m.2-SSDs nur im SATA-Betrieb, neuere nur mit dem neuen "NVME"-Interface. Gerade beim Updaten älterer Mainboards oder Notebooks muss man auf den Standard achten, den wir auf der nächsten Seite erklären. 

» zur Galerie

SSDs als PCI-Express-Karte

Darüber hinaus bieten noch einige wenige Hersteller zusätzlich SSDs als sogenannte Add-In-Card an. Diese werden als typische PCIe-Karte in den PC eingebaut und sind meist für Workstations oder Serveranwendungen konzipiert. Anders als bei M.2-Laufwerken bieten die Add-In-Karten eine große Oberfläche und damit die Möglichkeit, die entstehende Wärme gut abzuführen oder aber deutlich mehr Speicherchips zur Verfügung zu stellen. Außerdem kann so die SSD auf beispielsweise acht PCI-Express-Lanes zurückgreifen und damit ihre Bandbreite deutlich vergrößern, wie etwa die Western Digital Ultrastar DC ME200, die eine Anbindung von PCIe 3.0 x8 ermöglicht. Denn, wie wir auf der nächsten Seite sehen werden, ist die Wahl des richtigen Interfaces deutlich wichtiger als der Formfaktor an sich.

 

In Kooperation mit WD


In Kooperation mit WD

Passende Schnittstellen gibt es viele - zum einen externe, über Thunderbolt und USB für externe SSDs mit unterschiedlicher Geschwindigkeit, aber natürlich insbesondere interne, wie SATA und NVME.

SATA: Einfach und in zwei Formaten

Die meist genutzte und verbreitetste Schnittstelle ist sicherlich die SATA-Schnittstelle. In ihrer aktuellen dritten Version, auch "SATA-600" genannt, sind damit Übertragungsraten von bis zu 600 MB/s möglich. Zu unterscheiden sind hier einmal die mechanische Schnittstelle und das zugehörige Protokoll. Physikalisch kennt man die schwarzen Ports, von denen meistens vier oder sechs auf aktuellen Mainboards zu finden sind. Aber auch M.2-Ports können das SATA-Protokoll nutzen und nichts anderes verstehen - entsprechend unterstützen sie dann auch die theoretische maximale Übertragungsrate von 600 MB/s. Für Festplatten und gar optische Laufwerke, die ebenfalls per SATA an das Mainboard angeschlossen sind, ist dieses Limit  unerreichbar. Für SSDs hingegen nicht - sie können diese Grenze leicht erreichen. So erreichen die meisten SSDs im SATA-Format heute nominell 550 MB/s - also die theoretische Bandbreite abzüglich des üblichen Overheads. 

Wird das M.2-Format genutzt, so ergibt sich ein Problem: Optisch lassen sich die M.2-Ports auf dem Mainboard, sowie die M.2-Laufwerke selbst nicht anhand ihrer Schnittstelle voneinander unterscheiden. Dazu bedarf es eines genaueren Blicks auf die jeweiligen Datenblätter oder in das Handbuch. SATA-basierende M.2-SSDs können nicht in NVME-fähigen M.2-Slots eingesetzt werden und umgekehrt. 

Manchmal ändern Hersteller auch innerhalb einer Serie beim Generationswechsel die jeweilige Schnittstelle. So ist die neue Western Digital WD_Blue SN500 (Test folgt in Kürze) anders als ihr Vorgänger nun mit NVMe statt SATA angebunden und ermöglicht somit eine deutlich höhere Bandbreite.

» zur Galerie

NVME: Für schnellere SSDs unabdingbar

Sind schließlich größere Datenübertragungsraten gewünscht, entwickelte sich in den letzten Jahren das NVMe-Protokoll (Non-Volatile Memory Express) zur meistgenutzten Alternative. Hier kann das Speichermedium über den M.2-Slot direkt an PCIe angebunden werden, was natürlich deutlich höhere Übertragungsgeschwindigkeiten ermöglicht. Mit dem gerade vorgestellten PCIe-4.0-Standard sind so bei einer x4-Anbindung theoretisch bis zu 7,8 GB/s möglich. Beim aktuellen PCIe-Standard 3.x sind es schnelle 3,9 GB/s, also fast die achtfache SATA-Performance. Dass diese Bandbreiten meist nur auf dem Papier zu lesen sind, hat dabei vielfältige Gründe. Dennoch konnten wir in der Vergangenheit bei den synthetischen Benchmarks im Idealzustand bereits Transferraten messen, die nahe an diese Spezifikationsgrenze gelangen konnten.

Hier gilt allerdings der Hinweis, sich nicht allein vom Begriff NVMe verleiten zu lassen. Oft können die preisgünstigen Varianten der Hersteller nur mit weniger Lanes als ihre Top-Modelle angesteuert werden, was eine Reduktion der maximalen Bandbreite zur Folge hat. Nicht alle SSDs nutzen die volle Performance wie die WD Black PCIe, die mit vier PCIe-3.0-Lanes angebunden ist. 

Zeitgleich jedoch sollte bedacht werden, dass bei einigen älteren Consumer-Mainboards von AMD und Intel auch die zur Verfügung stehenden Lanes begrenzt sind. Gerade günstige Mainboards, die damit werben, mehrere m.2-Slots zu bieten, steuern den zweiten (oder gar dritten) Port oft nur mit zwei Lanes an. In Laptops finden sich solche Limitierungen sogar regelmäßig. Soll also in einem solchen System eine (zweite) SSD verbaut werden, sollte man vorher das Handbuch konsultieren, um nicht Leistung zu verschenken.

Außerdem zeigt sich in Benchmarks wie bei Anwendungen mit extremen Schreiblasten, dass die hohe Bandbreite von NVMe auch Nachteile mit sich bringt. Durch die hohe Belastung werden die Speicherchips in diesen Situationen sehr warm, zum Teil sogar sehr heiß. Kurzfristige Temperaturen von 70°C sind dabei keine Seltenheit, was zur Folge hat, dass die SSDs selbstständig ihre Geschwindigkeit drosseln und so ihre Performance einbüßen. Gehören solche Schreibzyklen zu den ständigen Anwendungen, ist eine Kühlung also Pflicht. Die bereits erwähnte SN750 von Western Digital gibt es aufgrund der hohen Leistung für genau solche User mit einem Heatspreader zu kaufen. Abhängig vom Luftzug im Gehäuse kann so das Drosseln vermieden werden.

» zur Galerie

SAS: Sonderfall für Server

Für heimische Computer irrelevant, soll an dieser Stelle auch noch kurz das Serial Attached Small Computer System Interface (oder kurz: SAS) in der dritten Generation erwähnt werden. Diese Schnittstelle erinnert optisch stark an die handelsüblichen SATA-Schnittstellen, was kein Zufall ist. Der SAS-Anschluss übernahm im Grunde die SATA-Form, sodass auch SAS-Kabel für ein SATA-Laufwerk verwendet werden können – nicht aber umgekehrt. Die Nettoübertragungsrate ist im Vergleich zu SATA-600 verdoppelt, im Vergleich zu NVMe allerdings natürlich immer noch geringer. Ihr spezieller Nutzen zeigt sich beispielsweise beim sogenannten Dual Porting, das es ermöglicht, zwei Systeme zeitgleich an ein Laufwerk anzuschließen und simultan darauf zuzugreifen.

Die Schnittstelle ist allerdings eher für Serversysteme gedacht: Mit entsprechenden RAID-Controllern war es möglich, Server mit leistungsfähigeren Laufwerken zu versorgen, aber trotzdem den 2,5-Zoll-Formfaktor beizubehalten, um diese von vorne in die Server einschieben zu können. Letztendlich ist das Preis-Leistungsverhältnis aber bei SAS-Laufwerken aufgrund von teuren Controllern nicht sehr gut - und die Ablösung steht schon in den Startlöchern. 

Die Möglichkeit, SSDs im laufenden Betrieb bei einem Defekt auszutauschen, ist bei Servern oftmals notwendig. NVME-Laufwerke, die auf den Mainboards verbaut sind, oder PCIe-Steckkarten, kommen deshalb im Server-Umfeld meistens nicht in Frage. Um die Vorteile von NVME mit der Austauschbarkeit von klassischen 2,5-Zoll-Laufwerken zu verbinden, wurde das U.2-Interface geschaffen. Auch einige High-End-Consumer-Mainboards besitzen eine derartige Schnittstelle bereits. Auch existieren bereits Steckkarten-Systeme für SSDs in Servern, die das NVME-Protokoll nutzen und im sogenannten "NGSFF"-Format (Next Generation Small Form Format) kommen. Welche dieser Formate sich durchsetzt, werden die nächsten Jahre zeigen. 

» zur Galerie

In Kooperation mit WD


In Kooperation mit WD

Aber nicht nur in der Art der Anbindung und ihrem generellen Format unterscheiden sich SSDs erheblich. Auch unter der Haube gibt es große Unterschiede zwischen den verschiedenen Laufwerken. Gab es zum Beginn des SSD-Zeitalters nur wenige Unterschiede zwischen den genutzten Speichertechnologien, gehe

(Pseudo-)SLC, MLC und TLC - was ist das eigentlich?

Liest man sich in Datenblätter und Reviews zu aktuellen SSDs ein wenig ein, stellt man schnell fest, dass unterschiedliche Speichertechnologien am Markt verfügbar sind und mal mehr, mal weniger offensiv beworben werden. SLC, MLC, TLC, QLC und 3D-NAND sind dabei die Begrifflichkeiten, die einem immer wieder begegnen. Die ersten vier Abkürzungen geben dabei an, wie viele Bits in einer Speicherzelle beschrieben werden. Bei Single Level Cells sind es genau ein Bit, bei Multi Level Cell (MLC) zwei, bei Triple Level Cell (TLC) drei – und oh Wunder: bei Quadruple Level Cells (QLC) genau vier Bits. Genau betrachtet beschreibt MLC alle Technologien außer SLC, was meist als 2-Bit-MLC oder eben 3-Bit-MLC gekennzeichnet wird.

Kennzeichen aller genannten Arten ist die Eigenschaft, Bits in eine Speicherzelle zu schreiben, um so die Speicherdichte zu verändern. Logischerweise braucht dieselbe Speichermenge als SLC mehr Platz als TLC oder QLC, was wiederum auf die Herstellkosten und damit die Endkundenpreise Auswirkungen hat.

Doch die Nachteile einer höheren Speicherdichte sind offensichtlich. Zunächst muss sich vergegenwärtigt werden, dass zum Speichern von Zuständen Elektronen "geschrieben" werden. Wird also in einer Zelle per SLC ein Wert gespeichert, gibt es genau 2^1 Zustände: Spannung vorhanden - oder eben nicht. Für MLC gibt es bereits 2^2 Zustände, für TLC und QLC analog 2^3 und 2^4. Bei 16 verschiedenen Zuständen muss der verbaute Controller also wesentlich genauer programmieren und auch zuverlässiger auslesen als bei SLC. Dies hat zur Folge, dass die allgemeine Performance deutlich sinkt. Außerdem haben Speicherzellen keine unbegrenzte Lebensdauer, werden sie also häufiger benutzt und dichter beschrieben, steigt das Ausfallrisiko.

Zeitgleich muss festgehalten werden, dass die Hersteller parallel zu den Techniken der Schreibdichte auch an ihren Chips und Controllern feilen. Dadurch sind die zu erwartenden Lebenszyklen zuletzt immer weiter gestiegen. Für die WD_Black SN750 mit 2 TB Kapazität gibt Western Digital beispielsweise eine zu erwartende Schreibmenge von 1.200 TB an – also dem 600-fachen des Speichervolumens. Zumal selbst dann ein Ausfall nicht garantiert ist, in der Praxis werden bei Consumer-PCs zwar recht selten diese Schreibmassen erreicht, doch sind Berichte über deutlich größere erreichte TBW-Angaben auch immer wieder im Forum zu lesen.

Gut gestapelt ist halb gewonnen

Als Konzept, um bei vergleichsweise größerer Datendichte dennoch auch Haltbarkeit und Performance zu erhöhen, entwickelten die SSD-Hersteller seit einigen Jahren den sogenannten 3D-NAND. Dieser, heute selbst bei Einsteiger-NVMe-SSDs verbaute Speicher „stapelt“ im Gegensatz zur 2D-Variante seine Speicherchips. Das Konzept dahinter ist simpel: 2D-Speicherzellen sind in einer Ebene angeordnet. 

Bei 3D-Speicher kann man sich eine Speicherzelle hingegen als eine Art Block vorstellen, bei dem die „Layer“ aufeinander liegen. Bei beispielsweise 64 solcher Schichten wie etwa bei der WD_Black SN750 befindet sich also die 64-fache Speichermenge auf derselben Grundfläche wie bei einer TLC-SSD mit 2D-NAND. 

Was macht ein Cache und was ist ein SLC-Cache?

Eine weitere Möglichkeit, die Performance zu steigern, findet sich im sogenannten SLC-Caching. Damit eine SSD möglichst das Maximum an Geschwindigkeit des NVMe-Interfaces nutzen kann, besitzen HighEnd-SSDs wie die WD_Black SN750 einen DDR4-Cache mit 1 GB. Dort können Daten vorgehalten werden, die durch die Art des genutzten Speichers mit sehr hohen Transferraten abgerufen werden können. Im Verhältnis zur gesamten Speicherkapazität der SSD fällt ein solcher Cache aber recht klein aus.

Damit die Transferraten aber nicht bereits nach diesem Volumen einbrechen, bietet die SSD abhängig von ihrer Gesamtgröße weitere 12 GB (bei 1-TB-Kapazität) als sogenannten SLC-Cache. In diesem Modus schreibt die Western-Digital-SSD alle ankommenden Daten in der Art eines SLC-Speicher, also verschwenderisch, aber eben maximal schnell in die Flashmodule der genutzten SSD. Erst wenn auch die Kapazität der SSD erschöpft ist, werden die eigentlichen TLC-Speicherzyklen ausgeführt. Ist die SSD fast vollständig gefüllt, muss auf den Boost verzichtet werden – wobei in diesen Fällen der native DDR4-Cache meist ausreichen sollte.

SSD-Lebensdauer - was sind TBW und MTBF?

Die eingesetzten Speichertechnologie hängt elementar mit der Lebensdauer einer SSD zusammen. In den Spezifikationen taucht in diesem Zusammenhang oftmals der Wert "TBW" auf.

Hinter dieser zunächst kryptisch anmutenden Bezeichnung stecken die "Total bytes to be written". Eine WD_Black SN750 mit einer Kapazität von 1 TB besitzt laut Datenblatt beispielsweise eine TBW von 600 TB. Der Hersteller gibt also an, dass mindestens 600 TB in ihrer Lebensdauer auf die SSD geschrieben werden können. Wichtig ist dabei: Es handelt sich dabei um einen Minimalwert. Die SSD aus unserem Beispiel ist beim Erreichen von 600 TB nicht auf einmal defekt, sondern läuft in der Regel noch deutlich länger. Entsprechende Versuche haben wir bereits redaktionell nachgestellt, aber auch in unserem Forum gibt es bereits zahlreiche Erfahrungswerte, die zeigen, dass SSDs in der Regel sehr zuverlässig sind.

» zur Galerie

Dass eine SSD vom Schlage einer WD_Black SN750 ein gutes Durchhaltevermögen besitzt, zeigt eine einfache Beispielrechnung. Wer jeden Tag 20 GB auf der SSD bewegt, kann das Modell mehr als 80 Jahre lang nutzen. Selbst Nutzer, die ihrer SSD jeden Tag 400 GB zumuten, bekämen innerhalb von 5 Jahren keine Probleme. Man sieht also: Für Power-User kommt es so schnell nicht zu Problemen hinsichtlich der "Total bytes to be written". Anders kann es natürlich im Server-Einsatz aussehen, denn hier gibt es schließlich deutlich abweichende Anwendungsprofile. Aber auch dafür gibt es natürlich optimierte SSD-Lösungen.

Neben TBW taucht auch der Wert MTBF häufig im Zusammenhang mit dem Durchhalte-Vermögen einer SSD auf. Dabei handelt es sich um die Ausfallwahrscheinlichkeit einer Produktfamilie, welche in Zuverlässigkeitstests der Hersteller nachgewiesen wurden.

In Kooperation mit WD


In Kooperation mit WD

In unseren SSD-Reviews schicken wir die Testmuster bekanntermaßen durch ein breites Spektrum an Benchmarks und prüfen sie sprichwörtlich auf Herz und Nieren. Dabei ist stets auffällig, dass so manches Laufwerk zwar in einem Test an der Spitze liegt, im anderen Fall wiederum zurückfällt. Dies hat verschiedene Gründe, wie bereits dargelegt. Der unterschiedliche Typ des Speichermediums spielt sicherlich eine große Rolle, aber auch das genutzte Interface oder der verbaute Controller können die Leistung stark beeinflussen. Ebenso ist es wichtig, darauf zu achten, welche Art der Leistungsfähigkeit überhaupt gemessen wird, denn auch hier gibt es deutlich Unterschiede.

Warum sind auch die IOPS wichtig?

Schlussendlich wirken sich die verschiedenen Techniken, die bei einer SSD zum Einsatz kommen elementar auf die zur Verfügung stehende Leistung aus. Die klassische Angabe zur Leistungsfähigkeit einer SSD sind schlichtweg die Transferraten, also wie viele MB/s von einem Laufwerk übertragen werden können. Hier geht es in der Regel darum, dass entweder wenige, sehr große Datenpakte oder aber viele kleine Datenpakete auf eine SSD geschrieben oder von ihr gelesen werden. Typischerweise geht der Transfer von großen Datenpaketen schneller vonstatten, während die Leistung bei vielen kleinen Datenmengen aufgrund des Verwaltungsaufwands deutlich zurück geht.

Sich nur auf die reine Transferleibeistung zu verlassen, ist aber je nach Anwendungsfall nicht immer hilfreich. Daher wird zusätzlich häufig von IOPS gesprochen. Gemeint sind damit Input/Output operations per Second. Diese geben an, wie viele Ein- aus Ausgabe-Befehle eine SSD pro Sekunde durchführen kann. Gemessen werden entweder die Total IOPS, also die durchschnittliche Anzahl beim Lesen und und Schreiben, oder aber Read IOPS und Write IOPS. Welcher Wert dabei besonders wichtig ist, hängt vom jeweiligen Anwendungsbereich ab. 

Gerade im Bereich der IOPS haben SSDs gegenüber klassischen Festplatten die Nase meilenweit vorn. Das liegt daran, dass die Leseköpfe einer HDD immer neu positioniert werden müssen, was Zeit kostet. Gerade im Bereich von Datenbank-Anwendungen kann es daher praktisch sein, viele HDDs durch nur wenige SSDs zu ersetzen, denn letztere bieten eine sehr viel höhere Leistung.

So wirken sich Controller und Speicher auf die Leistung aus

Zuletzt zeigte sich in unseren Benchmarks, dass mehrere Hersteller auf identische Controller setzen und lediglich die Firmware entsprechend anpassen. Andere Hersteller wie Western Digital setzen hingegen auf eigene Entwicklungen. Daraus ergeben sich logischerweise Vorteile und natürlich auch gewisse Stärken, bei denen die jeweilige SSD besonders gut abschneidet. In unserem Review zur WD_Black SN750 mit dem WD/Sandisk Controller 20-82-007011 zeigte sich beispielsweise, dass die SSD ihre Stärke bei sequenziellen Schreib- und Lesevorgängen hat. Außerdem spielten die Kopierbenchmarks in der obersten Liga. Der Grund liegt darin, dass Controller und Speicherzellen genau aufeinander abgestimmt werden können.

AS SSD Benchmark

Sequenziell schreiben (QD 1)

MB/s
Mehr ist besser

AS SSD Benchmark

Sequenziell lesen (QD 1)

MB/s
Mehr ist besser

Interessant und deutlich wird in diesem Beispiel die Limitierung des Interfaces. Während die SN_750 bereits die 3 GB/s lesend knackt und damit mehr als 600 MB/s schneller liest als schreibt, sind die Werte der WD_Blue mit SATA-Anschluss quasi identisch. Hier liegt das Limit nicht bei der SSD selbst.

Um also eine möglichst sinnvolle Entscheidung beim Aufbauen oder beim Aufrüsten eines PCs zu treffen, sollte man zunächst seine Situation und Anwendungen kritisch reflektieren. Gibt das System bereits einen gewissen Formfaktor und ein bestimmtes Interface vor, wird das Auswahlverfahren stark beschleunigt. Auch ein genauer zweiter Blick kann sich dabei zumindest für den preisbewussten Käufer lohnen: bietet das Mainboard beispielsweise gar nicht die volle Anzahl an benötigten Lanes, kann der Kauf etwa einer WD_Blue SN500 deutlich sinnvoller sein als der Griff zu einem HighEnd-Modell. Werden nur moderate Datenmengen geschrieben, kann gar eine SATA-SSD die sinnvollere Wahl sein.

Ist hingegen die maximale Performance gefragt (oder einfach nur gewollt), gehen nur wenige Wege an einer NVMe-SSD vorbei. Bei mehr als 3 GB/s Schreib- und Lesegeschwindigkeit bei sequenziellen Anwendungen wie etwa dem Rendern großer Dateien kann die tägliche Wartezeit stark verkürzt werden. Selbst Spieler können von schnellen SSDs durchaus profitieren. Gerade Spiele mit großen Texturen können schneller geladen und der Spielstart verkürzt werden.

Futuremark PCMark 8

Storage - Adobe Photoshop (light)

MB/s
Mehr ist besser

» zur Galerie

Eine Verschlüsselung muss nicht auf die Leistung auswirken

Wie bei allen Produktkategorien gibt es natürlich auch bei den SSDs ausgemachte Spezialisten für verschiedene Bereiche. 

Gerade für den Unternehmenseinsatz kann eine, in der SSD integrierte Verschlüsselung elementar sein. Dann sind die Daten auch dann sicher, wenn die SSD aus dem System herausgenommen wird. Zur Verschlüsselung wird häufig der Advanced Encryption Standard (AES) mit einem 256 Bit langen Schlüssel für das Ver- und Entschlüsseln der Daten genutzt. Die Verschlüsselung findet dann direkt im Controller statt, sodass es keinen Einfluss auf die Leistungsfähigkeit der SSD geben sollte.

Über TCG Opal 2.0, kann dann beispielsweise eine einfache Administrierbarkeit sichergestellt werden. Die TCG zeichnet sich dabei für die Entwicklung eines Trusted Plattform Modules verantwortlich, sodass ein Passwort schon vor dem eigentlichen Bootvorgang eingegeben werden muss. Hierfür wird ein Shadow Master Boot Record angelegt. 

Abschließende Einschätzung

Alles in allem lässt sich festhalten, dass SSDs im Jahre 2019 immer günstiger und immer besser geworden sind. Verfügbare Kapazitäten, garantierte Schreibzyklen und Leistungen steigen, Preise hingegen sinken. Bei einem aktuellen Preisniveau von etwa 100 Euro pro Terrabyte Speicherkapazität einer WD_Blue SATA-SSD mit 3D-TLC-NAND, wird deutlich, dass es konventionelle Festplatten zunehmend schwer haben, eine Empfehlung zu bekommen. Als Systemlaufwerk sollten sie zumindest endgültig aus dem Raster fallen.