> > > > Test: Samsung SSD 840 und 840 Pro Series

Test: Samsung SSD 840 und 840 Pro Series

DruckenE-Mail
Erstellt am: von

Seite 3: Die SSD 840 Series: Software (1)

Mit der SSD 840 Series kommt auch eine neue Version der Verwaltungssoftware, die Samsung „SSD Magician" nennt. Nach der Installation lassen sich über den Startbildschirm der Software verschiedene Funktionen auswählen, auf die wir im Folgenden eingehen.

magician start

Zur Optimierung der Performance und ggf. auch der Haltbarkeit sind die Punkte „Over Provisioning" und „OS Optimization" interessant. Die erste Funktion erlaubt es, der SSD einen größeren Speicherbereich zur Verfügung zu stellen, der für interne Aufgaben wie das Wear-Leveling (gleichmäßige Zellabnutzung) oder die Garbage-Collection (mehr freie Blöcke sorgen auch nach starker Belastung für eine höhere Performance) genutzt werden kann. In den meisten Fällen ist es jedoch nicht nötig, das Over-Provisioning (auch Spare-Area genannt) zu ändern. Die eingebaute Funktion im SSD Magician arbeitet außerdem relativ simpel: Es muss eine (NTFS-)Partition existieren und diese wird einfach verkleinert, sodass ein Teil des Laufwerks unpartitioniert ist. Den gleichen Effekt kann man auch erzielen, indem man das fabrikneue bzw. gelöschte Laufwerk einfach nicht vollständig partitioniert. In diesem Fall funktioniert das Vergrößern der Spare-Area dann natürlich auch mit allen anderen Partitionstypen. Lediglich, wenn die Spare-Area nachträglich geändert werden soll, muss sichergestellt werden, dass in dem dann unpartitionierten Bereich vorher keine Daten gelegen haben – sonst kann der Controller diesen Bereich nicht für interne Aufgaben nutzen. Benutzt man die Software zur Verkleinerung der Partition, wird dies sichergestellt.

magician op

Die Funktion „OS Optimization" ist hingegen weniger nützlich und teilweise auch irreführend: Ob man Super Fetch und den Indexservice ausschalten sollte, ist Geschmackssache. Super Fetch bringt bei SSDs praktisch keinen Vorteil, schadet allerdings auch nicht wirklich. Das Suchen von Dateien geht auf SSDs aufgrund der kurzen Zugriffszeiten natürlich wesentlich schneller als bei Festplatten. Gerade wenn sich sehr viele Dateien auf dem Laufwerk befinden, kann der Indexservice aber auch bei einer SSD deutlich schneller zu den Suchergebnissen führen. In diesem Fall wäre davon abzuraten, den Indexservice zu deaktivieren. Auch die Defragmentierung soll laut SSD Magician deaktiviert werden. Hier herrscht allerdings ein sehr häufiges Misverständnis: Während der Derfragmentierungs-Service bei Windows immer läuft, werden seit Windows 7 SSDs grundsätzlich von der Defragmentierung ausgeschlossen. Dies lässt sich leicht nachprüfen, indem man das Windows-Programm „Defragmentierung" startet und unter „Zeitplan konfigurieren" auf „Datenträger auswählen" klickt. Partitionen, die auf SSDs liegen, werden hier nicht angezeigt und damit auch nicht automatisch durch Windows defragmentiert. Im Zweifelsfall sollte man alle Einstellungen einfach so lassen und nicht den Anweisungen der Software folgen. Wurde das Betriebssystem nicht auf einer SSD, sondern auf einer Festplatte installiert und erst nachträglich umgezogen, reicht es, den Windows-Leistungsindex neu erstellen zu lassen. Windows nimmt spätestens dann alle nötigen und sinnvollen Einstellungen vor.

magician optimizer

Schließlich bietet die Magician-Software auch noch Tools, um die SSD zu überwachen. Zum einen lassen sich einige SMART-Werte anzeigen, die sich natürlich auch mit anderer Überwachungs-Software auslesen lassen. Die Informationen, die sich aus diesen Werten gewinnen lassen, sind allerdings häufig sehr begrenzt, denn über den Zustand einer SSD sagt ein einzelner Wert nicht unbedingt viel aus.

magician smart

Interessanter ist für diesen Fall schon der Punkt „Lifetime & Status": Basierend auf den SMART-Werten werden hier von der Software zwei Werte berechnet, die eine ungefähre Abschätzung über die restliche Lebensdauer geben. Warum die Software in unserem Fall nicht (nahe) bei 100 Prozent anfängt, ist nicht bekannt – möglicherweise war unser Sample der SSD nicht neu, sondern wurde bereits von Samsung für Burn-In-Tests o.ä. verwendet. Eine Warnung soll an dieser Stelle allerdings auch noch ausgesprochen werden: Die Lebensdauer-Anzeige bezieht sich ausschließlich auf die Haltbarkeit des Flash-Speichers. Ein Laufwerk kann jedoch aus vielen Gründen ausfallen. Hardware-Defekte und/oder Firmwarefehler sind nicht vorhersehbar und können bei fehlendem Backup zu einem fatalen und unvorhergesehenen Datenverlust führen.

magician lifetime

 

Social Links

Seitenübersicht

Kommentare (1056)

#1047
customavatars/avatar54739_1.gif
Registriert seit: 31.12.2006

Moderator
Beiträge: 3166
okay..... das ist interessant. :)
#1048
Registriert seit: 30.09.2006

Oberleutnant zur See
Beiträge: 1450
Zitat Tekkno_Frank;22124439
okay..... das ist interessant. :)


Schaue nachher nochmal und gebe dann mal bescheid!
#1049
Registriert seit: 30.09.2006

Oberleutnant zur See
Beiträge: 1450
Moin!
Am WE hab ich die Kiste wegen eines anderen Fehlers neu aufgesetzt und nun kann ich das bisher bestätigen mit dem Unterschied das es keine 24 Stunden gedauert hat ^^
bin mal gespannt ob sich das lösen läßt...
#1050
customavatars/avatar64401_1.gif
Registriert seit: 21.05.2007

Bootsmann
Beiträge: 627
Guten Morgen,

im Magician 4.3 und 4.4 finde ich die Option für den Zeitplan (Schedule) nicht mehr, um die Performance Optimization zu planen. Ist die Option weggefallen? Danke! :)
#1051
Registriert seit: 12.05.2013

Matrose
Beiträge: 17
Hallo,

Ich will nicht extra einen neuen Thread aufmachen. Ich habe eine Samsung 840 SSD, 128 GB. Bin ja auch zufrieden mit dem Speicher. Am Anfang, also fast ein Jahr ging kein Trim, es lag am veralteten Intel Treiber wie ich im April auf dieser Seite feststellte. http://www.hardwareluxx.de/community/f227/intel-rapid-storage-technologie-ja-oder-nein-1016756.html
Also den neusten Intel Treiber istalliert, TRIM geht einwandfrei. ;)

Was mir aber auffällt, seit Trim geht ist die Temperatur im Schnitt um gut 5 °C höher als vorher ohne Trim. Ist zwar nicht dramatisch, aber es wundert mich doch. Woher kommt das denn, ich nutze das Notebook stationär, seit einigen Wochen sogar mit Cooling Pad. Gearbeitet wird ganz normal mit dem Notebook, also Internet, mal ein Doc usw. In der Angehängten Grafik sieht man die Temperaturerhöhung deutlich.

[ATTACH=CONFIG]288352[/ATTACH]
#1052
Registriert seit: 05.07.2010

Admiral
Beiträge: 12068
Es kann sein, dass die SSD wegen dem TRIM mehr Idle-GC macht, weil sie nun ja immer gleich erfährt, wenn Daten nicht mehr benötigt werden, weil die Datei gelöscht wurde, es kann Zufall sein und es kann auch sein, dass das ganze Notebook heißer geworden ist, weil z.B. der Lüfter verschmutzt ist oder die CPU mehr belastet wird weil mehr/andere Anwendungen im Hintergrund laufen. Das kommt bei Notebooks gerne vor und daher macht es eigentlich nur Sinn, wenn man auch die anderen Temperaturen der anderen Komponenten erfasst und vergleicht, denn in den kleinen Gehäusen heizen die die SSDs natürlich immer auch mit auf.
#1053
Registriert seit: 12.11.2002
Hannover
Korvettenkapitän
Beiträge: 2085
Im Notebook hat die 840er bei mir gute Dienste geleistet und muss nun neuem Notebook + neuer SSD weichen.
Wegen der Probleme der 840evo mit alten Daten, bzw. weil die 840 auch betroffen sein soll, habe ich mach HD Tune installiert und gemessen.
http://www.hardwareluxx.de/community/f227/840-evo-extrem-hohe-zugriffszeiten-1037960.html

Benchmark: direkt nach Ausbau aus dem Notebook; FW DXT06B0Q (Immer am 2. SATA3 Port vom Z77 Chipsatz; Desktop-PC)


Nach Update auf neuste Firmware (DXT09B0Q)


Nach Secure Erase


Die Leseleistung [MB/s] ist also gestiegen: 174 / 228 / 400
Zugriffszeit [ms]: 0,240 / 0,229 / 0,052

Leider kann ich nicht sagen, ob die schlechte Performance wirklich an den alten Daten lag, oder ob es bloß das fehlende TRIM war. (Auf dem Notebook war ein OpenSuse 13.1 mit einer SWAP- und zwei EXT4-Partitionen, von denen eine (ca.190GB /home) verschlüsselt war. Zumindest dort wird TRIM nicht funktioniert haben)
#1054
Registriert seit: 05.07.2010

Admiral
Beiträge: 12068
HD Tune ist als Low-Level Benchmark zum Benchen von SSDs komplett ungeeignet, sondern taugt nur für HDDs, weil HDDs die LBAs fest auf Kopf, Zylinder und Sektor umrechnen und diese dann einfach auslesen wobei aufeinander folgenden LBAs auch hintereinander auf den Platten liegen. SSDs mappen aber die LBAs auf immer wieder wechselnde Speicherbereiche. Da kann nichts ausgelesen werden, wenn eine LBA noch nie beschrieben, getrimmt oder wie hier die ganze SSD secure ereased wurde und damit nichts gemappt ist! Der Controller liefert dann einfach irgendwas zurück, ohne überhaupt ein NAND auszulesen, i.d.R. ist es einfach 00.

Außerdem führen moderne SSDs eine Art Schattenfilesystem und verteilt die Daten entsprechend so zum Auslesen optimiert über die NANDs, wie sie zusammenhängend geschrieben wurden. Bei einem Low-Level Benchmarks funktioniert das nicht, weil da die eben direkt aufeinander folgende LBAs statt Dateien gelesen werden und dabei keinerlei Zusammenhang mit dem Filesystem und den Dateien besteht. Liegt auf den LBAs gerade ein Teil einer großen Datei, dann ist die Performance beim Low-Level Benchmark besser als wenn dort viele kleine Dateien, stückweise geschriebene Dateien oder eben Verwaltungsdaten des Filesystems stehen. Also Daten die nie so abgelegt wurden, dass sie zusammen auch schnell gelesen werden können.

Obendrein wird mit der Standardeinstellung von HD Tune immer nur alle paar MB mit 64k Zugriffen gemessen, aber 64k sind zu wenig für eine SSD um die maximalen seq. Leseraten auch nur annähernd zu erreichen. Wie sieht sind 400MB/s weniger als z.B. AS-SSD oder CystalDiskMark ermitteln und wenn Du mal in den Einstellungen auf 128K oder 1M gehst, wird es mehr sein.
#1055
Registriert seit: 12.11.2002
Hannover
Korvettenkapitän
Beiträge: 2085
Danke für Deine ausführlichen Erklärungen. Ich dachte, HD Tune screenshots in dem 840EVO Thread gesehen zu haben, um die Verlangsamung von "alten" Daten zu zeigen...

Wenn ich Zeit finde, kann ich ja ein Backup zurückspielen und dann noch mal Testen.
#1056
Registriert seit: 05.07.2010

Admiral
Beiträge: 12068
Das ist nicht wirklich das geeignte Tool dafür, aber man sieht bei dem Bug dann schon auffallend geringe Übertragungsraten und somit kann man es eher als Schätzeisen wie als Messinstrument ansehen. Wenn man wirklich die Leserate mit alten Dateien sinnvoll prüfen will, dann bencht man mit den File Bench Tool von Blublah (Quelle bei CB). Auch da werden nicht alle Dateien immer mit der vollen Geschwindigkeit gelesen, da ist schon der Virenscanner im Wege, aber wenn keine der alten Dateien schnell gelesen werden kann, dann ist es schon mal ein Hinweis auf den Bug. Allerdings sortiert das Tool die Wert aufgrund des Datums der letzten Änderung der Datei und die entspricht nach einen DiskRefresh oder nach dem Klonen natürlich nicht dem Datum wann die Daten wirklich in die NANDs geschrieben wurden.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Samsung SSD 750 EVO im Test - die neue Einsteiger-Klasse?

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/SAMSUNG-750-EVO/TEASER

Samsung gehört zu den Standardempfehlungen, wenn es um SSDs geht, sowohl im Highend-Bereich mit der Samsung SSD 950 PRO als auch im Mainstream-Bereich mit der 850 EVO. Letztere hat vor kurzem ein Upgrade erfahren, dabei wurde der 3D-Speicher durch eine neue Version mit nunmehr 48 statt 32... [mehr]

Crucial MX300 SSD mit 750 GB und 3D-NAND im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/CRUCIAL-MX300-750GB/TEASER

Crucial meldet sich zurück und packt mit der MX300 aktuelle Speichertechnologie in ein 2,5-Zoll-Laufwerk. Den Anfang macht dabei ein einziges Modell mit einer ungewöhnlichen Speicherkapazität von 750 GB, das gegen die Samsung SSD 850 EVO und andere Mainstream-Laufwerke bestehen soll. Die... [mehr]

Samsung SSD 850 EVO mit neuem 48 Layer 3D-NAND im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/SAMSUNG-850EVO-48/TEASER

Bereits vor einiger Zeit hat Samsung den nächsten Schritt in der Fertigung von NAND-Speicher angekündigt, nämlich die Produktion von 3D-NAND mit 48 Layern. Dieser soll jetzt in der Samsung SSD 850 EVO zum Einsatz kommen, wobei sich der Produktname nicht ändert, die Bestände werden also nach... [mehr]

OCZ Trion 150 SSD mit 240 GB im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/OCZ-TRION-150/TEASER

Letztes Jahr hat OCZ mit der Trion 100 eine SSD auf TLC-Basis für preisbewusste Käufer auf den Markt gebracht. Nach etwas über einem halben Jahr erfährt die Trion nun ein Update in Form der OCZ Trion 150, bei der weiterhin TLC-Speicher von Toshiba zum Einsatz kommt, der jetzt allerdings in 15... [mehr]

NVMe-SSD Samsung 960 PRO mit 512 GB und 2 TB im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/SAMSUNG-960-PRO/TEASER

Die Samsung SSD 950 PRO hat bis heute unsere Benchmark-Tabelle als schnellste SSD angeführt. Konkurrenz bekommt sie jetzt aus eigenem Haus in Form des Nachfolgers 960 PRO. Dabei handelt es sich um mehr als ein kosmetisches Update, denn Samsungs neuste M.2-SSD mit NVMe-Interface ist insbesondere... [mehr]

Toshiba OCZ RD400 SSD mit NVMe im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/TOSHIBA-OCZ-RD400/TEASER

Auch Toshiba steigt jetzt mit der OCZ RD400 SSD in die Königsklasse der schnellen Halbleiter-Laufwerke mit NVMe-Interface ein. Mit einem PCI-Express-Interface der dritten Generation und vier Lanes verspricht Toshiba eine Performance von bis zu 2.600 MB/s beim Lesen und 1.600 MB/s beim Schreiben,... [mehr]