Eine Übersicht über aktuelle Technologien bei SSDs

DoubleJ

Redakteur , Moderator
Thread Starter
Mitglied seit
02.01.2004
Beiträge
9.605
Ort
Südhessen
<p><strong><img src="/images/stories/galleries/reviews/ssd-tech-explained/teaser.jpg" alt="teaser" style="margin: 10px; float: left;" />Es ist kein Geheimnis, dass eine SSD auch für mehrere Jahre alte Rechner ein lohnenswertes Upgrade ist. Doch wer seinen PC mit einer schnellen SSD aufrüsten möchte, muss sich durch einen Dschungel an Begriffen arbeiten, denn inzwischen gibt es für viele Einsatzzwecke und Anforderungen spezialisierte Laufwerke. Dieser Artikel soll die wichtigsten Begriffe in der Welt der schnellen Halbleiterspeicher erklären und erörtern, welche Technologie für welchen Anwendungszweck optimal geeignet ist. Dabei wird nicht nur auf die verschiedenen Formfaktoren und Schnittstellen eingegangen, sondern auch ein Blick auf die aktuellen Speichertechnologien wie 3D-NAND...<br /><br /><a href="/index.php/artikel/hardware/storage/37323-eine-uebersicht-ueber-aktuelle-technologien-bei-ssds.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Danke für den Hintergrundbericht und das aufschlauen. :)
 
... wobei die mSATA-Version der Samsung SSD 850 EVO interessanterweise einen zehnprozentigen Vorsprung vor dem 1 TB-Modell im 2,5 Zoll-Formfaktor hat. Dafür gibt es im ersten Moment keine eindeutige Erklärung, schließlich sind beide Laufwerke gleich angebunden – die mSATA-Version verwendet allerdings eine andere Firmware, was den Unterschied erklären könnte.
EVO 850 500 GB -> MGX-Controller
EVO 850 1 TB -> MEX-Controller
Dies ist des Rätsels Lösung.
 
Schade, dass Bootzeiten, Anwendungsstarts etc. nicht getestet wurden.
 
Dieser Artikel erklärt die ssd technologie sehr gut.
Jedoch liest er sich als hätte ihn Samsungs Marketingabteilung höchst persönlich geschrieben!

Überall kriegt man die Samsung ssd vorgesetzt. Verdient Samsung überhaupt noch an seiner ssd sparte, bei einem so aggressiven marketing?
 
Die Bootzeit wird vor allem von der Zeit für die Initialisierung der HW bestimmt und da kostet jeder Controller und jede Platte eben Zeit, jedes USB Gerät ebenso. Schau Dir die Post Time der ASRock Z97 Extreme 6 bei Anandtechs Review an, normal ist die 19,6s und wenn man alle nicht unbedingt nötigen Controller abschaltet nur noch 6,9s! Den Unterschied bekommt keine SSD hin.

Beim Betreiben von PCIe SSDs (z.B. M.2 mit Adapter) in einem Slot für Grakas kann es zu Problemen mit der Geschwindigkeit der Lanes kommen, vor allem wenn die Lanes über einen PLX Chip angebunden sind. Wenn sie dann nur mit 2.5Gb/s laufen, z.B. weil die Graka eben nicht viel Last hat und die Geschwindigkeit für alle Slots nach deren Auslastung angepasst wird, dann wäre am Ende auch meist nicht mehr als bei PCIe 2.0 x2 Anbindung übrig, obwohl die SSD mit PCIe 3.0 x4 angebunden ist.

Die Werte für "Max. Geschwindigkeit" in der Tabelle sind Brutto, da geht bei PCIe im Protokol mehr Overhead ab als bei SATA, so grob 20% statt weniger als 10%. Real sind also mit PCIe 3.0 x4 knapp über 3000MB/s machbar, viel mehr sollte keiner erwarten, 3800MB/s werden nicht erreicht.

Von der SM951 kann man nur abraten, seid es die 950 Pro gibt, bei OEM SSDs gibt Samsung keinen Support für Endkunden, es gibt also auch keine FW Update, das und eine Garantieabwicklung muss alles den Weg über die Kette der Händler nehmen bis zu dem, der sie bei Samsung eingekauft hat. Das dürfte also in den meisten Fällen bedeuten: Vergiss es!

"wobei wir die Samsung SSD 950 PRO selbst auf einem Asus P8Z77-V anstandslos als Bootlaufwerk verwenden konnten" Ja da bringt einer einen Zaubertrank mit, aber UEFIs sind ja erweiterbar. Nur ob das die 950 Pro selbst ist oder vielleicht der Installer von Win10, die dem UEFI so ein NVMe Modul spendieren oder ob alle die von dem Booten der 950 Pro auf Boards deren UEFI eigentlich kein NVMe unterstützt ein Mod-BIOS verwenden aber dies verschweigen, dass weiß ich auch noch nicht. Aber irgendwas scheint da zu sein, denn ohne eine NVMe Unterstützung, ob nativ im UEFI oder über eine Erweiterung, kann das UEFI die SSD ja nicht ansprechen, es kennt ja die nötigen Befehle dafür nicht. Ohne aber die SSD ansprechen zu können, kann es den Bootloader auch nicht laden und Windows kann nicht booten.
 
Für wie viele Sekunden schafft eine 850 Evo 120GB über 500MB/s beim sequentiellen Schreiben?

Sorry, aber einen Benchmark über sequentielles Schreiben mit einer Datenmenge zu machen die jede Schrott-SSD im Pseudo-SLC unterbringt ist ein mieser Witz den ich von einer Seite wie Luxx nicht sehen will.

Selbst eine US-Seite die von einem Mann betrieben wird und eigentlich auf optische Medien spezialisiert war macht den Schreibtest über die gesamte Kapazität.

Und ja, es gibt Leute die sich für die Performance über mehr als 5GB Schreibvolumen am Stück interessieren.
 
Sorry, aber einen Benchmark über sequentielles Schreiben mit einer Datenmenge zu machen die jede Schrott-SSD im Pseudo-SLC unterbringt ist ein mieser Witz den ich von einer Seite wie Luxx nicht sehen will.
Wenn du dir den vollständigen Test der EVO anschaust, wirst du sehen, dass das dort alles genau erklärt wird.
Bei den Benchmarks in diesem Artikel ging es tatsächlich eher darum, die Unterschiede zwischen den verschiedenen Interfaces herauszuarbeiten.
 
Die SSDs mit Pseudo-SLC Cache sind nicht für Leute die viele GB am Stück schnell schreiben könne wollen, dafür gibt es andere Modell, aber die kosten auch mehr. Für die Nutzung als Systemlaufwerk reicht es aber in der Regel aus und macht schon einen Unterschied. Nicht jeder hier im Forum braucht für jede Anwndung eine teure SSD die viele GB am Stück schnell schreiben kann wie z.B. die 850 Pro. Die 850 Evo im 2.5" Formfaktor mit 500GB oder mehr kann übrigens auch bei vollem TurboWrite Schreibcache noch mit 500MB/s schreiben.
 
Zuletzt bearbeitet:
Gute Übersicht um im SSD-Dschungel wieder einigermaßen durchzublicken! :d
 
Ganz gut erklärt.

Wie kommt ihr bei den evo Festplatten auf 0,24€/GB? Die kosten bei der 1TB doch schon 0,30€/GB.

Und was hat es eigentlich mit dem 4K Schreiben/lesen auf sich?
 
Handelt es sich dabei um 2,5 Zoll Laufwerke, kann man ohne Bedenken zu einem günstigen Mainstream-Laufwerk greifen.

VORSICHT! - So einfach ist das nicht. Bei vielen Laptops spielt nämlich auch noch die Laufwerkshöhe eine entscheidende Rolle. Will heißen in manche Laptops passt nur eine SSD mit 5mm Bauhöhe und von diesen gibt es zur Zeit gar keine. Habe vor einem Jahr noch eine con Seagate bekommen und da kostet das GB dann mal eben das doppelte vergleichen mit einer SSD mit 7,5mm Bauhöhe und gleicher Kapazität.
 
Statt die verschiedenen Technologien per Pseudobenchmarks miteinander zu vergleichen, wäre es besser gewesen, tatsächliche Ladezeiten von Programmen und Spielen zu messen und einander gegenüberzustellen. Es mag ja gut sein daß der neue Kram schneller ist, aber was nützt das, wenn die CPU nicht damit nachkommt, aus den gelesenen Rohdaten z.B. ein Level zu bauen?

Ich war so frei und hab getestet. Meine Ramdisk schafft ca. 9GByte/s und ist je nach Bedarf bis zu 24GB groß. Spiele, die ich vor ihrem Start in die Ramdisk kopiert habe, laden trotzdem nicht nennenswert schneller als von der ollen, lahmen SATA6G SSD. Probiert mit SWTOR, STO, Elite Dangerous, Star Citizen (Arena Commander), Fallout 2 und New Vegas, Rage und Diablo 3.
 
@Hellbilly: Teste es mal mit WoW da ist der Effekt einer RAM-Disk immens. Dem Grunde nach stimme ich deiner Kritik aber zu. Die technischen Daten mögen auf dem Papier schön zu lesen sein und sich mit diversen Benchmarks auch messen lassen. Was davon im Alltag übrig bleibt, steht auf einem anderen Blatt und ist oft in der Tat nicht allzu viel. Hinzu kommt der schnelllebige Markt der SSDs, was heute schnell ist, kann in einem Jahr schon wieder Mittelklasse sein. Daher der Rat, sich mit dem besten Preis pro GB in der gewünschten Kapazität einzudecken, dass schont den Geldbeutel und reicht für die allermeisten Szenarien voll und ganz.
 
Was im Alltag übrig bleibt, hängt ja auch vom Alltag ab und je weiter SSDs verbreitet sind, umso eher werden auch die Entwickler von Games darauf Rücksicht nehmen und z.B. Daten eben nicht mehr komprimiert ablegen, sondern RAW und dann bei SSDs am Ende vielleicht auch unterschiedliche Dateien mal mit mehreren Threads parallel einlesen. Dann hast Du ganz schnell eine großen Vorteil von schnellen SSDs, aber bisher sind eben viele Anwendungen / Games noch immer auf das Verhalten von HDDs optimiert, die sind nun einmal langsam, Daten komprimiert abzulegen und damit weniger zu laden bringt daher meist etwas und da parallele Zugriffen sich bei HDDs gegenseitig gewaltig ausbremsen, werden diese auch vermieden.

Was heute also bei viele praktischen Anwendungen eher wenig bringt, kann morgen schon viel bringen, es hängt eben sehr von der jeweiligen Anwendung ab. Tests sagen daher immer nur für das jeweils getestete etwas aus und synthetische Benchmarks haben eben den Vorteil nur die Performance der SSD zu testen, ohne die Begrenzungen durch die Anwendungen die eben die Resourcen oft nicht optimal nutzen können.
 
Manchmal haengt es sogar von der Reihenfolge ab: Test A,B,C kann fuer die einzelnen Tests andere Ergebnisse liefern als die Testreihenfolge B,C,A. Bei Festplatten war das noch egal, da hat ein Test einen Wert geliefert. Bei SSDs ist das hochgradig nicht der Fall. Wenn man es daher ganz genau nehmen moechte, muss man sagen: Wenn man eine Sache getestet hat, z.B. wie schnell startet Photoshop, dann weiss man genau eine Sache, naemlich wie schnell Photoshop startet. Bei einer anderen Anwendung kann der Unterschied noch groesser sein, oder genau umgekehrt, weil eben die Zugriffsmuster anders sind. Ziel sollte es also sein, moeglichst viele Szenarien zu testen, um einen vernuenftigen Durchschnitt bilden zu koennen.

Hier kommen Trace-Benchmarks wie PCMark ins Spiel: Während der Benutzung der getesteten Anwendungen wurden die Zugriffsmuster aufgezeichnet. PCMark spielt diese beim Benchmark dann exakt so wieder ab. Fuer das getestete Laufwerk ist es also so, als wuerde man das Programm tatsaechlich benutzen, es verhaelt sich entsprechend und laesst damit eine genaue Aussage ueber die Performance zu.

Und genau da bin ich eben anderer Meinung, wer sagt denn das bei mir in der praxis immer schema A,B,C abläuft? genau das testet aber PC Mark, diese eine festgelegte Scenario, wie du selbst sagt kann es aber schon ein unterschied in der Performance sein (und somit die eine SSD schneller als die andere und anders herum) wenn in der Praxis eben nicht A,B,C sondern C,A,B abläuft, ist das Ergebnis von PC Mark nicht ebenfalls Augenwischerei?
Denn damit ist die Aussagekraft von PC Mark ja auch nicht höher als die eines Praxis Tests denn Schema A,B,C bzw immer das selbe test muster sagt dann auch auch nicht mehr aus wie wenn ich in der Praxis zb einen Viren Scan stoppe und zb mein persönlich vorherschendes Schema messe (was übrigends recht genau geht, so mancher Viren Scanner stoppt die zeit sogar selbst, auch Boot Zeiten kann man stoppen lassen um mal nur 2 aufzuzählen) denn das Scenario das PC Mark nutzt hat ja mit der Realität tausender unterschiedlicher Systeme mit genau so vielen unterschiedlichen Software configs. und Schematas auch nichts zu tun.

Im Gegenteil ich bin der Meinung, solche festliegenden test schemen lassen tür und tor offen um eben SSD´s auf diese Festliegenden schemen hin zu optimieren um bei solchen Tests dann zu glänzen.

Die lösung ist also, den Testreihen durchaus auch Reale tests einzufügen um die duchschnittliche Leistung abschätzen zu können, ihr testet ja auch nicht nur mit ATTO, da wären sogar heute noch die SF 2281 ganz vorn mit dabei, eben weil dieser eine test wenig, im fall von ATTO sogar null aussagt, ich verstehe nicht warum man denkt PC Mark wäre da die allheillösung.
Ist im Endeffekt auch nur ein festliegendes test scenario das mit der Realität nichts gemeinsam hat.

Optimiere ich als SSD Hersteller meine SSD darauf in Photoshop genial schnell zu sein, weil alle Test Reviews mit Photoshop Tests daher kommen, bedeutet das eben nicht das in der Praxis die SSD so berauschend ist, das Testergebnis suggeriert mir das aber.
 
Zuletzt bearbeitet:
Die Bootzeit hängt vor allem von der Zeit für die Initialisierung der HW ab, wer schnell booten können möchte, sollte also den Rechner so minimalistisch wie möglich konfigurieren, weil damit viel mehr gewonnen ist als sich die SSD zu suchen die in irgendeinem Review mit einem Zehntel weniger Bootzeit gemessen wurde.

Was die Virenscanner angeht, so interessiert es doch nun wirklich kaum, wie lange der im Hintergrund arbeitet, zumal das ja nach SSD und CPU auch vor allem von der CPU Performance abhängt. Da aber parallele Zugriffe sich bei SSDs anders als bei HDDs nicht spürbar gegenseitig ausbremsen, ist es doch egal wie lange es dauert bis der Virenscanner fertig ist, man muss ja nie darauf warten um weiterarbeiten zu können.
 
sind ja auch nur Beispiele für reale Anwendungen ein wenig einfluss nimmt die SSD beim Booten schon, wenn auch nur geringe unterschiede zwischen unterschiedlichen SSD´s zu messen sind die NATÜRLICH niemand mitbekommt im alltag aber das tust auch nicht zwischen einer Samsung 950 und ner Samsung 850 im normalen nicht spezialisierten privaten Bereich, da ploppen proggs usw auch nur Millisekunden unterschiedlich auf, das kannst also kaum als Maßstab nehmen ob etwas wirklich spührbar ist oder nicht.
Auch unterschiede von 2000 Punkten beim Disk bench von PC Mark unterschiedlicher SSD´s sind im Realen dann kaum bis garnicht zu spühren, sieht dann halt nur nach mega mehr Leistung aus weil die zahlen halt groß wirken.
Der unterschied liegt eher darin das hier die Hersteller nicht darauf hin optimieren können um bei tests wahnsinnig schnell zu erscheinen im Alltag aber auch nur durchschnittlich sind.
Ich denke genau darin liegt für viele die nach realen Tests bitten, auch der unterschied.

PS: ich hatte mal ne SSD zum testen hier, die sah in Benchmarks gar nicht mal sooo schlecht aus, während einem Viren Scan wahr aber nebenher irgend was am PC machen, kaum mehr möglich, der Viren Scan dauerte verglichen zu anderen SSD´s eine Ewigkeit usw.
Rein von den synthetischen Benchmark Ergebnissen her wäre sie ihrer damaligen Preisklasse her ein P/L Hit gewesen, so viel mal dazu das so ein Viren scan absolut nichts sagend ist.
 
Zuletzt bearbeitet:
Bei realen Tests wird aber meist die SSD gar nicht genug gefordert, was zwar real oft so ist, aber deshalb gibt es dann eben auch scheinbar keine Vorteils z.B. durch schnelle PCIe SSDs. HardwareCanucks bencht z.B. mit einem i7 5930K System und Test mit 100 Offlinepages in Firefox portable liegt die Intel 750 1,2TB dann bei 18S, währen die schnellste SATA 6Gb/s SSD 104 braucht (die langsamste 108s). Das mag zwar auch nicht dem Alltag der meisten User entsprechen, ist aber schon mal ein performantes System mit einer deutlich I/O lastigeren Anwendung wie in den meisten Realtests. Auch bei der Adobe CS5 Load Time liegt die Intel 750 mit 2s zu 5s der schnellsten SATA 6Gb/s SSD (7s für die langsamste) klar vorne und solche Unterschiede spürt wohl jeder.

Man braucht eben für solche SSDs eine leistungsstarke CPU und eine I/O intensive Anwendung, dann hat man auch einen entsprechenden Vorteil und sonst eben nicht und die machen einen lahme Pentium eben nicht zum schnellen i7, den sollte das System schon haben und sonst sollte man zuerst dort investieren. Außerdem kann man eben dementsprechend das Testsystem und die Tests gestalten, um dann zum dem gewünschten Fazit kommen zu können, ob solche SSDs im Alltag nun etwas bringen oder nicht.
 
Bei realen Tests wird aber meist die SSD gar nicht genug gefordert, was zwar real oft so ist, aber deshalb gibt es dann eben auch scheinbar keine Vorteils z.B. durch schnelle PCIe SSDs. HardwareCanucks bencht z.B. mit einem i7 5930K System und Test mit 100 Offlinepages in Firefox portable liegt die Intel 750 1,2TB dann bei 18S, währen die schnellste SATA 6Gb/s SSD 104 braucht (die langsamste 108s).
Was ja in etwa wieder so alltags realistisch ist wie wenn ich 30 Programme gleichzeitig starten lassen um zu stoppen wie lang es mit den jeweiligen SSD´s dauert.
Für mich ein durchaus zulässiges scenario um Real Ergebnisse zu erzielen, vielen war das aber ein Dorn im auge weil natürlich niemand 30 proggs gleichzeitig startet, genauso wenig wie man 100 offlinepages startet, ich jedenfalls hatte noch nie dieses scenario, mag sein das es auch solche User gibt aber die dürften irgendwo bei 0,001% der User liegen.
Wobei das nur gemacht wurde um überhaupt zu Ergebnissen zu kommen denn zwischen SSD 1 und SSD 2 liegt beim starten nur eines Programms wohl der unterschied im Millisekunden Bereich genau wie beim starten nur einer Offlinepage.
Erst die masse macht unterschiede spürbar, macht wahrscheinlich nur im Alltag niemand täglich so das es von belang wäre, genau so wenig wie es eben von belang ist ob der Viren Scan 5 Minuten oder 5:20 Minuten benötigt.

Ist das also Real bezogener als das stoppen eines Viren Scans der kompletten SSD, das stoppen der zeit zum entpacken eines WinRar archives welches wiederrum aus einer Mischung von filegrößen besteht oder der zeit die die jeweilige SSD benötigt um ein und das selbe Level in einem beliebigen spiel zu laden?

In meinen Augen nicht, das ein entsprechend leistungsfähiges System vorraussetzung ist sollte dabei klar sein, aber wenn das jetzt auch noch verhandelt werden soll dann lassen wir den ganzen Benchmark und vergleichs quark doch gleich ganz und Benchen die SSD mal eben mit ATTO und gut is, reicht ja um aufzuzeigen was in der Theorie möglich wäre ;)
 
Zuletzt bearbeitet:
War realistisch ist, unterscheidet sich ja von Anwender zu Anwender. Aber nur auf Benchmarks wie ATTO und AS-SSD zu setzen wäre zu wenig, da fehlen schon mal wieder Aspeckte wie die Performance bei gemischten Read-Write Workloads, wo es eben auch nicht unerheblich Unterschiede zwischen den SSDs gibt.
 
wo sich der Test mit dem packen/entpacken mittels winrar wieder anbietet, wenn man da ein paar dinge beachtet (unterschiedlliche file größen usw) dann hat man da eben genau diese gemischen Read-Write Workloads gepaart mit abwechselnd großen und kleinen Datei größen, eigentlich ideal und ganz einfach erstellt
 
wo sich der Test mit dem packen/entpacken mittels winrar wieder anbietet, wenn man da ein paar dinge beachtet (unterschiedlliche file größen usw) dann hat man da eben genau diese gemischen Read-Write Workloads gepaart mit abwechselnd großen und kleinen Datei größen, eigentlich ideal und ganz einfach erstellt
Und wo ist das jetzt der Unterschied zu PCMark?
 
um nur einen unterschied zu nenen, kein Hersteller kann auf diesen individuellen test hin optimieren da jeder der so einen test mit in sein review aufnimmt ein WinRar file erstellt das sich anders zusammen setzt als das anderer Reviews.
WinRar ist ja auch nur ein Beispiel, wie schon erwähnt gibt es sehr viele Möglichkeiten praxis bezogene tests zu machen auf die hin nicht optimiert werden kann, nicht nur die von mir als Beispiel erwähnten tests wie WinRar, VirenScan usw.
Tests die eben in jedem system anders sind (eben nicht immer schema A,B,C).
Kein Hersteller würde auf die Praxis tests einer (egal wie großen) Hardware Review Seite hin optimieren wäre aber auch gar nicht möglich ohne das system in die finger zu bekommen.
Anders sieht das bei PC Mark, AS SSD, Crystal Disk Mark oder ATTO aus, für die Hersteller ist es ein leichtes ihre SSD´s auf deren test Scenarien hin zu optimieren so das sie dort gut aussehen.
Da sehen wir uns doch einfach mal ATTO und Sandforce SSD´s an (wobei deren Alltagsleistung für die zeit wo se aktuell waren, ebenfalls sehr gut war)
 
Zuletzt bearbeitet:
Anders sieht das bei PC Mark, AS SSD, Crystal Disk Mark oder ATTO aus, für die Hersteller ist es ein leichtes ihre SSD´s auf deren test Scenarien hin zu optimieren so das sie dort gut aussehen.
Die Optimierung für ATTO und Co. ist trivial: Wenn nur Nullen geschrieben werden, wird gar nichts geschrieben, weil es nicht nötig ist. Sobald man Daten verwendet, die nicht komprimierbar sind, liefern auch diese Tests realistische Zahlen, weil die SSD nicht mehr optimieren kann: Wie soll sie wissen, ob die Daten "echt" sind oder es "Testdaten" sind? Die SSD weiß nicht, welcher Prozess auf sie zugreift. PCMark verwendet zum Testen ebenfalls zufällige Daten. Dass die Hersteller ihre SSDs auf PCMark hin optimieren und die Ergebnisse daher nicht zu gebrauchen sind ist eine krude Behauptung, die jeglicher Basis entbehrt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh