> > > > Test: OCZ Vector SSD mit Barefoot-3-Controller

Test: OCZ Vector SSD mit Barefoot-3-Controller

DruckenE-Mail
Erstellt am: von

Seite 2: Die OCZ Vector im Detail

Der Controller der OCZ Vector ist eine Eigenentwicklung des inzwischen zu OCZ gehörenden Indilinx-Teams und basiert auf einem ARM-Cortex-Prozessor. Mit dem PC verbunden wird das Laufwerk über ein SATA-6 Gb/s-Interface, mit dem NAND-Flash-Speicher kommuniziert der Controller gleichzeitig über acht Kanäle. Der in 25 nm gefertigte Speicher stammt dabei von IMFT, dem Joint Venture von Intel und Micron. Über die Haltbarkeit des Speichers macht man keine Angaben. Da OCZ ganze Wafer kauft und den Speicher selbst selektiert, kann man hier auch schwer eine Abschätzung machen. OCZ spricht jedoch von einer Schreiblast von 20 GB pro Tag über einen Zeitraum von fünf Jahren, die das Laufwerk aushalten können soll.

Der Barefoot-3-Controller (IDX500M00-BC)

OCZ verspricht, dass die Vector-Serie das bisher am ausführlichsten getestete (Consumer-)Laufwerk ist. Das schließt eine große Gruppe an Beta-Testern ein, die das Laufwerk bereits auf Herz und Nieren prüfen konnten. Außerdem soll jedes Laufwerk vor Auslieferung einem Burn-In-Test unterzogen werden. Auch will man die Qualitätsstandards für Firmware-Releases erhöhen, was beispielsweise durch längere Validierungszyklen erreicht werden soll. Das Vertrauen in die Vector drückt OCZ schließlich durch eine fünfjährige Garantie aus, das heißt, dass man hier nun gleichauf mit der Intel SSD 520 Series und Samsung SSD 840 Pro Series ist. Die Garantie gilt bei OCZ allerdings nur bis zu einer Schreiblast von insgesamt 36,5 TB – was oben genannten 20 GB pro Tag über fünf Jahre entspricht.

Cache (links), Controller (mitte) und Flash-Speicher

Die Platine der OCZ Vector ist beidseitig bestückt, wobei wir den üblichen Aufbau vorfinden: Auf der Vorderseite befinden sich neben dem Controller acht Flash-Speicher-Bausteine und ein Micron DDR3-Modul des Typs D9PFJ. Auf der Rückseite findet man weitere acht Speicher-Bausteine und ein weiteres DDR3-Modul. Insgesamt besitzt die OCZ Vector damit 512 MB Cache.

Als erstes möchten wir uns die Performance des Laufwerks unter starker Beanspruchung anschauen. Dazu haben wir wie immer ein Durchlauf mit HDTach auf dem frisch gelöschten Laufwerk durchgeführt:

hdtach-new

Was ist hier passiert? Normalerweise erwarten wir hier zwei nahezu horizontale Linien. Da der Flash-Speicher leer ist, sollte das Laufwerk über die komplette Kapazität die maximale Lese- und Schreibraten liefern können. Das ist hier jedoch nur für die Lese-, nicht für die Schreibrate der Fall. Letztere fällt nach etwas mehr als der Hälfte der Kapazität auf etwas weniger als die Hälfte ab und bleibt dort bis zum Ende. Ein weiterer Durchlauf bringt dann das erwartete Ergebnis:

hdtach-new-2

Weitere Durchläufe zeigen weiterhin das erwartete Verhalten. Wird das Laufwerk mittels Secure Erase gelöscht, lässt sich das Verhalten aus dem ersten Screenshot wieder reproduzieren. Warum sich das Laufwerk so verhält, ist nicht bekannt. Bei OCZ konnte man dieses Ergebnis bisher nicht reproduzieren, als Begründung nennt man unsere älteren BIOS- und Treiberversionen. Wie ein Treiberproblem sieht das Ergebnis für uns zwar nicht aus, da sich das Problem allerdings sozusagen von selbst löst, scheint es nicht weiter tragisch zu sein.

Dass es auch anderes gehen soll, zeigt unten stehender Screenshot, der direkt von OCZ stammt. Er wurde allerdings mit einem anderen BIOS, einem anderen SATA-Treiber und einer aktueller HD-Tach-Version erstellt. Die angesprochene Problematik tritt dort nicht auf:

hdtach ocz

 

Im nächsten Schritt lassen wir Iometer über die komplette Kapazität des Laufwerks laufen, um eine starke Beanspruchung (ohne TRIM) zu simulieren.

hdtach-used-1

Die Leserate bleibt im Wesentlichen stabil, die Schreibrate sinkt stark ab. Damit ist die OCZ Vector allerdings in guter Gesellschaft, denn auch andere (High-End-)SSDs brechen nach starker Belastung ähnlich oder sogar noch weiter ein. Das ist im Prinzip nicht weiter tragisch, denn in den wenigsten Systemen werden beide Faktoren, nämlich extreme Schreiblast und kein TRIM, gleichzeitig zusammenkommen. Falls doch, empfehlen sich für solche Aufgaben nach wie vor nur Laufwerke mit SandForce-Controller – diese kommen mit beiden Szenarien (auch gleichzeitig) sehr gut zurecht.

hdtach-used-2

Ein weiterer Durchlauf zeigt nun fast das umgekehrte Szenario: Die Schreibrate ist relativ konstant, während die Leserate eingebrochen ist. Jedoch steigt sie gegen Ende sogar noch leicht über das Ausgangsniveau. Eine einfache Erklärung für diese Ergebnisse wäre ein adaptives Verhalten des Controllers bzw. der Firmware, d.h. die Firmware passt sich dem geforderten Leistungsprofil an. Intel hat bei der SSD 320 ebenfalls adaptive Algorithmen eingesetzt, sodass die Leistung u.U. immer besser wurde, je länger das Laufwerk einem bestimmten Lastprofil ausgesetzt war.

Eine weitere mögliche Erklärung wäre der Zeitpunkt der Garbage Collection. Um eine hohe Schreibperformance zu erreichen, müssen möglichst viele leere Blöcke vorhanden sein. Steht TRIM nicht zur Verfügung (was bei den HDTach-Durchläufen der Fall ist), ist das Organisieren/Aufräumen der Blöcke deutlich aufwendiger bzw. ineffizienter, da der Controller keine Daten verwerfen kann. Bei der Intel SSD 510 konnte man sehr schön sehen, dass der Aufräumprozess stattfindet, während Schreibvorgänge ausgeführt werden. Die extrem ungleichmäßige Performance ist ein Zeichen dafür, dass der Controller ausgelastet ist - nämlich mit der Garbage Collection, d.h. dem Aufräumen der Blöcke. 

OCZ führt die Garbage Collection möglicherweise (hauptsächlich) während Lesezugriffen aus, was die schlechte Leseperformance im letzten Screenshot erklären würde. Da HDTach erst den Lese- und dann den Schreibtest durchführt, ist die Schreibperformance nach dem Lesetest und der (möglicherweise) ausgeführten Garbage Collection wieder auf Ausgangsniveau.

Welche der beiden möglichen Erklärungen bei der OCZ Vector nun zutrifft, können wir nicht mit Sicherheit sagen. Der Zeitpunkt der Garbage Collection spielt sicherlich eine Rolle, aber auch (teilweise) adaptive Algorithmen könnten eine Erklärung sein.

 

Social Links

Seitenübersicht

Ihre Bewertung

Ø Bewertungen: 5

Tags

Kommentare (31)

#22
customavatars/avatar7658_1.gif
Registriert seit: 26.10.2003
Allgäu
Admiral
Beiträge: 10543
kommt auf die kapazität an.
wenns 240/256 GB sein sollen würd ich ne SF 2281 mit sync nehmen, reizt im write SATA II nahezu komplett aus und ist lesend immernoch bei realen anwendungen ganz vorn dabei.
Aus P/L sicht geht natürlich an der 830 fast kein weg vorbei oder eben ne 330 mit 180GB welche ja uch nen geilen preis hat und ebenfalls für SATA II absolut ausreichend ist.

aber auch die Vertex 4 kann interessant sein, oder ne Neutron GTX, es gibt viele sehr interessante SSD´s ne klare empfehlung kann man kaum geben derzeit.
#23
customavatars/avatar55164_1.gif
Registriert seit: 06.01.2007

Flottillenadmiral
Beiträge: 5866
OK danke, den Neutronentest hab ich auch nochmal gelesen, die normale ohne gtx is ja nur im seq schreiben langsamer, aber immernoch weit über sata2 limit, von daher würd die normale Neutron auch reichen, glaub ich.
Von der Neutron hab ich jetzt 3 Tests gelesen und bei pc expirience schreiben sie die Neutron hätt async Nand, was stimmt denn da jetzt, sync oder async?
#24
Registriert seit: 16.08.2005

Korvettenkapitän
Beiträge: 2505
da kann sie noch so gut sein, ocz ist unten durch. die qualitätsprobleme kann man ja noch nachsehen wenns besser wird, aber der umgang mit dem kunden (aussagen zu ausfallraten, hilfe in den supportforen dazu und die gefakten geizhals bewertungen) deklassiert sie als nicht hinnehmbaren geschäftspartner.
#25
customavatars/avatar7658_1.gif
Registriert seit: 26.10.2003
Allgäu
Admiral
Beiträge: 10543
da bin ich jetzt überfragt ob die normale neutron sync oder async hat, hatte noch keine in händen und hab mich diesbezüglich auch noch nicht wirklich schlau gemacht
#26
Registriert seit: 29.05.2011

Gefreiter
Beiträge: 38
Eine kleine Anmerkung:

Könnte der Abfall der Schreibrate nach etwa 50% Kapazität die selben Gründe haben wie bei der Vertex 4? Soweit ich weiß liegt das bei der doch am Storage Mode.
Angeblich (wird zumindest u.a. auf xtremesystems.org so spekuliert) beschreibt OCZ den Flashspeicher bei der Vertex 4 (und anscheinend zumindest bei manchen FWs auch bei der Vector) zuerst so als ob es eine SLC-SSD wäre (also nur 2 Zustände pro Zelle).

Sobald man aber die 50%-Marke an Speicherverbrauch überschreitet reicht der Speicherplatz im "SLC-Modus" nicht mehr. An dem Punkt muss der Controller dann (zumindest teilweise) die Daten aus den Zellen auslesen und im normalen MLC-Verfahren wieder zurückschreiben. Wenn während dieser Zeit weitergebencht wird bricht die Leistung natürlich ein (und dabei vor allem die Schreibleistung, da für neue Daten erstmal Platz geschaffen werden muss). Wenn der Controller mit dem Umscheffeln fertig ist, arbeitet die SSD jedoch wieder schnell.

Das selbe Verhalten zeigt sich bei der Vertex 4 dann auch nochmal bei 75% Speichernutzung, wenn man zuvor 50% auf die SSD geschrieben hat und ihr dann Zeit gegeben hat sich zu erholen. Anscheinend werden dort die danach geschriebenen Daten wieder im SLC-Verfahren geschrieben bis abermals der Platz ausgeht. Ob das bei der Vector genauso ist müsste man testen.


Mir erschließt sich ehrlich gesagt der Sinn der ganzen Aktion aber noch nicht. Der Performance-Modus und der Storage-Modus (so die offiziellen Namen von OCZ die SLC und MLC vermeiden) scheinen abgesehen von der Übergangsphase praktisch gleich schnell zu sein. Auch die Schreibzyklen des NANDs kann man dadurch nicht wirklich erhöhen (der NAND muss ja weiterhin als MLC lesbar bleiben für den Fall dass der User mehr Daten draufpacken will als im Performance-Modus möglich sind), und beim Wechsel zwischen den beiden Modi müssen sogar erstmal 'ne Menge Daten nochmals geschrieben werden. Worin liegt also der Vorteil dieses doch recht komplexen Verfahrens, falls es denn wirklich so benutzt wird?
Bin allerdings gespannt wie sich die Technologie bei PCIe-SSDs oder TLC-SSDs machen würde.


€: Soweit ich weiß nutzt die Neutron GTX Toggle-Nand und die normale Neutron sync Nand (siehe z.b. http://thessdreview.com/our-reviews/corsair-neutron-and-neutron-gtx-ssd-review-new-link-a-media-controller-pulls-no-punches/2/)
#27
Registriert seit: 31.12.2011

Banned
Beiträge: 982
@sirius3100
Mit solchen theoretischen Überlegungen stehst du hier auf verlorenem Posten. a) Kapiert das hier keiner. b) Störst du damit nur die Geschäftemacher.
Man tut das dann als Verschwörungstheorie, offtopic, Spam usw. ab.
http://www.hardwareluxx.de/community/f227/ssd-fachgespraeche-916597.html

Die Sandforce-Controller haben angeblich keinen Cache. Da bleibt erst mal gar nichts anderes übrig, als die Daten (vorübergehend) im SCL-Verfahren abzuspeichern. Erst in "einem ruhigen Moment" kann die Firmware 2 Pages dann zu einer MLC-Page zusammenfassen.
#28
Registriert seit: 29.05.2011

Gefreiter
Beiträge: 38
Weder Vertex 4 noch Vector sind Sandforce-SSDs.
#29
Registriert seit: 31.12.2011

Banned
Beiträge: 982
Zitat sirius3100;19822925
Weder Vertex 4 noch Vector sind Sandforce-SSDs.


Das dachte ich mir schon. Aber es hindert ja nicht, solch ein Verfahren anzuwenden.

Als ich mit einer SSD angefangen habe, da habe ich mir mal die Frage gestellt, "mit welchem Recht" SLC-SSDs viel mehr als doppelt so teuer (damals) wie MLC-SSDs sind. Wie gesagt, es wird ja niemand gezwungen, 2 Pages in einer zu verknüpfen. Das macht die Sache ja nur komplizierter und fehleranfälliger. Ein einzelnes Bit in einer MLC-Zelle lässt sich ja auch bei fortgeschrittenem Verschleiß viel sicherer identifizieren als 4 verschiedene Zustände.

Ich hatte wohl auch mal vorgeschlagen, für die gleiche SSD 2 verschiedene Firmwares zur Auswahl zu stellen, eine für MLC-Betrieb und eine für SLC-Betrieb.

The OpenSSD Project

http://www.openssd-project.org/wiki/The_OpenSSD_Project

"The Indilinx Jasmine Platform is the Indilinx's reference implementation of SSD based on the BarefootTM controller."

Woher kommt dieser Controller in der Vector gleich... ;)
#30
customavatars/avatar40366_1.gif
Registriert seit: 19.05.2006
unterwegs
SuperModerator
Märchenonkel
Jar Jar Bings
Beiträge: 21805
*seufz*
Du wirst es nie verstehen, Bernd, warum du hier immer wieder aneckst und sehr viele Leute vor den Kopf stößt.

Zum Thema:
OCZ verwendet den Performance Mode (und das ist meine eigene Schlussfolgerung) in erster Linie dafür, um in möglichst vielen direkt nach dem Erhalt durchgeführten Benchmarks besser zu stehen als die Konkurrenz. In jede MLC nur ein bit zu speichern beschleunigt natürlich auch mögliche read-modify-write-Speichervorgänge, da der Block nicht so groß ist. Das geht natürlich schneller, als 2 Zustände pro Zelle zu sichern und neuzuschreiben.

SLC-SSDs sind meist doppelt so teuer, weil doppelt soviel Waferfläche für die gleiche Speicherkapazität gebraucht wird und die Strukturbreite der SLC meist noch gröber ist, damit die Zellen robuster bleiben. Das macht die ganze Angelegenheit nochmal teurer. Das gehört aber wiederum wenn überhaupt nur peripher in diesen Kommentarthread.
#31
customavatars/avatar283_1.gif
Registriert seit: 03.07.2001
127.0.0.1
Admiral
Altweintrinker
Beiträge: 25267
Kleine Frage am Rande. Für wie viel TB Schreiblast ist eigentlich eine M4 vom Hersteller freigegeben? Die 36TB der Vector kommen mir sehr gering vor. :hmm:

EDIT:

72 Terabyte sind es. Da sind die 5 Jahre Garantie der Vector wohl relativ zu betrachten, da man durch die Schreiblast mehr eingeengt wird, als bei anderen in 3 Jahren.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Samsung SSD 750 EVO im Test - die neue Einsteiger-Klasse?

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/SAMSUNG-750-EVO/TEASER

Samsung gehört zu den Standardempfehlungen, wenn es um SSDs geht, sowohl im Highend-Bereich mit der Samsung SSD 950 PRO als auch im Mainstream-Bereich mit der 850 EVO. Letztere hat vor kurzem ein Upgrade erfahren, dabei wurde der 3D-Speicher durch eine neue Version mit nunmehr 48 statt 32... [mehr]

Crucial MX300 SSD mit 750 GB und 3D-NAND im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/CRUCIAL-MX300-750GB/TEASER

Crucial meldet sich zurück und packt mit der MX300 aktuelle Speichertechnologie in ein 2,5-Zoll-Laufwerk. Den Anfang macht dabei ein einziges Modell mit einer ungewöhnlichen Speicherkapazität von 750 GB, das gegen die Samsung SSD 850 EVO und andere Mainstream-Laufwerke bestehen soll. Die... [mehr]

Samsung SSD 850 EVO mit neuem 48 Layer 3D-NAND im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/SAMSUNG-850EVO-48/TEASER

Bereits vor einiger Zeit hat Samsung den nächsten Schritt in der Fertigung von NAND-Speicher angekündigt, nämlich die Produktion von 3D-NAND mit 48 Layern. Dieser soll jetzt in der Samsung SSD 850 EVO zum Einsatz kommen, wobei sich der Produktname nicht ändert, die Bestände werden also nach... [mehr]

OCZ Trion 150 SSD mit 240 GB im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/OCZ-TRION-150/TEASER

Letztes Jahr hat OCZ mit der Trion 100 eine SSD auf TLC-Basis für preisbewusste Käufer auf den Markt gebracht. Nach etwas über einem halben Jahr erfährt die Trion nun ein Update in Form der OCZ Trion 150, bei der weiterhin TLC-Speicher von Toshiba zum Einsatz kommt, der jetzt allerdings in 15... [mehr]

NVMe-SSD Samsung 960 PRO mit 512 GB und 2 TB im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/SAMSUNG-960-PRO/TEASER

Die Samsung SSD 950 PRO hat bis heute unsere Benchmark-Tabelle als schnellste SSD angeführt. Konkurrenz bekommt sie jetzt aus eigenem Haus in Form des Nachfolgers 960 PRO. Dabei handelt es sich um mehr als ein kosmetisches Update, denn Samsungs neuste M.2-SSD mit NVMe-Interface ist insbesondere... [mehr]

Toshiba OCZ RD400 SSD mit NVMe im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/TOSHIBA-OCZ-RD400/TEASER

Auch Toshiba steigt jetzt mit der OCZ RD400 SSD in die Königsklasse der schnellen Halbleiter-Laufwerke mit NVMe-Interface ein. Mit einem PCI-Express-Interface der dritten Generation und vier Lanes verspricht Toshiba eine Performance von bis zu 2.600 MB/s beim Lesen und 1.600 MB/s beim Schreiben,... [mehr]