[Kaufberatung] SSD-Kaufberatung/-Informationsthread + Diskussion (Bitte lesen!)

Holt, und du kannst anscheinend immer noch nicht lesen, ich fragte nach der Vector und nicht nach der Vertex 4. Du gehst mir langsam echt richtig auf den Sack. Reicht es nicht, dass du CB verseuchst, musst du jetzt die gleiche Scheiße hier auch noch abziehen.
Wenn man Menschen kategorisieren würde, dann kämst du ganz unten rein.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
800 Grad (Total OT) "Flash-Speicher für die Ewigkeit?" Flash-Speicher für die Ewigkeit? Was soll ich nun sagen...2009 hatte ich eine Grafik hier gesehen, aus der hervor geht, dass bei höheren Temperaturen (auch die fehlerhaften) Elektronen aus dem Flash "verdunsten" - leider auch die beschissene Firmware aus dem b..... Flash. Wenn das Flash gesockelt wäre, dann könnte man die Teile, in denen keine FW steht, auf ein umgedrehtes Reglerbügeleisen legen. Als und wo ich aufgewachsen bin, hat Not noch erfinderisch gemacht. ;) ---------- Post added at 20:22 ---------- Previous post was at 20:01 ----------
Lies doch bitte noch mal diese Seite,
Und _SO_ (ganz voll geschrieben auf einen Ritt) möchte ich hier mal die Sumsum 840 getestet sehen. Wie gesagt, bei Sandforce geht das gar nicht anders.
 
Zuletzt bearbeitet:
lower page corruption

Bei Sandforce ist genau das vorgesehen.
lower page corruption soll beim Sandfoce vorgeseen sein? Das glaube ich nicht und der Sandfoce macht so was auch nicht, der Beschreibt die beiden Bits im MLC schon richtig.
Da gibt es keinen großen Cache, damit bei Stromausfall nichts verloren geht.
Belege? Der hat ja RAM, nur halt fix im Controller integriert. Aber bei dem professionellen SF-15xx und SF-25xx ist ja die Unterstützung für eine "Notstromversorgung" über Kondensatoren integriert und nutzt trotzdem kein externes Cache RAM, warum auch immer. Das dürfte am Layout des Controllers liegen oder weil man die Kosten für die Kunden gering halten wollte.

Der SF ist bzgl. der Datensicherheit der letzte Controller, den ich einsetzen würde. Wenn man bei dem den Schreibcache deaktiviert (was bewirkt, dass die Schreibzugriffe erst beendet werden wenn die Platte bestätigt diese physikalisch geschrieben zu haben), dann ändert sich die Performance überhaupt nicht und bleibt so hoch wie sonst auch. Die cacht also munter weiter und damit landet die beim Swingbench auch ganz weit vorne, denn auch bei Oracle dauert ein Commit bis die Platte das Schreiben auf das Medium bestätigt hat. Dabei darf aber nur wirklich schummeln, wer aufgrund einer Notstromversorgung sicher sein kann, die Daten aus dem Cache auch wirklich zurückschreiben zu können (weshalb die professionellen RAID Controller ja auch Akkus oder sogar Flash zum Sichern des Caches haben), trotzdem machen es die Cosumer SF auch.
Da landen alle Daten immer sofort auf dem NAND.
Träume weiter! Benche mehrere SSDs mal mit und ohne aktivem Schreibcache und vergleiche die Werte bei 4k Schreibend. Wenn Du glaubst der Sandfoce schaffe es durch ein Wunder, welches nicht Cache heißt, um so viel schneller zu schreiben als andere Controller mit dem gleichen NAND.
lower page corruption werner sandforce
Director of Marketing SandForce, aber was hat das mit dem Thema zu tun? Das die Enterpsrise Class Versionen des Sandforce über eine Unterstützung der Notstromversorgung verfügen, ist doch alt bekannt, ein Cache RAM unterstützen sie aber komischerweise trotzdem nicht.
Demzufolge dürfte man also absolut keine SSDs mit Sandforce-Controller, egal von welchem Hersteller, kaufen. Na dann... ;)
Da bin ich ganz Deiner Meinung, die SF-Controller sind mehr als jeder andere SSD Controller designt um mit lower cost flash klar zu kommen, was den Herstellern der SSDs mit dem Controller Tür und Tor öffnet, es wie OCZ oder KingFast zu machen. Außerdem ist der Sandforce wohl mehr Enterprise Controller entwickelt worden, denn mit den Kondensatoren kann er ja auch einfach den Befehl zum Leeren des Schreibcaches ignorieren, da er den Cache immer noch geschrieben bekommt (vielleicht es deswegen auch kein extra Cache RAM, denn das würde auch mehr Kondensatoren erfordern), aber in den Consumer Versionen hat er das nicht und da liegt die Gefahr.
@ Holt: Die Gänsefüßchen bei "geniale Idee" entfernst du bitte noch.
Die bleiben schön da, denn diese Idee ist nur auf den ersten Blick genial, aber die Nebenwirkungen sind leider nicht bedacht oder ignoriert worden. Wenn es die nicht gäbe, hätten die NAND Hersteller das gleich so vorsehen gehabt. SanDisk ja wohl nun sowas bei seinem nCache realisiert, aber dabei hoffentlich darauf geachtet die Nebenwirkungen zu vermeiden und den SLC Teil des NAND auch wirklich entsprechend auf diese Verwendung auszulegen.

Zuckerberg ist auch so ein Thema: Lass uns die Demo gegen die Volkszählung über Facebook verabreden wall:

Holt, und du kannst anscheinend immer noch nicht lesen, ich fragte nach der Vector und nicht nach der Vertex 4.
Hsst Du es immer noch nicht verstanden? Es ist bei beiden SSDs das gleiche:
Die Agility4 hat das auch, aber als Anand die getestet hat, war da noch eine mildere Version in der FW verbaut, die nur bei einem Teil der Kapazität nur ein Bit pro Zelle geschrieben hat, dann offenbar beide Bits und erst am Ende die langsamen zweiten Bits, da sieht man auch deutlich, welche Unterschied das ergibt.

Clean_575px.PNG

Hier das Bild aus dem Test der Vector:

vector-aftertortureandtrim.png

Du gehst mir langsam echt richtig auf den Sack.
Nein, Dein Sack interessiert mich nicht, aber ich werde es immer wieder richtig stellen, wenn was Falsches schreibt, bis Du es gelernt hast. Das meiste haben wir doch schon so oft wiederholt, irgendwann muss es doch hängen bleiben.
Reicht es nicht, dass du CB verseuchst, musst du jetzt die gleiche Scheiße hier auch noch abziehen.
Das müsste ich eigentlich Dich fragen.

800 Grad (Total OT) "Flash-Speicher für die Ewigkeit?"
Mich wundert nur, dass die Chips das überhaupt aushalten. Da müsste doch die ganze Dotierung verloren gehen.

Und _SO_ (ganz voll geschrieben auf einen Ritt) möchte ich hier mal die Sumsum 840 getestet sehen.
Kein Problem, anand testet das doch immer im Rahmen seines TRIM Tests:
Samsung 840 250GB
Clean_575px.PNG

Samsung 840 Pro 256GB:
840pro-aftertortureandTRIMsm.jpg

Interessant auch die SanDisk Ultra Plus, die einen komischen Buckel hat, ob da gerade das SLC beschrieben wurde?
sandiskultraplus-aftertorture-andtrimsm.png

Wie man sieht, macht kein Hersteller von NANDs so etwas, obwohl jeder genau weiß, dass es schneller geht nur das erst Bit zu schreiben.
Wie gesagt, bei Sandforce geht das gar nicht anders.
Du meinst wohl, den den Sandforce geht das gar nicht, denn der Controller löscht ja die Blöcke immer erst während des Schreibvorgangs, weshalb der ja auch im Normalzustand eine entsprechend geringere Schreibrate. Die fällt aber nach einigen GB noch weiter ab (Recovery Mode), weil der Controller dann auch noch entscheiden muss, welche Blöcke als nächsten gelöscht werden und die noch gültigen Daten darin müssen dabei ja auch kopiert werden. Deshalb macht Anand diesen Test bei den Sandforce SSDs ja auch nicht.
 
Belege? Der hat ja RAM, nur halt fix im Controller integriert.
(Irgendwelche Register haben wohl die meisten CPUs oder Controller? Wie groß?)
https://www.google.de/search?q=regi...&rls=org.mozilla:de:official&client=firefox-a


http://www.bswd.com/FMS10/FMS10-Werner.pdf
Mein Gott, das ist halt das, was ich aus Werbedokus herauslese und mir mühsam zusammenvermute. Du musst nicht alles konfrontationsmäßig zerpflücken - wenn du bessere Infos hast, dann verlinke sie bitte hier.

---------- Post added at 09:23 ---------- Previous post was at 09:21 ----------

Seite 18

Mapping Strategies for Integrity and Availability
1. Full Map resident in Flash – Best Approach...

Und irgendwo kam zum Ausdruck, dass die eingehenden Benutzerdaten direkt in komplett freie Zellen geschrieben und erst später 2 Pages zusammengefügt werden, ohne DRAM-Cache. Als Vorteil wurde genannt, dass dadurch keine Userdaten (erst mal) verloren gehen könnten. Wenn dann später beim Zusammenfummeln zweier Pages der Strom weg ist, dann...Jedenfalls hat meine Intel 330 mit Sandforce ein heftiges Problem mit der Energieeinsparung unter W7, das seit Jahren von Sandforcees bekannt ist.

Um die Diskussion hier abzuschließen:
Wenn mir jemand zuverlässig und problemlos 5 Jahre kostenlosen Vorabumtausch garantiert, dann ist mir piepegal, was der in seinen SSDs macht und dass er (z.B. Samsung) fast alles streng geheim hält.

---------- Post added at 09:41 ---------- Previous post was at 09:23 ----------

Kein Problem, anand testet das doch immer im Rahmen seines TRIM Tests:
"Write speed drops to as low as 25MB/s," Das sehe ich aber in _der_ Grafik nicht. Ich sehe dort überhaupt keine Kurve bezüglich SEQUENTIAL WRITE SPEED. Wenn ich jetzt keine Tomaten auf den Augen habe, dann würde ich sagen, das sind alles nur bezahlte Schönwetter-Auftrags-Gefälligkeitstests. Der soll und will seine Leser auch nur verarschen.
 
Zuletzt bearbeitet:
"Write speed drops to as low as 25MB/s," Das sehe ich aber in _der_ Grafik nicht. Ich sehe dort überhaupt keine Kurve bezüglich SEQUENTIAL WRITE SPEED. Wenn ich jetzt keine Tomaten auf den Augen habe, dann würde ich sagen, das sind alles nur bezahlte Schönwetter-Auftrags-Gefälligkeitstests. Der soll und will seine Leser auch nur verarschen.

Welcher der von Anand präsentierten Graphen die 25MB/s wiedergibt, ist leicht auszumachen. Insgesamt wird der Aspekt über die Gebühr behandelt, da die Voraussetzung für den Leistungseinbruch das Fehlen von TRIM ist. Diese Voraussetzung liegt seit Jahren bei gängigen Betriebssystemen nicht mehr vor.

Statt Schönfärberei müßte man Anand also eher Beihilfe zur Schwarzmalerei vorwerfen. Letztere ist inzwischen, wie man hier eindrucksvoll erleben kann, ein weitaus größeres Hindernis für den sachlichen Austausch unter SSD-Interessierten als verdeckete Werbung.
 
Statt Schönfärberei müßte man Anand also eher Beihilfe zur Schwarzmalerei vorwerfen. Letztere ist inzwischen, wie man hier eindrucksvoll erleben kann, ein weitaus größeres Hindernis für den sachlichen Austausch unter SSD-Interessierten als verdeckete Werbung.
Hm, ich weiß nicht...Ich sehe da keine Grafik des Vollschreibens einer SSD. Siehst Du eine?! Harte und "gemeine" Schreibtests findet man eher auf Enterprise-Websites als in Consumerforen. Und was man da sieht, macht einem ganz große, ungläubige Augen.

800 Grad (Total OT) Wenn das Flash gesockelt wäre, dann könnte man die Teile, in denen keine FW steht, auf ein umgedrehtes Reglerbügeleisen legen. Als und wo ich aufgewachsen bin, hat Not noch erfinderisch gemacht. ;)

"Studie der Grünen deutet das an
Hersteller sollen bewusst auf Verschleiß bei Elektrogeräten setzen
"

http://www.computerbase.de/news/201...t-auf-verschleiss-bei-elektrogeraeten-setzen/

"Die Grünen-Politikerin Dorothea Steiner bezeichnet das Verhalten der Hersteller als „Schweinerei“, da nicht nur dem Verbraucher unnötige Kosten entstehen, sondern auch künstlich die Müllberge vergrößert werden."

Ich hasse es, wenn man die Schraube überdreht, alles noch billiger macht und mit miesen Produkten die Umwelt versaut.


Otto von Bismarck über die Wurst


http://www.wurstakademie.com/otto-von-bismark-uber-die-wurst/

„Je weniger die Leute wissen,
wie Würste und Gesetze gemacht werden,
desto besser schlafen sie!“

Das sehe ich bei Halbleitern allgemein und bei SSDs speziell ganz genau so. ;)




"Die Studie deutet an, dass Hersteller Verschleißteile in ihre Geräte einbauen, um frühzeitig, aber möglichst nach Ablauf der Garantiezeit, Defekte auszulösen."

Deshalb will ich 5 Jahre Garantie.

@Mobo: Deine Signatur halte ich aber auch nicht für besonders sachlich. ;)
 
Zuletzt bearbeitet:
(Irgendwelche Register haben wohl die meisten CPUs oder Controller? Wie groß?)
Wie groß das RAM oder die Register oder was immer der Kerne im Sandforce sind, sagt Sandforce nicht, aber einige MB müssen es schon sein, sonst könnte der ja keine größeren Datenvolumen cachen und das macht er ja, wenn Du Dir die 4k Schreibend mal ansiehst. Außerdem werden die Daten noch komprimiert, was auch nur im RAM passieren kann, wenn man überlegt, dass ja ein Datenstrom von mindestens 550MB/s in Echtzeit komprimiert wird.

Was ein Controller ohne eine größere Menge RAM schafft, sieht man an den Benchmarks von SSDs mit altmodischen Controllern, wie diese SandDisk aus dem Mediamarkt. Oder schau Dir mal die 4k schreibend der meisten USB Sticks an, da geht es direkt ins NAND und wir reden i.d.R. von 0.001 bis 0.01 MB/s.

Eine Crucial m4 oder Plextor M3S schaffen ohne Schreibcache nur wenige MB/s bei 4k Schreiben.
http://www.bswd.com/FMS10/FMS10-Werner.pdf
Mein Gott, das ist halt das, was ich aus Werbedokus herauslese und mir mühsam zusammenvermute.
Dann solltest Du aber Deine Quellen besser auswählen und nicht allzu ernst nehmen, was das Marketing erzählt.
Du musst nicht alles konfrontationsmäßig zerpflücken - wenn du bessere Infos hast, dann verlinke sie bitte hier.
Wie schon gesagt, es gibt wenig technische Dateils über die Sandforce, so wie es auch über anderen SSD Controller und selbst die NANDs kaum etwas öffentlich gibt.

Mapping Strategies for Integrity and Availability
1. Full Map resident in Flash – Best Approach...
Deswegen sind die IOPS bei den Sandforce ja auch teils deutlich geringer, wenn diese über 85% der Kapazität gemessen werden und nicht nur über 8GB. Bei AS-SSD kommt der deswegen auch so gut weg, weil der die IOPS sogar nur über GB misst. Andere Controller nutzen das RAM ja vor allem um die Mappingtabellen dort zu cachen (im NAND muss es sowieso immer auch aktuell stehen, sonst wären die Daten weg, wenn der Strom plötzlich ausfällt).

Lies mal anands "The Indirection Table" aus "The Intel SSD DC S3700: Intel's 3rd Generation Controller Analyzed" by Anand sowie die nachfolgende Seite "The New Indirection Table". Dann wird Dir auch klar, warum die SSD Reihe bei mehr Kapazität auch mehr RAM verbaut haben, etwas was beim Sandforce nicht möglich ist und deshalb sind die SF-2281 mit 480/512GB auch langsamer als die mit 240GB, da passt einfach noch weniger von den Daten ins RAM, die man braucht um das Mapping zu realisieren.

Und irgendwo kam zum Ausdruck, dass die eingehenden Benutzerdaten direkt in komplett freie Zellen geschrieben und erst später 2 Pages zusammengefügt werden, ohne DRAM-Cache. Als Vorteil wurde genannt, dass dadurch keine Userdaten (erst mal) verloren gehen könnten.
Alles Werbelügen. Das kann so nicht gehen, denn wie sollen dann bitte die Daten komprimiert werden? Das kann man zwar in kleinen Portionen machen, aber eben nicht ohne diese in einem RAM (oder einer Unmenge Registern) zwischenzuspeichern. Wieso Sandforce nicht zugibt RAM zu verwenden, verstehe ich beim besten Willen ist. Der Controller hat doch auch nur irgendwelche lizenzierten Kerne wie z.B. die von ARM (die werden bei den meisten Controllern verwendet) und keine Eigenentwicklungen drin. Dazu wäre ein Startup wohl auch kaum in der Lage gewesen.
Wenn dann später beim Zusammenfummeln zweier Pages der Strom weg ist, dann...Jedenfalls hat meine Intel 330 mit Sandforce ein heftiges Problem mit der Energieeinsparung unter W7, das seit Jahren von Sandforcees bekannt ist.
Was die da wie zusammenfummeln, kann ich nicht sagen, aber wenn die auch nur das erste Bit beschreiben und dann die Daten noch mal umkopieren würden, dann müsste da eine viel, viel bessere Schreibrate bei rauskommen. Das der Sandforce Probleme mit dem Energiesparen hat, ist ja auch logisch, der macht einfach zu viel im Idle. Denn anders als die meisten Controller, räumt der Controller ja im Idle einen Teil der NANDs frei, so viel wie ab Werk als Free Area vorhanden ist, weshalb die Schreibrate auch nach einigen Stunden im Idle wieder auf den Normalwert ansteigt, wenn man in kurzer Zeit mehr geschrieben hat als eben in diese Free Area passen und der Controller somit im Recovery Mode ist.

Der Sandforce räumt dann zwar die Blöcke frei, löscht sie aber erst, wenn sie tatsächlich beschrieben werden, was höhere Lebensdauer ergeben soll (reine Werbeaussage). Das würde eine geringer Write Amplification erfordern, aber die WA ergibt sich ja daraus, dass noch gültige Daten kopiert werden müssen, die in Blöcken stehen die gelöscht werden sollen. Wenn es solche Daten nicht gibt, dann gibt es auch keine WA und somit keine Nachteile für die Lebensdauer. Warum der Sandforce die Blöcke trotzdem nicht dann löscht wenn keine gültigen Daten mehr drin, so wie andere Controller es machen und dadurch die volle Schreibrate wie im Neuzustand erhalten, kann ich auch nicht nachvollziehen, jedenfalls bekommt der Kunde nach dem erstmaligem Beschreiben alles Pages die volle Schreibrate beim Sandforce nur durch ein Secure Erease zurück.

"Write speed drops to as low as 25MB/s," Das sehe ich aber in _der_ Grafik nicht. Ich sehe dort überhaupt keine Kurve bezüglich SEQUENTIAL WRITE SPEED.
Es gibt da mehrere Kurven, i.d.R. einmal neu, einmal gefoltert (was so bei normalen System nicht kommen wird) und dann wieder nach TRIM. Die 25MB/s gibt es nur bei gefolterten SSDs und da kann es auch nicht anders sein, denn überlege doch mal, was da passiert:
Die SSD wird vollgeschrieben und dann werden die LBAs noch mal eine ganze Weile mit Random Writes überschrieben, da bleibt also kein freier Plate und Daten der einzelnen LBAs sind wild im NAND verstreut. Dann gibt es wohl i.d.R. eine Pause (leider wohl nicht immer und nicht immer gleich lange) und die LBAs werden sequentiell überschrieben. In der Pause kann der Controller etwas aufräumen, denn Daten werden ja durch zwei Bedingungen ungültig:
1. Der LBA zu dem gehörten wird überschrieben
2. Der LBA zu dem gehörten wird getrimmt
In dem Test wird da noch nichts getrimmt, erst im letzten Teil des Tests. Daher ist die ganze nutzbare für den Controller voller gültiger Daten und wenn nun wieder geschrieben wird, dann beschreibt es idealerweise erst mal seine Free Area, die im vorher leergeräumt hat. Dann aber muss der Controller beim Schreiben Platz schaffen, also Blöcke auswählen die möglichst wenige Pages mit noch gültige Daten enthalten, diese noch gültigen Daten in den Pages der zuletzt gelöschten Blöcke kopieren (womit weniger Platz für die neuen, zu schreibenden Daten bleibt) und diesen Block dann löschen. Dabei bricht die Schreibrate natürlich ein, denn dauert das Kopieren der Daten sowie das Löschen der Blöcke seine Zeit und dann sind die gerade gelöschte Blöcke ja auch schon wieder gut gefüllt. Zumindest am Anfang, wenn noch nicht so viele LBAs überschrieben wurden, mit der Zeit werden ja immer mehr LBAs überschrieben und damit auch immer mehr alte Daten ungültig, so dass immer weniger kopiert werden müssen, die Schreibrate steigt also wieder an.

Idealerweise sieht es dann genau so aus, wie bei der Cruicial m4 mit der FW 0009:
m4-0009-torture.png

Eine SSD die sich so verhält ist auch optimal für den Einsatz ohne TRIM geeignet (also etwa an einem RAID Controller), denn der Controller räumt ja den freien Platz gut auf und kann entsprechend ein paar GB schnell schrieben. Dann muss man sich nur entscheiden, wie viele GB mal so schnell schreiben können will und eine entsprechenden Teil der Kapazität unpartitioniert lassen, damit der Controller immer entsprechend viel Free Area zu Verfügung hat.

Vorhin habe ich geschrieben, das der Controller zuerst seine Free Area beschreibt, die er es idealerweise vorher leergeräumt hat. Das sieht man bei Anands Test der Corsair Performance Pro sehr gut. Da sieht man auch, wie genau das passiert was ich oben beschrieben habe, denn zuerst hat er die viel zu kurz gefoltert und so eine Kurve bekommen:

Dirty%2020min_575px.PNG

Wenn wenn da die Schreibrate so hoch ist, dann war da die Daten praktisch so nacheinander im NAND wie sie auch in den LBAs stehen, weil da keine oder wenig Radom Writes auf die LBAs erfolgt sind und somit beim Überschreiben gleich ganze Blöcke ungültig wurden, also nichts zu kopieren war. Das wäre schon so der Worst Cace für Heimanwender ohne TRIM. Dann hat er sie länger gefoltert und sofort seq. Überschrieben:

Dirty%2060min_575px.PNG


Dann noch mal die gleiche Folter, aber zwischen Folter über dem Test (seq. Überschreiben) waren diesmal 40 Minuten Pause:

40min%20idle_575px.PNG

Siehst Du den Unterschied? Anand hat ihn wohl nicht erkannt, denn er geht im Test nur auf die 4MB/s Unterschied ein. Die sind doch belanglos, die abfallende Flanke in der Kurve der Schreibrate macht den Unterschied! Das ist das Ergebnis der Aufräumarbeit des Controllers im Idle, wo er sich Platz geschaffen hat um wieder so viel Daten schnell schreiben zu können wie er Platz frei hat. Das ist das wichtige bei dem Test, nicht es im schlimmsten Fall auf 25MB/s oder 35MB/s runter geht, da will man sowieso nicht hinkommen! Da kommt man auch nie hin, wenn man nie mehr Daten am Stück schreibt, als der Controller freien Platz (und Zeit) zum Aufräumen hatte. Beide fehlt ihm normalerweise nur, wenn man große Dateien nicht löscht (und die LBAs getrimmt werden) sondern überschreibt (wobei ja keine TRIM Befehle ausgelöst werden).
Wenn ich jetzt keine Tomaten auf den Augen habe, dann würde ich sagen, das sind alles nur bezahlte Schönwetter-Auftrags-Gefälligkeitstests.
Du hast Tomaten auf den Augen, es gibt i.d.R. immer 3 Screenshots von HDTach bei Anands TRIM Performance Test in SSD Reviews, einmal den im Neuzustand, dann den unter Folter (also wie oben beschrieben) und am Ende den nach TRIM. Beim ersten und letzten sieht man idealerweise nur zwei gerade Linien, wobei die dunkelrote die Schreibrate zeigt und die hellrote die Leseraten. Da HD Tach wohl nur bis 400MB/s benchen oder anzeigen kann, sind beide oft bei etwa 400MB/s begrenzt, denn HD Tach ist eben kein SSD Tool und auch schon recht alt.

Hm, ich weiß nicht...Ich sehe da keine Grafik des Vollschreibens einer SSD. Siehst Du eine?!
Jeder der Anhänge in diesem Post zeigt so eine Kurve, es geht von Links nach rechts einmal über die ganze Nutzkapazität der SSD.
Harte und "gemeine" Schreibtests findet man eher auf Enterprise-Websites als in Consumerforen.
Sowas interessiert da niemanden, denn die schreiben nicht sequentiell auf die SSDs sondern fast nur Random, aber massiv parallel und ohne Pause. Darüber findest Du was in "Exploring the Relationship Between Spare Area and Performance Consistency in Modern SSDs und bei den Performance Consistency Tests von Anands letzten SSD Reviews.
"Die Studie deutet an, dass Hersteller Verschleißteile in ihre Geräte einbauen, um frühzeitig, aber möglichst nach Ablauf der Garantiezeit, Defekte auszulösen."

Deshalb will ich 5 Jahre Garantie.
Bei Computerhardware wird man sowas kaum brauchen, denn die ist nach Ablauf der Garantie sowieso veraltet und wird ersetzt. Ansonsten ist das Thema uralt und es gab schon in den 30er Jahren des vorherigen Jahrhunderts in den USA eine entsprechende Gesetzesinitiative die das sogar vorschreiben sollte um die Wirtschaft aus der Depression zu bekommen. Daraus wurde nicht und erst der 2. Weltkrieg hat der US-Wirtschaft einen starken Aufschwung beschert, denn bei Waffen und Munition brauchte man sowas nicht einzubauen um die Nachfrage zu steigern.
 
Du hast Tomaten auf den Augen, es gibt i.d.R. immer 3 Screenshots von HDTach bei Anands TRIM Performance Test in SSD Reviews, einmal den im Neuzustand, dann den unter Folter (also wie oben beschrieben) und am Ende den nach TRIM. Beim ersten und letzten sieht man idealerweise nur zwei gerade Linien, wobei die dunkelrote die Schreibrate zeigt und die hellrote die Leseraten.
JA! Ich habe die Tomaten und wer oben auf jedem Bild den kleinen blauen Text "Sequential Read Speed" (higher is better) angebracht hat, der hat wohl gewaltig ein Rad ab!!! Nach dem Wort Read habe ich die Grafiken nicht weiter genauer betrachtet - naja. Jedenfalls danke ich dir erst mal für deine Geduld. Was deine theoretischen Überlegungen betrifft, bin ich genau zu den gleichen Ergebnissen gekommen. Andererseits glaube ich nun mal, gelesen zu haben, dass die Sandforce keinen nennenswerten Cache haben. Und da hier ja ständig viele Leute unterwegs sind und sich ständig mit Benchmarks und schneller und langsamer - "performanter" - befassen, hatte ich gedacht, es wird sich schon jemand finden, der dir im Falle eines Falles zeigt, wo es steht, dass die Sandforce doch einen "richtigen" großen Cache haben.

Ansonsten ist das mein Standpunkt: "Wenn mir jemand zuverlässig und problemlos 5 Jahre kostenlosen Vorabumtausch garantiert, dann ist mir piepegal, was der in seinen SSDs macht und dass er (z.B. Samsung) fast alles streng geheim hält."

Wir leben in einer arbeitsteiligen Gesellschaft: jeder macht _seinen_ Job. Der Käufer bezahlt und erhält eine völlig problemlose, langlebige Ware - ohne weitere Belästigungen, z.B. mit FW-Updates. Leider war das bei meinen bisherigen SSDs nie der Fall.

---------- Post added at 08:57 ---------- Previous post was at 08:38 ----------

Bei Computerhardware wird man sowas kaum brauchen, denn die ist nach Ablauf der Garantie sowieso veraltet und wird ersetzt. Ansonsten ist das Thema uralt und es gab schon in den 30er Jahren des vorherigen Jahrhunderts in den USA eine entsprechende Gesetzesinitiative die das sogar vorschreiben sollte um die Wirtschaft aus der Depression zu bekommen. Daraus wurde nicht und erst der 2. Weltkrieg hat der US-Wirtschaft einen starken Aufschwung beschert, denn bei Waffen und Munition brauchte man sowas nicht einzubauen um die Nachfrage zu steigern.

So etwas ist auf der ganzen Linie eine gewaltige Sauerei. Das muss man verändern. Das hieße ja, wir werden 2 Mal beschissen: beim Geld verdienen um unseren gerechten Lohn und beim Geld ausgeben um "anständige" Waren. Das werde ich nie akzeptieren.

"Bei Computerhardware wird man sowas kaum brauchen, denn die ist nach Ablauf der Garantie sowieso veraltet und wird ersetzt." Ich habe gestern einen sehr guten 4 Jahre alten PC bestellt:

https://www.google.de/search?q=fujitsu+m470&ie=utf-8&oe=utf-8&aq=t&rls=org.mozilla:de:official&client=firefox-





---------- Post added at 09:09 ---------- Previous post was at 09:06 ----------

Der Fujitsu Celsius M470 übertrifft meinen Bedarf mehrfach. Als ehemaliger Profi gebe ich nicht unnötig Geld aus. Ich werde solch ein verkommenes System nicht unterstützen, indem ich mich auch noch verschulde... "Zu meiner Zeit" mussten hochwertige Konsumgüter 12 Jahre halten. Und die Mainframes in Unternehmen laufen heute fast genau so lange. Wer mir also als Hersteller oder Händler eine Gehirnwäsche verpassen möchte, dem sage ich: "Wir sind doch nicht bei Wünsch dir was. Versuchs mal mit _ehrlicher_ Arbeit."

---------- Post added at 10:31 ---------- Previous post was at 09:09 ----------

Test: OCZ Vertex 4 SSD - HD Tune File Sequentiell Lesen/Schreiben (3/12)

"Wir haben deshalb die üblichen Einstellungen des HD Tune Pro noch einmal angepasst und anstelle die SSD nur partiell zu beschreiben die komplette SSD von vorne bis hinten in einem Durchgang beschreiben lassen. Das Ergebnis sieht dann wie folgt aus. Von Anfangs hohen 200 MB sinkt die Schreibrate zunächst auf 150 ab und bricht dann später nochmals auf 100 MB ein. "

Hm, ich weiß nicht...Ich sehe da [bei Anand!] keine Grafik des Vollschreibens einer SSD. Siehst Du eine?! Harte und "gemeine" Schreibtests findet man eher auf Enterprise-Websites als in Consumerforen. Und was man da sieht, macht einem ganz große, ungläubige Augen.

Sagt mal, ist es sicher, dass bei den ganzen Grafiken die SSDs so voll mit Daten sind, dass am Ende kein einziges Bit mehr auf die SSD passt?!!! HDTune oder HDTach sind doch Festplattentests. Bei Festplatten ist es egal, was vorher auf der Platte steht und ob während des Tests die eben geschriebenen Daten sofort wieder gelöscht werden. Bei Festplatten kann man den Test hundert Mal hintereinander auf die volle (oder leere - egal) Platte laufen lassen und bekommt immer die gleiche Kurve. Bei SSDs ist das total anders.

... Insgesamt wird der Aspekt über die Gebühr behandelt, da die Voraussetzung für den Leistungseinbruch das Fehlen von TRIM ist. Diese Voraussetzung liegt seit Jahren bei gängigen Betriebssystemen nicht mehr vor.

Statt Schönfärberei müßte man Anand also eher Beihilfe zur Schwarzmalerei vorwerfen. Letztere ist inzwischen, wie man hier eindrucksvoll erleben kann, ein weitaus größeres Hindernis für den sachlichen Austausch unter SSD-Interessierten als verdeckete Werbung.

Wenn während eines Testdurchlaufes die anfangs geschriebenen Daten gelöscht würden - nur dann läuft TRIM - dann wäre das noch viel schlimmer als Schönfärberei, ganz üble Manipulation. Noch viel schlimmer, als ich bisher gedacht hätte. Schließlich sind auch SSDs dazu da, Daten zu speichern und zu halten, nicht um stückchenweise geschrieben und gleich wieder gelöscht zu werden.

Wenn ich Videos auf einer SSD speichere, dann gibt es da gar nichts zu trimmen, und dann möchte ich wissen, mit welchem Tempo bei 80% Füllung geschrieben wird - doch nicht etwa mit 25MB/s?! Das wäre ja langsamer als bei fast jeder Festplatte.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
kevin, die Schreibleistung der 840 in 120GB ist vergleichsweise niedrig, besser wäre da die Samsung 840 PRO. Wenn die Schreibleistung aber nicht explizit benötigt wird und es hauptsächlich fürs Betriebssystem ist, dann ist die non pro auch ok.
 
Habe mir halt gedacht das mit ner SSD das OS natürlich auch um einiges geschmeidiger läuft als mit ner HDD.

Aber ich denke die CPU war teuer genug ich fahre erstmal mit der HDD 2-3 Monate und rüste dann auf eine größere leistungsstärkere SSD auf 256GB sollten es eigentlich auch schon sein.

Ich danke euch ;)
 
hatte ich gedacht, es wird sich schon jemand finden, der dir im Falle eines Falles zeigt, wo es steht, dass die Sandforce doch einen "richtigen" großen Cache haben.
Das sie ein RAM haben muss, ist schon mal klar, denn es ist eine CPU und die laufen ohne RAM nicht, so sollte sonst denn die FW stehen? Der Controller kann die Befehle nicht aus dem NAND lesen, da muss er ja immer eine Page abnehmen, also mindestens 4k. Das gilt auch beim Lesen und schreiben, also mal 8 Kanälen, da kommst Du auf 32k und die müssen entschlüsselt und entpackt werden, also nochmal das gleiche oben drauf, dann sind wir bei 64k, unter denen geht nichts. Dann unterstützt der Controller NCQ, also muss 32 Befehle annehmen, umsortieren und ausführen können, wenn das schreibend ist die Daten von denen solange puffern, komprimieren und encrypten, also mindestens noch mal 32 das ganze. Plus das RAM für die FW und einen Teil der Mappingdaten. Das alles in Registern unterzubringen, dass schafft keine mir bekannte CPU Architektur die auch noch mit einem Watt Leistungsaufnahme auskommt. Da sitzt also RAM mit auf dem Chip oder im Gehäuse, das ist keine Frage, aber wie viele verrät Sandforce halt nicht.

was der in seinen SSDs macht und dass er (z.B. Samsung) fast alles streng geheim hält."
Das machen alle, vom NAND Hersteller über die Controllerhersteller bis zu den SSD Herstellern, da reden keiner über Details, von Ausnahmen mal abgesehen wie jüngst Intel bzgl. des Mappings bei der DC S3700.
So etwas ist auf der ganzen Linie eine gewaltige Sauerei. Das muss man verändern. Das hieße ja, wir werden 2 Mal beschissen: beim Geld verdienen um unseren gerechten Lohn und beim Geld ausgeben um "anständige" Waren. Das werde ich nie akzeptieren.
Wenn das alle machen, hast Du keine Wahl und die Regierung wird nie was dagegen machen, denn das kurbelt die Wirtschaft an und erhöht die Steuereinnahmen.

Test: OCZ Vertex 4 SSD - HD Tune File Sequentiell Lesen/Schreiben (3/12)

"Wir haben deshalb die üblichen Einstellungen des HD Tune Pro noch einmal angepasst und anstelle die SSD nur partiell zu beschreiben die komplette SSD von vorne bis hinten in einem Durchgang beschreiben lassen. Das Ergebnis sieht dann wie folgt aus. Von Anfangs hohen 200 MB sinkt die Schreibrate zunächst auf 150 ab und bricht dann später nochmals auf 100 MB ein. "



Sagt mal, ist es sicher, dass bei den ganzen Grafiken die SSDs so voll mit Daten sind, dass am Ende kein einziges Bit mehr auf die SSD passt?!!!
HD Tune liest und beschreibt in der Standardeinstellung nur immer alle paar MB 64k. Deshalb schneiden SSDs da oft auch so mies ab, weil aktuelle SSD bei 64k kurzen Zugriffen noch nicht auf die vollen seq. Transferrate kommen. Das wissen viele nicht, aber man kann es sogar einstellen und wenn es ein Reviewer umstellt, kommen auch andere Ergebnisse dabei raus.

Bei ANAND gehe ich mal davon aus, dass HDTach (was das genau macht, kann ich nicht sagen) auch wirklich die ganze Nutzkapazität vollschreibt, zumindest zeigt das Ergebnis bei der Vector, wo nach 50% der Kapazität der Einbruch der Schreibrate erfolgt, das es dort so gewesen sein muss.
HDTune oder HDTach sind doch Festplattentests. Bei Festplatten ist es egal, was vorher auf der Platte steht und ob während des Tests die eben geschriebenen Daten sofort wieder gelöscht werden. Bei Festplatten kann man den Test hundert Mal hintereinander auf die volle (oder leere - egal) Platte laufen lassen und bekommt immer die gleiche Kurve. Bei SSDs ist das total anders.
So ist es, deswegen verwendet Anand HDTach ja auch nur bei dem TRIM Test, denn damit kann er die Entwicklung der Schreib- Lesenraten über die Kapazität zeigen, wobei man Kapazität hier mit geschriebenem Datenvolumen gleichsetzen muss, denn der SSD ist es ja egal, an welche Adresse man die Daten schreibt. Wenn also auf der X-Achse 100GB steht, dann wurden schon 100GB geschrieben.
Wenn während eines Testdurchlaufes die anfangs geschriebenen Daten gelöscht würden - nur dann läuft TRIM - dann wäre das noch viel schlimmer als Schönfärberei, ganz üble Manipulation.
In der Beschreibung des Tests von anand steht doch immer, was gemacht wurde und von daher siehst Du doch, wann vorher TRIM gelaufen ist und wann nicht. Von Schönfärberei oder gar Manipulation zu reden ist daher total unangebracht, es sind Tests unter verschiedenen, teils extremen Bedingungen.
Noch viel schlimmer, als ich bisher gedacht hätte. Schließlich sind auch SSDs dazu da, Daten zu speichern und zu halten, nicht um stückchenweise geschrieben und gleich wieder gelöscht zu werden.
??? Doch, denn normalerweise schreibt man Daten auf seine SSD, löscht ein paar davon und schreibt andere, oder verwendest Du die SSD wie ein Magnetband oder eine CD-RW?

Wenn ich Videos auf einer SSD speichere, dann gibt es da gar nichts zu trimmen, und dann möchte ich wissen, mit welchem Tempo bei 80% Füllung geschrieben wird - doch nicht etwa mit 25MB/s?!
Das habe ich doch schon erklärt, schau mal in den Teil über die Performance Pro. Da speichern von Videos ist ein seq. Schreibvorgang, da gilt diese Kurve:

Dirty%2020min_575px.PNG

Das wäre nach dem man seine SSD voll geschrieben hat und noch eine Menge kleiner Dateien darauf überschreibt und dann wieder das Video komplett überschreibt, ohne es vorher zu Löschen, also TRIM auszulösen.

Die extreme Kurve wird erreicht, wenn die erstens voll geschrieben ist und dann praktisch alle Adressen nochmal Random überschrieben werden, so etwas schafft wohl allenfalls eine Datenbank, nur wird dann dann die SSD kaum hinterher seq. Überschreiben ohne sie vorher zu löschen und dabei TRIM auszulösen:

40min%20idle_575px.PNG

Wenn Du darauf kein Datenfile einer großen DB ablegt bei der sich alles ständig ändert, dann solltest Du sowas niemals sehen, das habe ich doch geschrieben.

Ja, aber nimm besser gleich die 840 mit 250GB, 120GB sind nicht üppig.

Habe mir halt gedacht das mit ner SSD das OS natürlich auch um einiges geschmeidiger läuft als mit ner HDD.
Auf jeden Fall.
 
lohnt sich überhaupt so ne spitzen 6GB/s 840pro wenn man nur ein S1366 Board mit pseudo 6GB/s oder SATA2 hat ? :hmm:
 
Bin der Meinung das sich die Pro gründsätzlich nicht lohnt; höchstens Dauer-Benchmarking und 5 Jahre Garantie sprechen dafür
 
welche SSD ist zur zeit zu empfehlen sie sollte 120-250 gb haben?
Die Samsung 840 (Pro oder None-Pro, je nach dem ob man Höchstleistung oder P/L will) oder die Crucial m4, bewährt und sehr langlebig, aber die m4 hatte einige Probleme mit bestimmten FW Versionen.

lohnt sich überhaupt so ne spitzen 6GB/s 840pro wenn man nur ein S1366 Board mit pseudo 6GB/s oder SATA2 hat ? :hmm:
Die Pro lohnt sich von der Performance her vor allem, wenn man ein Board mit einem nativen, also im Chipsatz eingebundenen SATA 6Gb/s Controller hat. Sonst ist das Limit sowieso bei etwa 250 bis 270MB/s und dann tut es eine Samsung 840 250GB auch, die schreibt ja auch mit 250MB/s. Lesend tun sich beide auch recht wenig., Da ist die 840 Pro Spitze (gerade auch bei den in der Praxis so oft vorkommenden kurzen Zugriffen und kleinen Queue Depths skaliert die super) und die None-Pro sind aber im Vergleich sehr weit vorne, muss sich teils nur der Pro geschlagen geben.

Die Intel 335 beruht auf dem noch ganz neuen 20nm NAND von Micron/Intel (IMFT) über dessen Haltbarkeit man wenig sagen kann und die Ultra Plus ist ebenfalls noch so neu, dass man bzgl. Problemen wenig weiß. Klarer Nachteil der Ultra Plus ist aber, dass die nur 4 NAND Chips enthält, also die Daten schlechter verteilen kann und daher auch recht bescheiden skaliert, denn es besteht eben eine viel größere Wahrscheinlichkeit, dass die Daten die zwei parallele Zugriffe anfordern gerade auf dem gleichen Chip oder gar dem gleichen Die liegen und somit schlecht bzw. gar nicht parallel adressiert werden können.
 
Nehmt auf jeden Fall eine Samsung 840 mit TLC. Die Haltbarkeitsbedenken sind nicht fundiert.
Bei HWL ist überhaupt sehr wenig fundiert. Aber, was der Bauer nicht kennt, das isst er nicht. Es gibt keine Veranlassung, dieses Billigmaterial selbst zu testen, um dann für andere ein fundiertes Urteil zu liefern. Etwas ganz anderes: Vor 40 Jahren hat ein koreanischer Topmanager gesagt, dass Korea mindestens 3 Generationen von Arbeitern verheizen müsse, um Anschluss an die westlichen Industriestaaten zu finden. Es ist ihnen gelungen. Heute gibt es Differenzen zwischen Nord- und Südkorea. Ich lege Wert auf eine gesicherte Ersatzteilversorgung. Am liebsten kaufe ich in Europa entwickelte und gefertigte Produkte.
 
Nehmt auf jeden Fall eine Samsung 840 mit TLC. Die Haltbarkeitsbedenken sind nicht fundiert.

Diese Feststellung kann man auch auf die hier empfohlenen Intel 335 und Sandisk Ultra Plus erweitern. Das Feedback zu diesen SSD bei großen amerikanischen Etailern ist mittlerweile umfangreich und sehr positiv.
 
Bin momentan auch auf der Suche nach einer SSD für meinen neuen Laptop. Normal halte ich mich ziemlich an Benchmarks und User-Meinungen.
Aber gibt es irgend ein Thema bei den die Meinungen weiter auseinander gehen?! Wo die Benchmarks umfangreicher und komplizierter sind?!
Also ich blick echt nicht durch...
Somit muss ich wohl doch selber entscheiden :) Vertex4 128GB + 1TB /\ 840pro 128GB + 1TB /\ Samsung 840 250GB ohne zusätzliche HDD
Denke für einen "Nichtbencher" ist es wohl Jacke wie Hose...
 
Nehmt keine Samsung 840 mit TLC!
Warum nicht? Die ist schnell, günstig und bisher auch nicht als unzuverlässig aufgefallen, die 120GB hat im Test 3556 P/E Zyklen erreicht und 432.92 TiB geschrieben, also mehr als die Octane oder Vertex4. TLC oder MLC alleine sagt also nichts über die konkrete Haltbarkeit der SSD aus, denn gutes TLC schlägt schlechtes MLC, wie man es eben leider auch in einigen SSDs findet.

Bei HWL ist überhaupt sehr wenig fundiert.
Das liegt ja an denen die hier schreiben und wenn alle mit Empfehlungen auf der Basis "bin ich auch, ist gut" zufrieden sind, dann wird sich das nicht ändern.

Es gibt keine Veranlassung, dieses Billigmaterial selbst zu testen, um dann für andere ein fundiertes Urteil zu liefern.
Wieso Billigmaterial? Wieso testen? Bei xtremesystems.org wurde die getestet und hatte bei 2626 Zyklen noch keine Fehler, was für die hohe Qualität der verbauten TLC NANDs spricht. Auch wenn diese technologisch bedingt weniger Zyklen als MLC NANDs vertragen, die nur 2 Bits pro Zelle speichern. TLC sind ja auch MLC, es kann also auch TLC in anderen SSDs stecken, bei denen der Hersteller nur MLC angibt.
Heute gibt es Differenzen zwischen Nord- und Südkorea. Ich lege Wert auf eine gesicherte Ersatzteilversorgung. Am liebsten kaufe ich in Europa entwickelte und gefertigte Produkte.
Was für Ersatzteile? Ein neuen NAND um die SSD reparieren? Wenn Nordkorea den Süden besetzt, dann wirst Du die SSD wohl im Schadensfall wegwerfen müssen :d

Ach das machst Du sowieso? Na kannst Du sie ja auch dann noch gegen eine andere SSD tauschen, wenn auch die Südkoreaner im Gleichschritt zur Internationalen marschieren müssen.
 
TLC sind ja auch MLC, es kann also auch TLC in anderen SSDs stecken, bei denen der Hersteller nur MLC angibt.

Ach! Darauf habe ich schon lange gewartet. Es gibt also gar keinen (großen) Unterschied zwischen SLC oder MLC oder TLC?! Es hängt nur von der Firmware ab?! Dann hätte ich am liebsten SLC-Firmware, keinesfalls TLC-Firmware. TLC-Firmware ist mir zu anfällig gegen Stromausfälle.

Und nochmals: Wenn ich mir MLC nicht leisten kann oder will, dann bleibe ich bei einer guten Festplatte.

Was Samsung betrifft: Die sind mir ein zu großer Monopolist geworden und sind in Internet wahrscheinlich mit zu vielen bezahlten Werbern unterwegs - vielleicht auch hier im Forum.
 
Zuletzt bearbeitet:
TLC sind ja auch MLC, es kann also auch TLC in anderen SSDs stecken, bei denen der Hersteller nur MLC angibt.
Das würde vielleicht OCZ so machen, ansonsten wird sich wohl kein Hersteller zu so einem unseriösen Verhalten hinreissen lassen. Nur weil das M für Multi steht, hat das in der Praxis trotzdem eine andere Bedeutung. Eine angepasste Firmware braucht es für TLC ohnehin.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh