Aktuelles

SSD kopiert mit nur 3MB/s

skyliner905

Enthusiast
Thread Starter
Mitglied seit
27.02.2005
Beiträge
1.393
Ort
Darze
Hallo zusammen,

bei meinem Notebook ist die SSD sehr langsam beim Kopieren und mir ist nicht klar woran das liegen könnte.

Es handelt sich um eine SanDisk Ultra 3D SSD 500GB. Die Benchmarks sehen eigentlich gut aus, wenn ich jedoch Daten auf der SSD kopiere komme ich nur auf wenige MB/s.

Kopieren auf bzw. von einer angeschlossene USB3 Festplatte ist genauso langsam. Kopieren von der USB-Festplatte auf die USB-Festplatte ist deutlich schneller. Das Starten im abgesicherten Modus hatte keinen Effekt auf die Kopiergeschwindigkeiten.

Habt Ihr eine Idee woran das liegen könnte?



1.PNG


2.PNG

3.PNG

4.PNG
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Thorsten43

Profi
Mitglied seit
24.05.2020
Beiträge
286
Du hast 3 Partitionen auf der SSD.

Wenn Du von Partition zu Partition kopierst ist das immer langsamer.

Was noch sein könnte: APM (Advanced Power Management) ist "langsam" eingestellt. Doch aufgrund des Benchmarks würde ich das ausschließen. Was hat die USB3 von der Du noch kopierst denn sonst so für Übertragungsraten?
 

skyliner905

Enthusiast
Thread Starter
Mitglied seit
27.02.2005
Beiträge
1.393
Ort
Darze
Das Bild oben ist beim Kopieren von der gleichen Partition. Und auch zwischen verschiedenen Partitionen wären 3MB/s meiner Meinung nach viel zu langsam.
 

Mafle21

Enthusiast
Mitglied seit
09.08.2008
Beiträge
1.429
die Reaktionszeit im Bench ist grausam hoch da stimmt was gar nicht bei dir, wenn du mehr Partitionen brauchst hänge ne neue SSD dazu das ist das beste.
lg
 

skyliner905

Enthusiast
Thread Starter
Mitglied seit
27.02.2005
Beiträge
1.393
Ort
Darze
der Schreibcache ist aktiviert, gerade noch mal geprüft


Edit: habe gerade in einer Amazon Bewertung von einem Problem gelesen, in dem jemand mit "alten" Daten Einbrüche bei der Lesegeschwindigkeit hat:

ssd.PNG



Habe das eben bei mir mal getestet:
2 Jahre alten Fotoordner vom Desktop kopiert und auf dem Desktop eingefügt (ca. 2GB): Dauer 9 Min, 50 Sek bei ca. 2-4 MB/s. Den neu eingefügten Order erneut kopiert und auf dem Desktop eingefügt: 20 Sekunden bei über 50-150MB/s. Nochmal mit dem alten Ordner angefangen, waren wieder nur 2-4 MB/s.

Ich denke das wird der selbe Fehler sein, hilft dann wohl nur ein Austausch.
 
Zuletzt bearbeitet:

massaker

Enthusiast
Mitglied seit
28.02.2008
Beiträge
739
Ort
fränkisches Seenland
Habe das eben bei mir mal getestet:
2 Jahre alten Fotoordner vom Desktop kopiert und auf dem Desktop eingefügt (ca. 2GB): Dauer 9 Min, 50 Sek bei ca. 2-4 MB/s. Den neu eingefügten Order erneut kopiert und auf dem Desktop eingefügt: 20 Sekunden bei über 50-150MB/s. Nochmal mit dem alten Ordner angefangen, waren wieder nur 2-4 MB/s.
Na klar, das ist der bekannte Read-Disturb-Management-Bug bei den SATA-SanDisks. Den selben Verhalten haben die WD Blues auch. Über lange Zeit gespeicherte Daten "faulen" so zu sagen und werden langsamer lesbar - das betrifft aber alle SSDs. Bloß die anderen schichten intern um und betreiben aktiv sog. Read Disturb Compensation. Genau da sind die WDs/SanDisks zu lazy/faul - einige Daten verweilen teilweise über 1 Jahr an gleicher Stelle, werden nur noch mit 80-120MB/s gelesen (statt ~500MB/s) und man muss sie >>100 Mal lesen bis die SSD endlich realisiert "OK, hier muss ich wohl optimieren". D.h. diese Mechanismen sind bei den o.g. SSDs nicht gänzlich kaputt, sie sind da halt etwas lahm. Bei Dir mir den 4 MB/s ist wohl ein außerordentlicher Worstcase, so lahm habe ich das auch noch nie gesehen. Und Lese-Latenz auf HDD-Niveau!:hmm:
Ich denke das wird der selbe Fehler sein, hilft dann wohl nur ein Austausch.
Ein einfacher Austausch bringt Dir vermutlich nur anfangs was bis es wieder schleichend langsamer wird - da hilft nur ein Umstieg auf Crucial/Samsung.

P.S.:
eine Frage: was für Windows Version benutzt Du? Und was ist bei Dir im "Laufwerke Optimieren" ("defrag" in die Suche oder im Explorer Rechtsklick->Eigenschaften->Tools->Optimieren) eigentlich eingestellt? Machst Du wenigstens ab und zu dort manuell auf "optimieren" drücken?
 

skyliner905

Enthusiast
Thread Starter
Mitglied seit
27.02.2005
Beiträge
1.393
Ort
Darze
Es läuft Windows 8.1 drauf und es sollte jetzt auf 10 umgestellt werden. Da ich komplett neu installieren wollte, sollten die Daten erstmal auf einer externen Festplatte gesichert werden, wo der Fehler dann beim Kopieren erst so richtig aufgefallen ist. Es wurde vorher schon alles immer langsammer, da habe ich noch gedacht es liegt am alten / zugemölten System. Die Kopierwerte waren dann aber schon erschreckend niedrig. Manuelles Defragmentieren habe ich noch nie gemacht.

Der SanDisk Support meinte vorhin ich solle die SSD einmal formatieren :cautious: ... klar damit ich dann in paar Monaten das gleiche Problem habe. Habe gleich danach eine Crucial MX-500 bestellt. Passt ja zu deiner Empfehlung :-)
 

Cantor

Enthusiast
Mitglied seit
28.05.2006
Beiträge
309
Na klar, das ist der bekannte Read-Disturb-Management-Bug bei den SATA-SanDisks. Den selben Verhalten haben die WD Blues auch. Über lange Zeit gespeicherte Daten "faulen" so zu sagen und werden langsamer lesbar - das betrifft aber alle SSDs. Bloß die anderen schichten intern um und betreiben aktiv sog. Read Disturb Compensation. Genau da sind die WDs/SanDisks zu lazy/faul - einige Daten verweilen teilweise über 1 Jahr an gleicher Stelle, werden nur noch mit 80-120MB/s gelesen (statt ~500MB/s) und man muss sie >>100 Mal lesen bis die SSD endlich realisiert "OK, hier muss ich wohl optimieren".
Gibt es hierzu irgendwo nähere Infos?
Ist z.B. eine WD Red Sata davon auch betroffen? In einem NAS ist es ja nicht unüblich, dass Daten länger als 12 Monate rumliegen.

… da hilft nur ein Umstieg auf Crucial/Samsung.
Es gibt ja außer Crucial / Samsung und besagte WD / SanDisk auch noch weitere Hersteller. Haben die alle das gleiche Problem? (Seagate, Kingston, etc)
 

Holt

Legende
Mitglied seit
05.07.2010
Beiträge
24.052
Das ist halt eine billige DRAM less SSD. Tomshardware hat mal mehrere solcher DRAM less SATA SSDs getestet und schreibt im Fazit:
Das liegt daran das die Controller die Mappingtabelle also den Flash Translation Layer (FTL) und eben nicht Userdaten im DRAM Cache ablegen, also die Information wo die Daten im NAND stehen und wo NAND frei ist um dort schreiben zu können. Die ohne DRAM Cache halten dann immer einen kleinen Teil der Mappingtabelle im interen SRAM des Controller, genug um gut in den Benchmarks abzuschneiden die ja nur über ein oder weniger GB Adressraum benchen und daher tolle Werte ins Datenblatt schreiben zu können. Aber im Alltag muss der Controller dann ständig erstmal wieder den passenden Teil aus dem NAND nachladen, was eben viel länger als ein DRAM Zugriff dauert. Zwei parallele Zugriffe sind bei solchen SSDs eben schon ein "slightly elevated workload".
 

Holt

Legende
Mitglied seit
05.07.2010
Beiträge
24.052
Oh, da habe ich mich wohl vertan, denn das oberste Ergebnis von Google war:

Da habe ich nur SanDisk SSD Plus gehen, die ist DRAMless, aber vielleicht hat SanDisk ja auch die Ultra 3D verändert und sie ist jetzt auch ohne DRAM Cache. Immerhin steht im dort verlinkten Datenblatt der Ultra 3D nur vom nCache die Rede, nicht von einem DRAM Cache. Leider sind solche heimlichen Änderungen in der Branche ja üblich und inzwischen sind auch die großen Marken der NAND Hersteller nicht mehr ausgenommen. Wobei SanDisk dies bei seinen Einstiegsmodellen immer schon gemacht hat, da wurden immer wieder die NANDs gegen die jeweils aktuelle Generation ersetzt. Das Datenblatt sagt auch nichts über TLC oder QLC NAND, da haben wir ja leider auch schon öfter gesehen, dass Hersteller ohne was zu sagen einfach mal von TLC auf QLC NAND gewechselt haben.

Aber 3MB/s wären selbst bei QLC zu wenig, ich würde daher und wegen der hohen Zugriffszeit Lesend bei AS-SSD, auch wenn diese Messung der Zugriffszeit fehlerbehaftet ist (es wird nicht darauf geachtet ob wirklich gültigen Daten an der Adresse stehen die gelesen wird, wenn nicht, kann und braucht der Controller nichts aus dem NAND zu lesen, sondern gibt einfach irgendwas, i.d.R. Nullen zurück), so sind 1,6ms extrem viel für eine SSD mit DRAM Cache, Im Review bei Thessdreview wurden nur 0,030ms ermittelt und um mehr als 50 drüber ist der Unterschied zwischen voll und leer dann auch nicht, eher so Faktor 2 bis 3. Die Zugriffszeit schreiben passt ja auch fast genau, an Deinem System sollte es damit nicht liegen (die DRAMless haben ja auch einen kleinen SRAM im Controller und in dem Speichern normalerweise alle SSD Controller die Daten zum Schreiben zwischen, bis zumindest genug zusammengekommen ist um eine ganze NAND Page beschreiben zu können, also 16k, 32k, sowas in der Art).

Auch die 4k Lesend (also QD1) die der bessere Indikator für die Latenz einer SSD sind, weil da einmal mit 4k Zuggriffen gearbeitet wird und auch wirklich Daten gelesen werden (zumindest zu 70% und damit immer gleich viele, egal wie voll die SSD sonst ist), ist bei Dir nur unwesentlich (1,x MB/s) schlechter, was aber nur über einen Adressraum von 1GB gebencht wird und in den internen SRAM des Controller passt normalerweise eben ein Teil der Mappingtabelle der für 1GB oder etwas mehr reicht, man will ja in solchen Benchmarks gute Werte fürs Datenblatt ermitteln können.

Ansonsten solltest Du vielleicht auch mal auf die Temperatur der SSD achten, nicht das sie schnell so heiß wird das sie throttelt! CDI liest die Werte übrigens nur alle im meine per Default 30min neu ein, oder eben wenn man F5 drückt.
 

ScallywagP3D

Experte
Mitglied seit
20.12.2012
Beiträge
120
Puh, ich glaube ich bin auch von dem Problem betroffen. Habe grade angefangen von meiner alten, im Juli 2019 gekauften Sandisk Ultra 3d mit 1TB auf meine neue Sandisk Ultra 3d mit 2TB umzukopieren.
Da beide an einem SATA-COntroller hängen, ging das anfangs problemlos mit ca. 200-220 MB/Sek. Jetzt aber dümpelt sie schon eine ganze Weile mit 4-5MB/Sek. rum.
Und ja, es liegt am Lesevorgang. Andere Daten auf der Sandisk lassen sich auch jetzt problemlos mit 500MB/Sek auf eine externe SSD kopieren.

Die Daten die aktuell gelesen werden, wurden vor ca. 2 Jahren dort abgelegt. Also ich finde, das das darf doch nicht sein.

Ob die neue SSD dieses Problem auch hat? Die soll nämlich zukünftig ein einem NAS eingebaut werden und dort eigentlich nur noch lesend arbeiten. (Webserver, Mediawiki, ...)

Gibt es ein FW-Update oder sollte ich lieber eine Samsung kaufen?

Edit: Im Sandisk Dashboard wird angezeigt, dass keine Firmware für die 1TB-SSD verfügbar ist. Die 2TB-Version hat aber breits eine neurer Firmware. Hm..... ärgerlich
 
Zuletzt bearbeitet:

peljotha

Enthusiast
Mitglied seit
24.09.2009
Beiträge
51
Ich habe schon Mal an anderer Stelle gefragt, wo der Unterschied der Ultra 3d mit Version -g30 und der -g25 liegt. Vielleicht hat das mit neuer FW oder sonstigen Funktionen zu tun, die das lesen alter Daten beschleunigen?
 

NVMe1.4

Semiprofi
Mitglied seit
07.02.2022
Beiträge
116
Über lange Zeit gespeicherte Daten "faulen" so zu sagen und werden langsamer lesbar - das betrifft aber alle SSDs. Bloß die anderen schichten intern um und betreiben aktiv sog. Read Disturb Compensation.
Das kommt auf die Qualität des Flashs an. In Consumer-SSDs wurde der letzte Dreck verbaut und den Noobs in Foren "einer vom Pferd erzählt".

Über lange Zeit gespeicherte Daten "faulen" so zu sagen und werden langsamer lesbar - das betrifft aber alle SSDs. Bloß die anderen schichten intern um und betreiben aktiv sog. Read Disturb Compensation.
Das ist Sondermüll! Ich habe hier geschrieben "Elektronen verdampfen" oder verdunsten. Das ist fehlerhafte Konstruktion der Chips oder dreckiges Material oder eben Ausschuss für die Consumer. Ich habe eine SSD von einem Hersteller, wo nur die Marke bekannt ist, da sind die Fehler nach 18 Monaten nicht mehr reparabel.

Schmeißt solche Dinger in die Tonne. Deshalb habe ich seit vielen Jahren auf NVMe gewartet. Wenn das Protokoll korrekt angewendet wird, dann erwarte ich, dass solcher Mist nicht mehr versteckt werden kann.

Ich habe manchmal den Verdacht, dass Microsoft das Dateisystem ReFS deshalb nicht für privat frei gibt... Ich verwende BtrFS (hat auch Macken) für das Kommando btrfs scrub:



Beim scrub wird die komplette Partition gelesen und spätestens dann müsste bei ECC die SSD-Firmware aktiv werden und umschichten. Ich hatte auf zwei(?) SSD in einigen Jahren bisher keinen einzigen Fehler und auch keine Verzögerungen.
 
Zuletzt bearbeitet:

Holt

Legende
Mitglied seit
05.07.2010
Beiträge
24.052
Die Daten die aktuell gelesen werden, wurden vor ca. 2 Jahren dort abgelegt. Also ich finde, das das darf doch nicht sein.
Das passiert halt bei TLC (und QLC) NAND, wenn die Daten nicht rechtzeitig refresht werden und deshalb die langsame LDPC Fehlerkorrektur statt der schnelle BCH ECC verwendet werden muss. Es gehen eben mit der Zeit Elektronen aus den Zellen verloren und dann ist es schwerer den korrekten Ladezustand der Zellen zu erkennen und genau dafür ist die LDPC Fehlerkorrektur ja da. Sonst könnte man diese Daten gar nicht mehr Lesen und dagegen ist es besser sie wenigstens langsam Lesen zu können. Noch besser wäre es natürlich, wenn die FW der SSD erkennen würde, welche Daten schon so alt sind, dass dies passieren wird und diese dann intern umkopiert, also eben Refresht.

wo der Unterschied der Ultra 3d mit Version -g30 und der -g25 liegt. Vielleicht hat das mit neuer FW oder sonstigen Funktionen zu tun, die das lesen alter Daten beschleunigen?
Kann sein, aber wahrscheinlich hat die neuere Version einfach nur NAND einer neueren Generation, denn die Ultra3D ist ja schon länger auf dem Markt und die damals verbauten NANDs werden vermutlich gar nicht mehr gefertigt bzw. wären im Vergleich zur aktuellen Generation zu teuer:

Derzeit ist BiCS 5 mit 112 Layern das aktuelle NAND und wird in immer mehr SSDs BiCS4 ersetzen, BiCS 6 mit 162 soll im nächsten Jahr in Massenfertigung gehen. Vergiss nicht, dass es das Hauptziel bei der Weiterentwicklung von NAND ist die Kosten zu senken und daher die neuste NAND Generation immer auch die günstigste ist, sobald die Produktion richtig in Gang gekommen ist.
Das kommt auf die Qualität des Flashs an. In Consumer-SSDs wurde der letzte Dreck verbaut
Das mag bei einigen SSDs von Anbietern ohne eigene NAND Fertigung so sein, aber so generell ist diese Aussage schlicht falsch! Die am besten gebinnten NANDs gehen zwar in die Enterprise SSDs, aber die NANDs für Consumer SSDs sind zumindest bei denen mit eigener NAND Fertigung schon von einer ausreichend hohen Qualitätsstufe und der letzte Dreck darunter wird dann eben extern verkauft und ist eben für anderen Anwendungen wie billige Smartphones oder auch Spielzeuge gedacht. Micron verkauft solche über seine Restrampe Spectek:
Das hatten vor nicht einmal einem Jahr hier schon einmal und da Scour "Vielleicht reiner ZUfall, aber bei meiner Supertalent ist Spectek TLC verbaut". Und es gibt auch andere SSDs in denen Spectek NAND steckt, meisten erfährt man aber gar nicht mehr welches NAND verbaut ist, weil die SSD Anbieter eigene Label auf die Chips machen lassen.
Das ist Sondermüll! Ich habe hier geschrieben "Elektronen verdampfen" oder verdunsten. Das ist fehlerhafte Konstruktion der Chips oder dreckiges Material oder eben Ausschuss für die Consumer.
Das ist wie gesagt Quatsch, die Konstruktion der Chips ist für alle NANDs der gleichen Generation wie eben z.B. aktuell BiCS 5 gleich und wenn es da "dreckiges Material" geben würde, dann sind die alle Ausschuss, wie es ja gerade bei Kioxia/WD passiert ist:


Was das mit dem "Ausschuss für die Consumer" angeht, s.o., ja gibt es, aber ich erwarte von den SSDs der NAND Hersteller und ihrer Tochterfirmen schon, dass sie da wenigstens Tier2 NAND verbaut haben und dies ist kein Ausschuss, meist ist sogar Tier 1 NAND verbaut, welches man am Logo des Hersteller erkennt, denn Tier2 hat meist nur Nummern auf dem Chip.
Schmeißt solche Dinger in die Tonne. Deshalb habe ich seit vielen Jahren auf NVMe gewartet.
Das ist doch totaler Blödsinn und hat rein gar nichts mit dem Protokoll zu tun, Ob SATA oder NVMe ändert gar nichts an der Problematik, dass die NAND Zellen eben mit der Zeit Ladung verlieren, je mehr umso wärmer sie sind, die NAND der meisten M.2 NVMe SSDs dürften im Betrieb wohl wärmer als die NANDs der meisten SATA SSDs sein und das dann eben die BCH ECC ggf. nicht mehr reicht und die langsame LDPC verwendet werden muss, bei der werden u.a. die Zellen mehrfach mit unterschiedlichen Parametern ausgelesen und schon deshalb dauert LDPC länger und entsprechend ist die Lesegeschwindigkeit eben geringer. Dies kann man nur vermeiden, wenn man keine SSDs mit TLC oder QLC NAND kauft, nur gibt es zumindest im Consumersegment praktisch keine anderen SSDs mehr und selbst bei den Enterprise SSDs gibt es meines Wissens nach nur noch die Samsung Z-SSDs mit SLC und schon lange keine neuen Modelle mehr mit MLC NAND, aber die Z-SSDs kosten ähnlich viel wie Intels Optane DC Modelle.
 

NVMe1.4

Semiprofi
Mitglied seit
07.02.2022
Beiträge
116
"Deshalb habe ich seit vielen Jahren auf NVMe gewartet." Das meine ich in Bezug auf Ehrlichkeit, falls die möglichen Meldungen seitens SSD und OS auch ausgenutzt würden. Genau weiß ich das aber auch nicht.
 

Mafle21

Enthusiast
Mitglied seit
09.08.2008
Beiträge
1.429
Hi
wenn jemand testen will ob er betroffen ist kann er mal in Google nach "SSD Read Speed Tester2.04" suchen und testen, damit wird einem angezeigt was die Langsamsten Daten auf der jeweiligen SSD sind.

@Holt, wenn man sich das Thema einmal anschaut ist es doch eigentlich Aufgabe des Controllers die Zellen im "guten" Zustand zu halten und ggf. tätig zu werden. Im Schlimmsten Fall könnten daten dabei sonst irgendwann defekt sein.

lg
 

NVMe1.4

Semiprofi
Mitglied seit
07.02.2022
Beiträge
116
Nööö... Bestimmt. Bei einer Modellreihe von Samsung war das ja allgemein bekannt, bis die Firmware angepasst wurde. Ich habe eine SSD von "Plextor", die das garantiert auch hatte. Bin zu faul, die zu suchen und irgendwie anzuschließen. Da wäre heute wohl kein Bit mehr drauf.
 

Holt

Legende
Mitglied seit
05.07.2010
Beiträge
24.052
Nööö... Bestimmt. Bei einer Modellreihe von Samsung war das ja allgemein bekannt, bis die Firmware angepasst wurde.
Wenn du damit die 840 und 840 Evo meinst, was zwei Modellreihen wären, so gab es meines Wissens nach da keinen Fall von Datenverlust, sondern alte Daten wurden eben auch nur langsam gelesen, wobei es damals meine ich 50MB/s waren und nicht nur 3MB/s, aber das Lesen hat auch bei denen funktioniert.
 

NVMe1.4

Semiprofi
Mitglied seit
07.02.2022
Beiträge
116
Wer weiß. Es fängt meistens harmlos an. Samsung ist stark verbreitet und die Modelle waren relativ neu am Markt. Ob die nach 2 Jahren noch lesbar gewesen wären... Man hat vermutlich so kalkuliert: Wir schichten die Daten alle drei Monate um. Das sind in fünf Jahren 20 Mal alles neu schreiben. Das halten die aus und später kräht kein Hahn mehr danach. Bei Plextor ist das anders.

Daher ist es angeraten, Produkte mit hoher Verbreitung zu wählen, bei denen der Shitstorm dann heftig genug wird. ;)
 

Holt

Legende
Mitglied seit
05.07.2010
Beiträge
24.052
Samsung ist stark verbreitet und die Modelle waren relativ neu am Markt.
Das waren damals die ersten SSDs mit TLC NAND auf dem Markt und der Pionier einer neuen Technologie ist natürlich auch der erste der auf die Probleme der neuen Technologie trifft, die anderen können dann schon daraus lernen und diese Probleme vermeiden. Phison bewirbt seine Controller ja sogar extra mit SmartRefresh, was eben nichts anderes ist als das regelmäßige Refreshen der NAND Inhalte.

Ob die nach 2 Jahren noch lesbar gewesen wären...
Laut der JEDEC JESD218 werden selbst Offline, also ohne Strom nur 12 Monate Datenerhalt gefordert und damit ist es irrelevant was nach 2 Jahren ist.
 
Oben Unten