SSD zu langsam aber warum

@

King Bill


warum soll ich da sone BS testen meine Werte sind ja mit BS schon besser als deine und die von
Weil bei ihm extra dabei steht das es eine non-Plus. Zweck seines Posts war also dir zu zeigen das wenn da kein BS oder sonstige Hintergrundprogramme am laufen sind die Werte sehr nah an die bis zu Werte des Herstellers heran kommen.

@Topic
Hier mal meine 970EvoPlus 1TB die auch als Systemplatte genutzt wird. Ist ca. zur hälfte voll.

normal Mode
normal.png

NVME-Mode
nvme.png
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Beim NVME Modus werden nur zwei andere Benchmarks gemacht, nämlich statt SEQ1M Q1T1, also einen einzelnen Zugriff über 1MB, bei dem schön sieht wie viel langsamer die SSD vor allem Lesend als bei 8 solcher Zugriffe parallel (was im Alltag kaum vorkommen wird, da sind beim Heimanwendern meist schon 4 parallele Zugriffe ungewöhnlich viel), wird da durch SEQ128K Q32T1 ersetzt, also 32 parallele Zugriffe über je 128k, was nochmal viel praxisferner ist, aber es bei den meisten NVMe SSDs erlaubt sogar noch ein paar mehr MB/s rauszukitzeln als mit den schon unrealistischen 8 parallelen 1MB Zugriffen.

Auch bei RND4K, also den zufälligen Zurgiffen, werden im NVMe Profil statt einem Thread mit 32 parallelen Zugriffen (mehr erlaubt SATA auch gar nicht) nun gleich 16 solcher Threads um eröffnet, einfach um überhaupt die vollen IOPS aus der SSD kitzeln zu können, denn die sind so extrem hoch, dass selbst 32 parallel Zugriffe, was für Heimanwender total utopisch viel ist, wie man ja sieht bei weitem nicht reichen. Jede SSD mit 100.000 IOPS dürften für Heimanwender mehr als ausreichend viele IOPS haben und es daher total egal ist wie viel mehr als diese 100.000 IOPS sie hat. Wobei die IOPS Schreibend ja sowieso nur kurze Zeit gehalten werden können, also ein absoluter Best Case Wert sind, während sie bei Enterprise SSDs i.d.R. im Steady State und damit Worst Case angegeben werden, weshalb die IOPS Schreibend Angabe bei Enterprise SSDs meist auch so viel geringer als bei Client SSDs ausfallen.

Der Wert der für die Alltagsperformance einer SSD bei einem typischen Heimanwender wirklich am wichtigsten ist, sind die 4K QD1 (also RND4K Q1T1) Lesend, da diese Aufschluss über die Latenz der SSD geben, diese wirkt sich auf jeden Zugriff aus und die meisten Zugriffe sind nun mal so kurz, dass die Latenz sich im Alltag stark bemerkbar macht. Also besser die SSD mit den besten RND4K Q1T1 Lesend Wert nehmen, als den anderen Werten zu viel Aufmerksamkeit geben.
 
Danke für den Hinweis, aber das macht keinen Unterschied ob Default oder NVME.
Glaube ich nicht!

Habe das mal mit einer 2TB WD SN750 Black als System SSD partitioniert nach gestellt (default: 3400MB/s read / 2900MB/s write).

Ergebnis:

Dein "falsches" Setting mit NVMe Mode aus und 4TB Testfile @ 3 Durchläufe:

4tb test wrong setting.png



Richtiges Setting mit MVEe Mode an und 1TB Testfile @ 5 Durchläufe:

1tb test nvme setting.png


CDM hat nicht umsonst einen NVMe Modus. ;)
 
CDM hat nicht umsonst einen NVMe Modus. ;)
Was dann wiederrum die Frage aufbringt, was andere Programme praktisch davon haben, wenn sie diesen NVMe Mode nicht können/nutzen.
Es ist ja offensichtlich eine Softwarefrage, sonst würde das pure Umstellen in einer Software nix bringen.
Womit wir wieder bei klinischen, aber weitgehend praxisirrelevanten Werten wären... so wie das mit synthetischen Benchmarks halt immer ist. :d
 
Ist doch ganz einfach.

Im NVMe Modus wird halt mit anderen/mehr Zugriffparallitäten gebencht. Warum? Weil PCIe3.0/4.0 eine höhere Bandbreite besitzt als Sata6G SSD.
Benchst du eine PCIe3.0/4.0 SSD im sata6G Mode, bremst du diese beim benchen halt aus.
Seq. ist der Unterschied nicht so gravierend, da wird halt die reine Banbreite des Bus gebencht, random schaut das aber anders aus.
Praxisnutzen hat kein Benchmark, dass sind halt alles reine wer hat das längste Würstchen Prollmarks.
Wenn du prollen willst, kannst du auch 2 PCIe3.0 SSD so zusammen verbinden, dass die fast PCIe4.0 SSD Bandbreite generieren.
Auf Windowsebene (zb. via Datenträgerverwaltung) geht das nicht, nur wenn du ein Board hast das dies optional anbietet:

optane raid.png

..schaut toll aus, praktisch hast du aber nicht viel nutzen davon.
Genauso wenig wie von einer reinen PCIe4.0 SSD.
 
Was dann wiederrum die Frage aufbringt, was andere Programme praktisch davon haben, wenn sie diesen NVMe Mode nicht können/nutzen.
Nichts, da sie einfach nicht so viele parallele und so lange Zugriffe machen bzw. auch gar nicht brauchen! Damit kommen sie natürlich nicht auf so hohe Transfer- und vor allem Leseraten und deshalb bringen diese schnellen NVMe SSDs trotz der tollen Werte in den Datenblättern im Alltag gegenüber z.B. einer guten SATA SSD auch bei weitem nicht den Vorteil, den sich viele davon versprechen. Schaut einfach mal mit HWInfo64 und dort Sensors welche Transferraten im Alltag wirklich erreicht werden!
Es ist ja offensichtlich eine Softwarefrage, sonst würde das pure Umstellen in einer Software nix bringen.
Ja, denn wie gesagt macht CDM dann einfach noch mehr parallele Zugriffe, aber in der untersten (RND4K Q1T1) und obersten (SEQ1M Q8T1) Zeile sind in beiden Fällen identisch und die Werte nicht immer. Dies könnte an einem vollen Pseudo-SLC Schreibcache liegen, wenn man die Tests zu schnell hintereinander ausführt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh