Oh Junge, informiere dich doch richtig, bevor du solchen Unsinn schreibst.
Dies will er offenbar nicht, denn ich hatte diese Diskussion schonmal mit ihm und ich habe auch versucht ihm klarzumachen, dass die Werte mit einem DRAM Cache so gut sind, weil die Tools wie CDM oder AS-SSD die Daten schreiben und sofort wieder lesen, diese also immer artige im Cache stehen, was aber bei realen Daten meist beim ersten Laden nicht der Fall ist und wer lädt schon gerne ein Programm zweimal, nur damit es beim zweiten mal schön schnell geht? Zum anderen können diese Benchmarks den Cache von Windows selbst, denn wie jedes moderne OS nutzt es sonst unbelegtes RAM als Diskcache, vor allem als Lesecache, nämlich umgehen (bei AS-SSD klappt es bei 4k_64 Lesend nicht immer) und machen dies auch, die wollen ja die Laufwerke und nicht das RAM Benchen, aber diese 3rd Party Caches können die nicht umgehen und daher gibt es da so tolle Werte, die Alltag aber meist nicht spürbar sind. Da gab es schon damals zu Samsungs RAPID genug Benchmarks dazu. Wer das mit dem Windows Cache nicht glaubt, der nehmen mal einen wirklich lahmen USB Stick und kopieren eine größere Datei, so einige GB aber nicht zu groß, es muss ja genug sonst unbelegtes RAM vorhanden sein und kopieren sie auf eine schnelle SSD und wiederholt dies dann in einem anderen Ordner der SSD. Wer da keinen Unterschied merkt, hat entweder eine viel zu kleine Datei, bei der das Kopieren sowieso kaum Zeit braucht, eine zu große Datei die nicht vollständig in den Cache passt oder eine zu lahme SSD als Ziel, die diese Datei nicht viel schneller wegschreiben konnte, als sie vom Stick gelesen wurde.
Dann ist das Laden nur ein Teil der richtigen Arbeit, während Benchmarks die Daten ja nur Laden um zu messen wie schnell dies passiert, aber in realen Anwendungen muss die CPU diese Daten auch verarbeiten, also z.B. bei den Mediadateien diese entpacken und bei Programmcode diesen abarbeiten. Klar hängt das Verhältnis zwischen der Ladezeit und der Zeit die die CPU braucht von mehreren Faktoren ab, aber außer in solchen Benchmarks wo es praktisch nur auf die I/O ankommt oder vielleicht noch wenn man eben nur Daten hin- und herschiebt (was außer auf einem NAS auf Dauer wenig Sinn machen dürfte), wird die CPU im Alltag immer eine spürbare Rolle spielen und deshalb sind solche Behauptungen wie das ein uraltes Notebook schneller als ein 1950X wäre, nur weil da noch diese Cache SW drauf läuft (die geht wohl nur bis einschl. Win 7) und nachdem er auf seinen 1950X unter Win 7 zu laufen bekommen hat, ein 5950X saulahm wäre, total daneben. Aber er hat nie beantwortet auf welche Anwendungen er sich da bezieht, sondern immer nur CDM Screenshots gepostet.
aber selbst die Ingenieure deiner Wunder-Software haben diese eingestellt.
Was es für mich umso seltsamer macht, wieso er in allen möglichen Threads dafür so geschwärt hat, denn gäbe es diese SW noch zu kaufen, könnte man es ja noch mit Werbung erklären, aber so?
Der DRAM cached keine Daten? Dachte immer dass es genau aus diesem Grund Enterprise SSDs mit powerloss protection gibt, die dann eben diese Daten vom DRAM in die Flash-Zellen schreibt.
Es gibt ja nicht nur den DRAM Cache, sondern jeder SSD Controller auch noch ein internes SRAM (und machen eben nur das, z.B. 32MB, was dann manchmal bei Geizhals als DRAM Cache angegeben ist, aber dies ist dann das interne SRAM des Controllers). Da legen die Controller die Daten ab, sie brauchen ja nicht viel zu cachen bevor sie anfangen zu schreiben, es geht ja vor allem darum eben immer ganze Pages (die sind heutzutage meist 16k groß) zusammenzubekommen und dies beim seq. Schreiben auch möglichst für alle Kanäle die der Controller hat, damit an allen gleichzeitig schon mal ein Die angesprochen werden kann.
Hier übrigens aus dem Artikel von Anandtech über die damals neue und revolutionär schnell schreibende Intel X25-M:
Der genannte JMicron 602 Controller konnte sich bei zufälligen Schreibzugriffen schon mal bis zu 2s Bedenkzeit gönnen, währen die Intel X25-M erstmal bei 4k schneller geschreiben als gelesen hat und deshalb damals so revolutionär war. Aber das Prinzip ist bis heute gleich, die Enterprise SSDs schrieben vielleicht auch mal ein paar Daten in den DRAM Cahce, aber man sollte sich nicht täuschen was bei denen alleine die Controller an Strom ziehen und wie klein dann doch die Kapazität der Stützkondensatoren ist. Im DRAM Cache liegen außerdem die Verwaltungsdaten und für eine Struktur dieser Daten und vor allem der Mappingtabelle die schnelle Zugriffe ermöglicht, sollte es 1 GB DRAM pro 1TB Kapazität sein und auch die Enterprise SSDs haben in aller Regel nicht mehr DRAM als dies verbaut, vielleicht die ganz kleinen Kapazitäten, weil es keine so kleinen DRAM Chips mehr gibt.
PS: Finde leider gerade keine Angaben zu dem DRAM Kapazitäten von Enterprise SSD Baureihen, aber hier noch mal wozu der DRAM Cache ist und wieso er so groß sein sollte: