Toshiba MG11 mit 24 TB im Test: Die bislang schnellste von uns gemessene Festplatte

Seit 03.03. in Geizhals gelistet

Seit heute sind die 24TB MG11 für 430€ pro Stück erhältlich, habe gleich zwei Stück davon geordert.
Ich hoffe die kommen heile bei mir an, und sind frei von jeglichen Vibrationen....
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Du kannst ja dann gerne berichten, wie die verpackt waren und welcher Händler das war.
Davor graust es mich ehrlich gesagt am meisten bei Online Käufen.

frei von jeglichen Vibrationen....
Selbstverständlich sind Festplatten frei von jeglichen Vibrationen :LOL: nicht
 
Da es Enterprise-Festplatten sind, spielt die Frage nach der Betriebslautstärke auch keine Rolle.
 
Du kannst ja dann gerne berichten, wie die verpackt waren und welcher Händler das war.
Davor graust es mich ehrlich gesagt am meisten bei Online Käufen.


Selbstverständlich sind Festplatten frei von jeglichen Vibrationen :LOL: nicht
Die beiden 24TB MG11 HDDs sind heute angekommen.
Der Händler heißt PLAYOX, die HDDs waren sehr gut mit mehreren Umverpackungen beim Transport geschützt, haben also den Liefervorgang unversehrt überlebt.
Die eigentlich sehr geringen Vibrationen der HDDs sind im eingebauten Zustand nicht wahrnehmbar, ich bin zufrieden.
...jetzt kann die Datenschaufelei losgehen! :coolblue:
 
Ich habe die 20TB Version vom Vorgänger, die MG10 und bin absolut begeistert von der Platte. Richtig schnell, nicht leise aber sparsam im Verbrauch. Hatte erst Angst weil man keine RMA direkt über den Hersteller abwickeln kann, aber toi toi toi bisher macht die Platte keine Probleme.
 
Inzwischen kann man doch RMA direkt über Toshiba abwickeln.
Zur Zeit würde ich auch nur Toshiba kaufen, weil Seagate in mehrerer Hinsicht ein Glücksspiel ist (OEM/pseudo Neuware) und WD Ultrastar richtig teuer ist.
Kurze Wiederholung: Festplattenpreise sind einfach besch****
 
Danke für den Hinweis, das wusste ich nicht. Überall stand immer die Warnung, dass man über den Händler gehen muss als Endkunde. Das eröffnet ganz neue Möglichkeiten auch für den Einsatz im NAS.
 
weil Seagate in mehrerer Hinsicht ein Glücksspiel ist (OEM/pseudo Neuware)
Man muss auch bei den HDDs der anderen Hersteller damit rechnen, dass die Neuware nicht neu ist, sondern gebraucht mit zurückgesetzten S.M.A.R.T. Werten. Dies ist ja nicht neu, schon 2016 gab es eine Welle von gebrauchten HDDs mit zurückgesetzten S.M.A.R.T. Werten, vor allem Hitachi Ultrastar 2TB, aber auch einige WD Modelle und damals fielen diese nur auf, weil bei es einigen Einträge in den S.M.A.R.T. Logs (z.B. mit smartctl -a auslesbar) gab, die bei mehr Betriebsstunden erstellt worden waren, als die S.M.A.R. T. Attribute ausgewiesen haben. In den Logs stehen Fehler und auch Selbsttests drin, es gibt also nicht bei jeder Platte dort auch Einträge und vermutlich habe die Gauner inzwischen gelernt auch die Logs zu löschen. Die 3.5" Toshiba stammen von den Hitachi ab, genau wie die WD Gold und Ultrastar, denn als WD 2011 die Festplattensparte von Hitachi übernommen hat, die in dem Zusammenhang in HGST umbenannt wurde, mussten sie ein Werk und die nötigen Lizenzen für die 3.5" Modelle abgeben und Toshiba, die bis dahin nur 2.5" HDDs gebaut hatten, haben dies gekauft. Seither wurden die Modelle zwar getrennt weiterentwickelt, aber die WD Gold/Ultrastar und die Toshiba Enterprise HDDs, haben einen gemeinsamen Ursprung in den Hitachi Ultrastar (die übrigens auf die IBM Modelle zurückgehen, von denen sich einige einen sehr schlechten Ruf erworben hatten, da Histachi 2003 IBMs Festplattensparte übernommen hatte).

Es ist also davon auszugehen, dass es auch bei WD und Toshiba HDDs möglich ist die S.M.A.R.T. Werte zurückzusetzen, nur ist es bei den Seagate Modelle wegen der FARM Werte aufgefallen, wobei die Banditen inzwischen wohl schon gelernt haben, diese auch zu manipulieren. Es dürfte bei allen HDDs gelten, dass man keine alten Modelle kaufen sollte, die Garantieüberprüfung der Seriennummer durchführen muss und das Ergebnis mit dem Herstellungsdatum vergleichen sollte und auch schauen ob es einen Stempel mit dem Herstellungsdatum im Grußteil des Gehäuses gibt und dieses Datum nicht viel älter als das Herstellungsdatum sein sollte, ein Jahr oder maximal 2, es werden ja nicht Gußteile für Jahre im Voraus gefertigt und auf Lager gelegt.
 
Also anhand der Gußteile würde ich das nicht ausmachen. Bei meinen Toshibas sind die Gußteile über 2 Jahre älter (fast 3) als das Produktionsdatum der HDDs und die HDDs haben laut Toshiba bis 01.2030 Garantie... Auch bei meinen Seagates sind die Gußteile fast 3 Jahre älter als das Produktionsdatum der HDDs...
 
Ich habe früher nie auf sowas geachtet. Kommt wohl daher, dass alle meine Exos aus USB-Platten stammen.
Inzwischen sind da leider keine Exos, sondern Barracudas verbaut, was man so liest. Deshalb gingen meine letzten beiden Expansion ungeöffnet zurück :(
Werden dann wohl doch zwei Toshibas werden.

keine alten Modelle kaufen
Genau. Eine Exos X16 ist einfach zu lange am Markt als dass es da noch echte Neuware geben könnte. Zumindest sehr unwahrscheinlich!
 
Die beiden 24TB MG11 HDDs sind heute angekommen.
Der Händler heißt PLAYOX, die HDDs waren sehr gut mit mehreren Umverpackungen beim Transport geschützt, haben also den Liefervorgang unversehrt überlebt.
Die eigentlich sehr geringen Vibrationen der HDDs sind im eingebauten Zustand nicht wahrnehmbar, ich bin zufrieden.
...jetzt kann die Datenschaufelei losgehen! :coolblue:
Und ist die Datenschaufelei inzwischen beendet ;-) Die Platten verlassen doch langsam echt den Sweetspot, dauert doch jetzt schon bald mehr als einen Tag um die voll zu schreiben oder , kritischer, im Defektfall 1x auszulesen.

Dazu dann noch SMR um gerade mal auf 28TB zu kommen, die hängen aktuell ganz schön an den Grenzen.
Bringt ja keinem was, da noch paar TB mehr drauf zu quetschen, wenn die Zuverlässigkeit drunter leidet.
Aber Ok, Heliumfüllungen traue ich mittlerweile doch 10Jahre+ zu, für cold Backup Anwendungen.
Vielleicht ist das dann mit dem ganzen Laser/Mikrowellen Gedöhns und SSD ähnlichen Cachetechnologien ala WD irgendwann auch als Langzeit und Coldbackup tauglich bestätigt.
 
Dazu dann noch SMR um gerade mal auf 28TB zu kommen
Seagate hat 30TB Platten mit HAMR ohne SMR, mit SMR sind es bis zu 36TB. Aber bei solche Enterprise HDDs ist SMR immer host managed SMR, da muss das System dies also unterstützen und dies ist bei Heimanwendern selten der Fall, weshalb es solche HDDs gar nicht in den normalen Handel schaffen, da sie sowieso nur als vermeidlich defekt reklamiert werden würden.
Heliumfüllungen traue ich mittlerweile doch 10Jahre+ zu, für cold Backup Anwendungen.
Wobei man beachten sollte, dass die Hersteller eine Nutzungsdauer (service life) von 5 Jahren erwarten und meist ist es zwar mehr, aber ewig halten sie eben auch nicht und zu lange rumliegen ohne eingeschaltet zu werden, tut HDDs auch nicht gut.
Vielleicht ist das dann mit dem ganzen Laser/Mikrowellen Gedöhns und SSD ähnlichen Cachetechnologien ala WD irgendwann auch als Langzeit und Coldbackup tauglich bestätigt.
HDDs waren noch nie besonders gut für Langzeitdatenspeicherung, wenn man dies so macht, dass man sie ungenutzt irgendwo rumliegen lässt. Das kann gut gehen, sie kann aber auch Schaden nehmen, wenn sie zu lange nicht genutzt wird.
 
Also HDDs sind nach meiner Erfahrung, ( erster PC 1992 mit 40MB Platte) eigentlich der Inbegriff von Langzeitzuverlässigkeit.
Vor 2 Woche.erst so ein uralt Laptop, den ich beim Umräumen gefunden habe und der seit ca. 2001 nicht mehr in Betrieb war eingeschaltet und das Ding hat eiskalt die Platte hochgedreht und gebootet.
Dagegen verrecken CD ROMs und Co und natürlich SSDs viel eher.
Beitrag automatisch zusammengeführt:

Wo kann man denn die 30TB CMR schon kaufen? Mein Stand ist, für Consumer nur 28TB SMR SATA max. und das sind auch schon Enterprise LW.
 
Zuletzt bearbeitet:
Also HDDs sind nach meiner Erfahrung, ( erster PC 1992 mit 40MB Platte) eigentlich der Inbegriff von Langzeitzuverlässigkeit.
Dann sollte man allerdings auch bedenken, wie viel sich seither geändert hat, auch wenn die HDD Hersteller darüber oft nicht offen reden. Gerade vor so 15 Jahren, also Hitachi und Samsung ihre HDD Sparten verkauft haben, gab es eine gewaltige Umstellung über die nur hinter vorgehaltener Hand gesprochen wurde: Der Teilkontraktbetrieb. Um die Datendichte weiter zu steigern, mussten die Hersteller die Flughöhe der Köpfe so weit reduzieren, da sonst die Magnetkraft der Schreibköpfe nicht mehr zum Ummagnetisieren gereicht hätte, dass die Köpfe über die höchsten Stelle der Platter nicht mehr hinwegfliegen, sondern gleiten. Damit sie dann nicht kaputt gehen, wurden die Platter und Köpfe mit Beschichtungen versehen und die Platter zusätzlich mit einem Schmiermittel und die Ende der Köpfe werden erhitzt um die Flughöhe nur dann so weit zu senken, wenn dies für das Lesen oder Schreiben nötig ist:

Dynamic Fly Height (DFH) 2.png


Dies Bild zeigt zwar, das die Oberfläche eben nicht perfekt glatt ist, aber es ist trotzdem geschönt, weil hier der Kopf immer noch über selbst die größten Erhebungen hinweg fliegt. Wäre dies so, bräuchte man weder die Schutzschichten, noch das Schmiermittel. Toshiba hat sich sogar Dual Heater patentieren lassen, damit die Köpfe beim Lesen nicht so nah an die Oberfläche kommen wie beim Schreiben:

Dual-Heater (1).png


Auch hier sieht man wieder wie idealisiert die Darstellung ist, da hier die Oberfläche des Platter als perfekt eben eingezeichnet ist.

Das alles hat aber halt zu einer Menge neuer Herausforderungen geführt:

HDD HDI Head Disk Interface (1).png

HDD HDI Head Disk Interface 2 (1).png

HDD Head Wear (1).png


Seither haben HDDs auch ein Workload Rating, welches es vorher nicht gab und damals haben wir auch die Unterteilung in Desktop, NAS und Enterprise HDDs gesehen, die jeweils unterschiedliche Workload Rating haben. Nur bei den Enterprise HDDs mit 10k und 15k rpm wurde meines Wissens nach nie in den Teilkontaktbetrieb gegangen, deren Kapazitäten sind aber auch nie so massiv gestiegen wie bei den 3.5" HDDs.

Wie man sieht hat sich da seit 1992 also viel verändert und auch seit 2001 und dies nicht nur bzgl. der Kapazität, sondern eben auch technisch um die heutigen Kapazitäten überhaupt zu erreichen. Nur hat man bei dem wohl folgenschwersten Schritt, nämlich dem Übergang zum Teilkontaktbetrieb keinen solchen Tanz aufgeführt wie jetzt bei HAMR, wohl weil man die Kunden die bisher Angst vor einem Headcrash hatten, nicht damit verschrecken wollte, dass es nun der Normalzustand ist, dass die Köpfe auf die Oberfläche treffen. Außerdem kamen damals die SSDs auf und da hatten alle Angst um die Haltbarkeit, weil diese nur eine beschränkte Anzahl an P/E Zyklen haben und nun hatten auch HDDs nur ein Workload Rating, also ein beschränktes Datenvolumen welches gelesen oder geschrieben werden kann.
 
Und ist die Datenschaufelei inzwischen beendet ;-) Die Platten verlassen doch langsam echt den Sweetspot, dauert doch jetzt schon bald mehr als einen Tag um die voll zu schreiben oder , kritischer, im Defektfall 1x auszulesen.

Dazu dann noch SMR um gerade mal auf 28TB zu kommen, die hängen aktuell ganz schön an den Grenzen.
Bringt ja keinem was, da noch paar TB mehr drauf zu quetschen, wenn die Zuverlässigkeit drunter leidet.
Aber Ok, Heliumfüllungen traue ich mittlerweile doch 10Jahre+ zu, für cold Backup Anwendungen.
Vielleicht ist das dann mit dem ganzen Laser/Mikrowellen Gedöhns und SSD ähnlichen Cachetechnologien ala WD irgendwann auch als Langzeit und Coldbackup tauglich bestätigt.
Ja, die Datenschaufelei hat tatsächlich mehrere Tage in Anspruch genommen.
Der für mich wichtige Kram wurde dabei jeweils auf beide HDDs geschrieben, weil wenn Mal eine davon abrauchen sollte, habe ich nicht gleich die Mega Heulerei wegen Datenverlust.
Was übrigens auch richtig lang gedauert hat war die Windows Explorer Indizierung, bei über 3 Millionen Dateien waren das ebenfalls mehrere Tage.
Aber bisher bin ich sehr zufrieden mit den beiden MG11ern, vor allem der Speed mit teilweise über 300Mb/s ist schon eine Hausnummer für HDDs.
 
Aber bisher bin ich sehr zufrieden mit den beiden MG11ern, vor allem der Speed mit teilweise über 300Mb/s ist schon eine Hausnummer für HDDs.
Verwendest du die MG11 in default emulated (512b) oder in advanced format (4k) Sektorgröße? Ich hatte bei MG10F die Erfahrung gemacht, dass die Lesegeschwindigkeit in advanced format um paar MB/s hoch runter, aber die Schreibgeschwindigkeit dabei um paar MB/s runter hoch ging, wenn man die Ergebnisse von ATTO miteinander vergleicht. Wobei RND4K, wie erwartet, natürlich besser wurde.

Mich würde interessieren, ob man mit MG11 bessere Ergebnisse in 4k-Modus erzielen kann oder ob es nach wie vor noch mehr oder weniger gleich blieb.
 
Zuletzt bearbeitet:
Verwendest du die MG11 in default emulated (512b) oder in advanced format (4k) Sektorgröße? Ich hatte bei MG10F die Erfahrung gemacht, dass die Lesegeschwindigkeit in advanced format um paar MB/s hoch, aber die Schreibgeschwindigkeit dabei um paar MB/s runter ging, wenn man die Ergebnisse von ATTO miteinander vergleicht. Wobei RND4K, wie erwartet, natürlich besser wurde.

Mich würde interessieren, ob man mit MG11 bessere Ergebnisse in 4k-Modus erzielen kann oder ob es nach wie vor noch mehr oder weniger gleich blieb

Screenshot 2025-05-22 205111.png
 
Ok, und jetzt wäre natürlich noch eine direkte Gegenüberstellung ggü. 512b-Performance interessant. :)
 
Ich hatte bei MG10F die Erfahrung gemacht, dass die Lesegeschwindigkeit in advanced format um paar MB/s hoch, aber die Schreibgeschwindigkeit dabei um paar MB/s runter ging, wenn man die Ergebnisse von ATTO miteinander vergleicht. Wobei RND4K, wie erwartet, natürlich besser wurde.
Was dies auf der gleichen HDD unter den gleichen Bedingungen getestet? Denn eigentlich ist die 512e Sektoremulation so schnell, dass dies die HDDs nicht bremsen sollte und bei SATA Laufwerken wird sowieso nicht jeder Sektor einzeln angesprochen, der Overhead wäre ja viel zu groß, sondern es werden Befehle verwende die ab einem Sektor x die folgenden y Sektoren angesprochen werden. Bei RND4K ist im 4kn Modus y dann eben 1 und im 512e Modus ist y halt 8. Einzig wenn x nicht ein glattes Vielfaches von 8 ist, sollte es einen Unterschied geben, aber dies war zuletzt bei Win XP der Fall, alle nachfolgenden Windows Versionen haben darauf geachtet, dass sie Partitionen mit dem korrekten Alignment anlegen.
Wo kommt diese Information her? Man kann jetzt so nicht sehen, ob es sich auf die pyhsikalischen oder logische Sektorgröße bezieht. Öffne mal eine Eingabeaufforderung und führe folgenden Befehl genau so aus:

wmic diskdrive get BytesPerSector,Model

Steht vorne 4096, dann läuft sie im 4kn Modus und wenn vorne 512 steht, dann im 512e Modus, emuliert also 8 logische Sektoren auf einem physikalischen Sektor.
 
Was dies auf der gleichen HDD unter den gleichen Bedingungen getestet?
Klar, sonst macht es keinen Sinn. Wie gesagt - der Unterschied ist jetzt nicht extrem groß und kann natürlich als Messfehler vernachlässigt werden, aber schon interesant wie dieselbe Platte sich verhält.

Muss ich noch schauen wie es bei der Filesize von > 1GB verhält:

Test_10TB_1.png


Lesegeschwindigkeit in advanced format um paar MB/s hoch, aber die Schreibgeschwindigkeit dabei um paar MB/s runter ging,
Ähhh, gerade mein Beitrag nochal gelesen - da hatte ich Lese- und Schreibgeschwindigkeit dummerweise vertauscht gehabt. Ist nun korrigiert :)
 
Zuletzt bearbeitet:
Danke für den Test!
Somit wissen wir, dass es keinerlei relevanten Einfluss hat und es somit egal ist ob 512e oder 4k.
Die Unterschiede sind absolut im Bereich der Messetoleranzen und mit absoluter Sicherheit niemals spürbar, so sie denn überhaupt reproduzierbar wären.
 
Die Unterschiede sind absolut im Bereich der Messetoleranzen und mit absoluter Sicherheit niemals spürbar, so sie denn überhaupt reproduzierbar wären.
Eben, da die Emulation eben so schnell ist, dass man den Unterschied bestenfalls in den Nachkommastellen messen kann, aber niemals spüren. Wenn es um Performance geht, sind HDDs sowieso im Vergleich zu SSDs hoffnungslos unterlegen, wie man ja an de Werten sieht. Nicht einmal 1MB/s bei RND4K Q1T1 Lesend, wo die besten SSD (mit NAND, die Optane spielen nochmal in einer anderen Liga) auf etwas über 100MB/s kommen und statt 280MB/s sind selbst bei SATA 6Gb/s SSDs etwa doppelt so viel drin, von den neusten PCIe 5.0 SSDs wollen wir gar nicht reden. Der einige wirkliche Vorteil von HDDs sind die TB/€, wo sie unschlagbar sind, aber darüber zu diskutieren ob eine nun ein paar MB/s mehr oder weniger als die andere schafft, ist irrelevant, da sie im Vergleich zu SSDs alle lahm wie Schnecken sind.
 
Was dies auf der gleichen HDD unter den gleichen Bedingungen getestet? Denn eigentlich ist die 512e Sektoremulation so schnell, dass dies die HDDs nicht bremsen sollte und bei SATA Laufwerken wird sowieso nicht jeder Sektor einzeln angesprochen, der Overhead wäre ja viel zu groß, sondern es werden Befehle verwende die ab einem Sektor x die folgenden y Sektoren angesprochen werden. Bei RND4K ist im 4kn Modus y dann eben 1 und im 512e Modus ist y halt 8. Einzig wenn x nicht ein glattes Vielfaches von 8 ist, sollte es einen Unterschied geben, aber dies war zuletzt bei Win XP der Fall, alle nachfolgenden Windows Versionen haben darauf geachtet, dass sie Partitionen mit dem korrekten Alignment anlegen.
Wo kommt diese Information her? Man kann jetzt so nicht sehen, ob es sich auf die pyhsikalischen oder logische Sektorgröße bezieht. Öffne mal eine Eingabeaufforderung und führe folgenden Befehl genau so aus:

wmic diskdrive get BytesPerSector,Model

Steht vorne 4096, dann läuft sie im 4kn Modus und wenn vorne 512 steht, dann im 512e Modus, emuliert also 8 logische Sektoren auf einem physikalischen Sektor.

Ok, das Ergebnis ist ziemlich unerwartet ausgefallen, da ich meine sämtlichen Laufwerke immer mit 4k formatiere, aber da du schon gemeint hattest das es sich dabei um eine emulation handelt, ergibt das tatsächlich sogar Sinn.

Screenshot 2025-05-23 091128.png
 
da ich meine sämtlichen Laufwerke immer mit 4k formatiere
Formatieren ist normalerweise das Aufbringen eines Filesystems und Filesysteme fassen einen oder mehrere logische Sektoren zu einem Cluster zusammen. Da steht 512, die HDDs haben physikalische 4k Sektoren, aber wegen Advanced Format simulieren sie dann eben 8 logische Sektoren von je 512 Byte auf einem physikalischen Sektor und dann fasst das Filesystem z.B. 8 (bei 4k Clustern, default bei NTFS bis 16TB) oder 16 (default bei NTFS über 16TB) dieser logischen Sektoren wieder zu einem Cluster zusammen.

Der Cluster ist dann die kleinste Einheit die Filesysteme lesen oder schreiben können. Ein logischer Sektor ist die kleinste Einheit mit der HDDs von außen gelesen oder beschrieben werden können und der physikalische Sektor ist die kleinste Einheit die sie von ihren Platter lesen oder auf diese schreiben können, weil eben hinter jedem physikalischen Sektor in Extrabytes eine ECC steht um den Inhalt zu prüfen und ggf. zu korrigieren oder wenigstens Lesefehler zu erkennen, sollte eine Korrektur nicht möglich sein. Wenn also bei einer HDD mit physikalischen 4k Sektoren nur z.B. einer (auf jeden Fall nicht alle 8) logischer Sektor überschrieben wird, dann muss der Controller der HDD den physikalischen Sektor lesen, den überschriebenen Teil im RAM ersetzen, eine neue ECC errechnen und kann dann wenn die Platter wieder eine Umdrehung gemacht hat, die neuen Daten zusammen mit der neuen ECC auf den Sektor schreiben. Wird ein physikalischer Sektor komplett überschrieben, braucht der Controller den alten Inhalt nicht zu lesen, sondern berechnet einfach die neue ECC für die neuen Daten und schreibt dann beides auf den Sektor, sobald der Kopf über ihn "hinwegfliegt".

Dies sollte im Alltag nur dann öfter vorkommen, wenn das Alignment nicht stimmt und damit die Cluster des Filesystems eben nicht genau einen oder mehrere physikalische Sektoren umfassen, sondern eben nur Teile eines physikalische Sektors von dem anderen Teile zu einem anderen Cluster gehören. Dies betrifft dann aber auch nur kurze zufällige Schreibzugriffe, wenn viele MB am Stück schreibt, wird es nicht einmal merken. Aber seit Vista macht Windows das Alignment richtig.
 
Zuletzt bearbeitet:
Ich kann das Testfazit nicht nachvollziehen. Die Kritik bzgl. der Lautstärke hätte mich beinahe davon abgehalten, diese Festplatte zu erwerben. Nun habe ich es trotzdem getan um die Festplatte hinsichtlich der Tauglichkeit in einem leisen NAS mit 12+ Disks zu testen: Zum einen ist sie preislich einfach sehr reizvoll -- für die 100€ Differenz im Vergleich zu Ironwolf Pro und anderen Modellen spart man viel Geld oder anders formuliert 6 weitere Festplatten. Auch technisch finde ich den 1GB großen Cache sehr interessant, da dieser von Haus aus mit einer Power-Loss-Protection abgesichert ist. D.h. da wird man bei ZFS und Co. keine Bauchschmerzen mehr haben müssen und kann den Platten-Cache eingeschaltet lassen (bei der Ultrastar DC HC590 scheinen sie ein ähnliches Features zu haben, was sie ArmorCache nennen; Das kann man ein- und ausschalten; Ausgeschaltet soll die Random Write Performance deutlich besser -- leider konnte ich das Modell bislang noch nicht testen um mir ein Bild davon zu machen, was das konkret in IOPS/Durchsatz ausmacht -- hier favorisiere ich aber erst einmal ein simples PLP wie von Toshiba angeboten, wo der Cache messbar hilft und man sich trotzdem keine Gedanken um Power-Loss machen muss).

Bei mir lag die Toshiba MG11ACA24TE nun neben einer Testbench flach auf einem Holztisch. Ich konnte keinerlei störende Geräusche wahrnehmen. Aus 1m Entfernung war die Festplatte nicht wahrnehmbar -- lediglich wenn CrystalDisk den RND4K Test macht bzw. HD Tune den Burst-Test durchführt, ist die Festplatte leise wahrnehmbar.

Die fachmännische Kontrolle Mittels Handauflegen bestätigte den Eindruck einer sehr laufruhigen Festplatte. :)

Das Vollschreiben Mittels badblocks hat 28 Stunden und 43 Minuten gedauert. Insgesamt, inkl. Lesen, hat der Test 3444m34 gedauert:

1755083119463.png


Insgeheim hatte ich schon darauf gehofft, dass man 1 Stunde pro TB veranschlagen könnte, dem ist aber nicht so. Gerade zum Ende, wie auch der HardwareLUXX Test Mittels HD Tune zeigt, brach auch bei mir die Transferrate auf ~120MB/s ein:

1755083279609.png


Ich bin jetzt tatsächlich hin und her gerissen, ob ich an der Stelle mich schon voll auf die Toshiba committen sollte oder auch noch die Ironwolf Pro, die laut Tests ja teilweise 10db leiser sein soll, doch noch zum Vergleich testen sollte. Auch die HC590 reizt mich, wobei diese laut Spezifikationen ja noch lautet als die Toshiba, welche nach meinem eigenen Test nicht als laut aufgefallen war, sein soll. Prinzipiell wollte ich das Array schon durchmischen aber ich frage mich, ob die anderen Modelle nicht zu sehr von den Performance-Charakteristika der Toshiba unterscheiden und damit die Performance runterziehen. wenn ich sie mit der Toshiba in VDEV-Spiegeln mische.

Hier sieht man die Toshiba unter Verwendung des Caches:

1755083670259.png


Zum Vergleich ohne Cache:

1755083691480.png
 
Keine Ahnung was für einen Cache Du da gebencht hast, aber über 11GB/s gehen nie über SATA und daher muss es ein RAM Cache sein und der kann natürlich keine Power Loss Protection haben.
 
Jetzt hast du mich in der Tat verunsichert.

Durch das Deaktivieren von "Direct I/O" nutzen wir den System File Cache (intern der Windows Cache Manager genannt, siehe Seite 354 ff., Windows Internals Band 1), der für alle File System Drivers (FSD) einen unabhängigen Cache bereitstellt. Bei Schreibvorgängen sammelt Windows dann in der Regel die zu schreibenden Pages im Cache und fängt irgendwann an diese Mittels "Delayed Writer"-Methode auf das eigentlichen Storage zu schreiben. Dieses "irgendwann" ist aber sehr dynamisch. Zum einen ist der Cache in seiner Größe nur physisch beschränkt, zum anderen passt Windows die Cache-Rate auch an die tatsächliche Schreibleistung an um für den Fall, dass das Storage aussteigt, den möglichen Datenverlust so gering wie möglich zu halten. D.h. auch mit 2TB Systemspeicher und einer Anwendung die 1TB an Daten wegschreiben will fängt Windows erst einmal mit einer Hand voll Pages (wenige KB) an und lässt diese zeitnah auf das Storage schreiben. Wenn das Storage mithalten kann, akzeptiert Windows auch mehr Daten die dann weiterhin im Cache landen. Sobald Windows aber wiederum feststellt, dass das Storage nicht mithalten kann, drosselt es auch die Page-Annahme.
Die Read-Werte sind so hoch, weil ATTO die Daten ja gerade erst geschrieben hat, d.h. die Pages liegen noch im Cache Manager vor. Wenn Windows dann die Lese-Anweisung erhält, kann es die Pages direkt aus dem Cache beantworten und muss nicht das Storage fragen, weil die Pages nicht "dirty" sind.

Die hohen Read-Werte interessieren mich in diesem Benchmark aber gar nicht. Basierend auf meinem Kenntnisstand bzgl. der Fähigkeit von Windows, das Caching dynamisch anzupassen, gehe ich bislang davon aus, dass trotz Nutzung des System File Caches, wir hier den Effekt des größeren Disk Caches sehen.

Ein weiteres Argument wäre, dass das Testsystem über 64GB RAM verfügt und die ATTO-Testdaten ja max. 8GB groß sind. Wieso also sehen wir eine Verdoppelung der Schreibleistung? Und auch eben nur eine Verdoppelung? Die einzelnen Pages (512B - 64MB) passen ja locker in den Cache. Ich werde den Test noch einmal unter Linux wiederholen, dort bin ich mit den Gegebenheiten vertrauter. Aber auch der Umstand, dass der Disk-Cache ja nicht nur zum Schreiben verwendet wird und das ATTO eben erst schreibt und anschließend die gerade geschriebenen Daten sofort wieder liest spricht eben auch dafür, weswegen wir hier Schreibraten sehen die nur knapp über der Hälfte des 1GB großen Caches sind, weil der andere Teil durch READ-Operationen beansprucht wird.
 
gehe ich bislang davon aus, dass trotz Nutzung des System File Caches, wir hier den Effekt des größeren Disk Caches sehen.
Was aber eben nicht sein kann, da das Laufwerk niemals über 11GB/s übertragen kann. Es stimmt aber, dass Windows wie jedes moderne Betriebssystem sonst ungenutztes RAM als Diskcache, vor allem Lesecache, verwendet und daher die Daten hier ganz eindeutig nicht von der Platte gelesen werden.
weswegen wir hier Schreibraten sehen die nur knapp über der Hälfte des 1GB großen Caches sind, weil der andere Teil durch READ-Operationen beansprucht wird.
Bei 64GB RAM dürfte es mehr als 1GB Cache sein, wenn entsprechend viel RAM frei ist. Was Du mit Cache siehst, ist der Cache von Windows, nicht der Cache der HDD selbst.
 
Ich kann das Testfazit nicht nachvollziehen. Die Kritik bzgl. der Lautstärke hätte mich beinahe davon abgehalten, diese Festplatte zu erwerben. Nun habe ich es trotzdem getan um die Festplatte hinsichtlich der Tauglichkeit in einem leisen NAS mit 12+ Disks zu testen: Zum einen ist sie preislich einfach sehr reizvoll -- für die 100€ Differenz im Vergleich zu Ironwolf Pro und anderen Modellen spart man viel Geld oder anders formuliert 6 weitere Festplatten. Auch technisch finde ich den 1GB großen Cache sehr interessant, da dieser von Haus aus mit einer Power-Loss-Protection abgesichert ist. D.h. da wird man bei ZFS und Co. keine Bauchschmerzen mehr haben müssen und kann den Platten-Cache eingeschaltet lassen (bei der Ultrastar DC HC590 scheinen sie ein ähnliches Features zu haben, was sie ArmorCache nennen; Das kann man ein- und ausschalten; Ausgeschaltet soll die Random Write Performance deutlich besser -- leider konnte ich das Modell bislang noch nicht testen um mir ein Bild davon zu machen, was das konkret in IOPS/Durchsatz ausmacht -- hier favorisiere ich aber erst einmal ein simples PLP wie von Toshiba angeboten, wo der Cache messbar hilft und man sich trotzdem keine Gedanken um Power-Loss machen muss).

Bei mir lag die Toshiba MG11ACA24TE nun neben einer Testbench flach auf einem Holztisch. Ich konnte keinerlei störende Geräusche wahrnehmen. Aus 1m Entfernung war die Festplatte nicht wahrnehmbar -- lediglich wenn CrystalDisk den RND4K Test macht bzw. HD Tune den Burst-Test durchführt, ist die Festplatte leise wahrnehmbar.

Die fachmännische Kontrolle Mittels Handauflegen bestätigte den Eindruck einer sehr laufruhigen Festplatte. :)

Das Vollschreiben Mittels badblocks hat 28 Stunden und 43 Minuten gedauert. Insgesamt, inkl. Lesen, hat der Test 3444m34 gedauert:

Anhang anzeigen 1132456

Insgeheim hatte ich schon darauf gehofft, dass man 1 Stunde pro TB veranschlagen könnte, dem ist aber nicht so. Gerade zum Ende, wie auch der HardwareLUXX Test Mittels HD Tune zeigt, brach auch bei mir die Transferrate auf ~120MB/s ein:

Anhang anzeigen 1132457

Ich bin jetzt tatsächlich hin und her gerissen, ob ich an der Stelle mich schon voll auf die Toshiba committen sollte oder auch noch die Ironwolf Pro, die laut Tests ja teilweise 10db leiser sein soll, doch noch zum Vergleich testen sollte. Auch die HC590 reizt mich, wobei diese laut Spezifikationen ja noch lautet als die Toshiba, welche nach meinem eigenen Test nicht als laut aufgefallen war, sein soll. Prinzipiell wollte ich das Array schon durchmischen aber ich frage mich, ob die anderen Modelle nicht zu sehr von den Performance-Charakteristika der Toshiba unterscheiden und damit die Performance runterziehen. wenn ich sie mit der Toshiba in VDEV-Spiegeln mische.

Hier sieht man die Toshiba unter Verwendung des Caches:

Anhang anzeigen 1132461

Zum Vergleich ohne Cache:

Anhang anzeigen 1132462
Servus!

Mal aus Neugier, hast du die Ironwolf letztlich auch bestellt oder planst du es? Ich schwanke aktuell zwischen einer Ironwolf Pro 22TB und eben dieser Toshiba 24TB. 2 davon sollen meine aktuellen 16TB Ironwolf Pro in meiner QNAP NAS ersetzen (laufen im Raid 1).

Das NAS steht im Wohnzimmer, daher mache ich mir Sorgen bzgl. der Lautstärke. Aber preislich bin ich bei zwei Platten mit den Toshibas 90€ billiger und habe auch noch mehr Speicher..
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh