10k HDD vs 15K HDD

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dreht schneller, macht mehr warm, macht mehr krach, braucht mehr Strom.
 
Was jemand merkt ist immer extrem subjektiv und hängt dann auch noch sehr von der Anwendung ab, aber im Vergleich zu SSDs sind beides Schnecken und da solche Enterprise Platten eben für Anwendungen genutzt wurden wo es auf Performance ankommt, vor allem die 15krpm Modelle, sind dies inzwischen auch praktisch vollständig von SSDs ersetzt worden. Was hast Du denn konkret vor, dass Du diese Frage stellst?
 
Was jemand merkt ist immer extrem subjektiv und hängt dann auch noch sehr von der Anwendung ab, aber im Vergleich zu SSDs sind beides Schnecken und da solche Enterprise Platten eben für Anwendungen genutzt wurden wo es auf Performance ankommt, vor allem die 15krpm Modelle, sind dies inzwischen auch praktisch vollständig von SSDs ersetzt worden. Was hast Du denn konkret vor, dass Du diese Frage stellst?
Ich könnte 600 GB SAS Platten mit 10k und 146 GB SAS Platten mit 15k günstig bekommen. Wollte meinen zweiten Server eventuell wieder im Betrieb nehmen........
 
Wenn ich's richtig im Kopf habe liegst du pro 15k Platte bei ~10Watt Verbrauch.
Auch wenn die Dinger für 0€ in deinen Server wandern sind sie alles andere als Günstig.
Das Zeug verbraucht unnoetigerweise extrem viel Strom für extrem wenig Performance. Jede SSD steckt nen Array an 15k Platten in die Tasche.

Vergiss das alte Zeug, das hat schon seinen Grund wieso es so guenstig ist und es keiner haben mag.
 
Merken tut man es primär bei den Zugriffszeiten. Die sind bei 15.000 UPM-Platten kürzer als bei 10.000 UPM-Platten.
Aber heutzutage gibt es als Alternative SSDs, die bei den Zugriffszeiten ca. um den Faktor 100 schneller sind als 15.000 UPM-Platten.
 
Ich könnte 600 GB SAS Platten mit 10k und 146 GB SAS Platten mit 15k günstig bekommen.
Das wundert mich nicht, die will ja auch keiner mehr haben. Einmal sind sie für den Produktiveinsatz meist zu alt, die geplante Nutzungsdauer beträgt ja für HDDs i.d.R. 5 Jahre und danach sind sie für Unternehmen nutzlos, auch weil das Risiko eines Ausfalls danach deutlich steigt und zum anderen brauchen sie zu viel Strom, erzeugen zu viel Lärme und Wärme und bieten dafür weder viel Kapazität noch Performance. Die sitzt zwischen den Stühlen, SSDs haben sie ja nicht umsonst komplett abgelöst. Entweder braucht man die Performance, dann nimmt man SSDs oder man braucht viel Kapazität ohne große Performanceanforderungen und dann nimmt man möglichst große 3.5" HDDs, die es mit bis zu 18TB (20TB mit SMR) gibt, womit da 30x so viel draufpasst wie auf eine von diesen 600GB Platten.
Wollte meinen zweiten Server eventuell wieder im Betrieb nehmen........
Wenn es zum Basteln ist, dann lass dem Basteltrieb freien Lauf, aber versuche nicht es rational zu begründen, denn dies kann nur scheitern. Rational gibt es keine Grund sich solche lauten Stromverschwender anzutun, selbst wenn man sie umsonst bekommt.
 
Das wundert mich nicht, die will ja auch keiner mehr haben. Einmal sind sie für den Produktiveinsatz meist zu alt, die geplante Nutzungsdauer beträgt ja für HDDs i.d.R. 5 Jahre und danach sind sie für Unternehmen nutzlos, auch weil das Risiko eines Ausfalls danach deutlich steigt und zum anderen brauchen sie zu viel Strom, erzeugen zu viel Lärme und Wärme und bieten dafür weder viel Kapazität noch Performance. Die sitzt zwischen den Stühlen, SSDs haben sie ja nicht umsonst komplett abgelöst. Entweder braucht man die Performance, dann nimmt man SSDs oder man braucht viel Kapazität ohne große Performanceanforderungen und dann nimmt man möglichst große 3.5" HDDs, die es mit bis zu 18TB (20TB mit SMR) gibt, womit da 30x so viel draufpasst wie auf eine von diesen 600GB Platten.
Wenn es zum Basteln ist, dann lass dem Basteltrieb freien Lauf, aber versuche nicht es rational zu begründen, denn dies kann nur scheitern. Rational gibt es keine Grund sich solche lauten Stromverschwender anzutun, selbst wenn man sie umsonst bekommt.
Habe ja auch eine SSD im Einsatz und zum Basteln und Erfahrung sammeln werde ich die 2,5" HDDs benutzen. Die zwei Backplanes mit 16 Einschüben laden dazu ein.......
Der Array am ersten Server mit 450 GB SAS HDDs im Raid 5 hat eine Trasferrate von 680 MB/s. Da gegen kommt die am SATA 2 Controller angeschlossene SSD nicht mit.
 
Zuletzt bearbeitet:
zum Basteln und Erfahrung sammeln
Dann mache es, von Du dafür 10krpm oder 15krpm Platten nimmst, sollte im Prinzip egal sein, die mit 15krpm sind aber halt in aller Regel lauter und brauchen mehr Strom. Wenn es einer der HP Rechner aus der Signatur ist, dann beachte, dass gerade HP HW gerne Probleme macht, wenn sie mit fremder Hardware kombiniert wird. Für den richtigen Stallgeruch reicht da schon die HP Kennung in der FW von HDDs.
 
Habe ja auch eine SSD im Einsatz und zum Basteln und Erfahrung sammeln werde ich die 2,5" HDDs benutzen. Die zwei Backplanes mit 16 Einschüben laden dazu ein.......
Der Array am ersten Server mit 450 GB SAS HDDs im Raid 5 hat eine Trasferrate von 680 MB/s. Da gegen kommt die am SATA 2 Controller angeschlossene SSD nicht mit.
Damit wäre bei Großen Dateien das Raid der Sieger, weil hier die Sequentielle Transferrate den Ausschlag gibt. Für 10.000 Videodateien ist das sicherlich ausreichend, so lange das Raid nicht all zu fragmentiert ist.

Nun kopiere mal einen Ordner mit 10.000 JPGs von SSD auf das Raid und von SSD zu SSD.....
Ich Wette da stinkt dein dein Raid5 aus drehendem Rost schlichtweg ab, denn da kommt es mehr auf die IOPS an (100-150 vs 10.000-15.000 Minimum)

Schlußendlich nimmst du dann einen Ordner mit 10.000 kleinen Dateien, z.B. reine Text Dateien.
Das Raid kotzt, denn hier kommt es nur noch auf die IOPS an.
 
Der Array am ersten Server mit 450 GB SAS HDDs im Raid 5 hat eine Trasferrate von 680 MB/s. Da gegen kommt die am SATA 2 Controller angeschlossene SSD nicht mit.
Array VS einer einzelnen SSD... Ja, kann man machen, auch wenns keinen Sinn macht.
Ist schon klar, das die SATA-SSD da nicht mitkommt, weil an einem SATA-Port gehen nur ~550MB/s. Würde mir aber schon arg zu denken geben, wenn eine EINZELNE SSD ~500MB/s macht du bei deinen heiligen SAS-HDDs aber schon mindestens ZWEI brauchst um überhaupt auf 680MB/s zu kommen.
Wieviele SAS-HDDs hat denn dein RAID? Also ich hab hier 3x 500GB SSDs im Software-RAID, das macht mal eben ~1500MB/s. Von der NVMe-SSD red ich besser gar nicht erst, sonst merkst du zuletzt noch, das du dich hier mit Techniken abmühst, die quasi "Fax abtippen" gleichkommen. :d Wenn man überhaupt schon ein RAID braucht um auf 450GB Speichervolumen zu kommen *lol*
Und das sind nur die Bulk-Transferraten, von Zugriffszeiten rede ich lieber gar nicht erst, da stinkt dein SAS-HDD-Raid dann nämlich eher um Faktor 100 ab.

Fazit: Bevor du mit mehreren winzigen 146GB-HDD-Platten rumhantierst, nimm eine SSD. Ist schneller und braucht weniger Strom. Statt 3x 146GB SAS nimmste 1x 500GB, hast fast die gleiche Transfergeschwindigkeit, kürzere Zugriffszeiten und das ganze bei einem Zehntel des Stromverbrauchs.
Alleine schon wegen der winzigen Kapazität würde ich heute solche Platten nichtmal mehr geschenkt nehmen.
 
Zuletzt bearbeitet:
Ich habe auch mal vor Jahren mit 600GB-10K-HDD's herumgetüftelt. Ist schon ganz lustig um RAIDs mit vielen Laufwerken zu erstellen. Geld ausgeben für die Laufwerke oder Infrastruktur würde ich aber nicht. Wenns dir jemand schenkt, warum nicht.
 
Ist schon klar, das die SATA-SSD da nicht mitkommt, weil an einem SATA-Port gehen nur ~550MB/s.
Er schreibt ja "SATA 2 Controller", es dürfte also SATA 3Gb/s meinen und damit wäre es nur etwa halb so viel. Aber die Stärke der SSD kommt aus ihrer kurzen Zugriffszeit, da kommt keine HDD mit und dazu kommen ggf. die höheren maximalen IOPS, auch wenn diese für Heimanwender in aller Regel keine Rolle spielt, weil man bei typischen Heimanwenderanwendungen eben gar nicht so viele parallele Zugriffe hat um diese zu erreichen. Daher ist die Zugriffszeit, die man am Besten anhand der 4k QD1 Lesend sehen kann, der wichtigste Wert für Heimanwender, aber eben leider auch der, der am meisten von System und dessen (Energiespar-)Einstellungen abhängt. Wenn vor allem großen Dateien genutzt werden, wäre das RAID also im Vorteil, bei kleinen Dateien wendet sich das Blatt jedoch.
Wenn man überhaupt schon ein RAID braucht um auf 450GB Speichervolumen zu kommen
So wie ich das verstanden habe hat jede HDD im RAID 5 jeweils 450GB:
450 GB SAS HDDs im Raid 5 hat eine Trasferrate von 680 MB/s.
Da man mindestens 3 HDDs braucht um ein RAID 5 zu realisieren, sind es also ingesamt mindestens 900GB Nutzkapazität.
Bevor du mit mehreren winzigen 146GB-HDD-Platten rumhantierst, nimm eine SSD. Ist schneller und braucht weniger Strom.
Alleine schon wegen der winzigen Kapazität würde ich heute solche Platten nichtmal mehr geschenkt nehmen.
Er könnte ja auch 600GB 10krpm Modelle bekommen:
Ich könnte 600 GB SAS Platten mit 10k und 146 GB SAS Platten mit 15k günstig bekommen.
Auch ich würde bei der Auswahl lieber die 600GB Modelle nehmen, aber wie ich ja schon schrieb, sind diese auch in einem RAID gegeüber SSDs langsam, vor allem was die Zugriffzeiten und IOPS angeht, gegenüber NVMe SSDs auch bei den maximalen Transferrraten, sofern die Platttform ausreichend schnelle PCIe Lanes bietet und bzgl. der Kapazität machen 3.5" mit hoher Kapzität pro Platte mehr Sinn, schon weil sie sparsamer sind.

Aber wir reden hier von Hardware die rund 10 Jahre alt ist, der Xeon X5675 erschien in Q1/2011 und hat nur PCIe 2.0 Lanes, mit 4 davon kommt man auf maximal so 1700MB/s.
Geld ausgeben für die Laufwerke oder Infrastruktur würde ich aber nicht. Wenns dir jemand schenkt, warum nicht.
Dann hat man immer noch die Stromkosten, wenn man sie wirklich nutzen und nicht nur ein wenig damit Spielen will, wie Konfiguration, Migration oder Rebuild von RAIDs. Dafür kann man sie gut nehmen, aber im Keller als NAS laufen lassen, würde ich sie allenfalls, wenn ich den Strom nicht bezahlen muss.
 
Wenns dir jemand schenkt, warum nicht.
Weils ein Haufen Strom verheizt und aus heutiger Sicht keinerlei Mehrleistung mehr bringt.
Nicht falsch verstehen, den Basteldrang kann ich durchaus nachvollziehen. Basteln um zu gucken wies geht ist ok. Dauerbetrieb eher nicht.
Ich hab mir Anfang der 2000er auch mal ein Mainboard mit Dual-P2-Sockel auf Ebay geschossen, weil ich unbedingt mal ein Multicoresystem ausprobieren wollte. Das gabs halt so in der Form damals noch nicht (schon witzig, wenn man daran denkt, das in meinem Desktop heute ein 8-Kerner mit 16 Threads steckt und selbst das eher nur Mittelklasse ist). Aber so wirklich funktional war das Ding nie. War auch viel zu laut und hat selbst damals schon viel zu viel Strom verbraucht für quasi Null Nutzen.

Gerade weil es hier im Festplatten geht, würde ich da nicht sonderlich viel mit anfangen, sprich dann auch noch großartig Daten drauf speichern ala Home-NAS. Es lohnt sich einfach nicht.
 
Ja, das ist selbstverständlich. Wenns um heimischen Dauerbetrieb geht ist SAS generell keine gute Idee aufgrund des erhöhten Verbrauchs. Ich dachte es geht um eine Tüddel und Teststation.
 
Zuletzt bearbeitet:
Hier mal Benches von meinen verschiedenen Systemen :
6 x HP 450 GB SAS-HDD im RAID 5 :
diskbench2.png


SSD am SATA 3G (SATA 2) Port :
as-ssd-bench SanDisk SDSSDH3  01.06.2021 20-47-29 (1).png


SSD am SATA 6G (SATA 3) Port :
diskbench (2).png
 
Die Datenübertragungsrate des Raid ist zwar höher, aber viel wichtiger für die tägliche Praxis ist die Zugriffszeit.
Und die ist bei der SSD um Faktor 100 besser (7,1 ms zu 0,07 ms).
 
Aber als lustiges Tüddelsystem, wieso nicht. Die haben wenigstens noch richtigen Klang :d
 
Die Datenübertragungsrate des Raid ist zwar höher, aber viel wichtiger für die tägliche Praxis ist die Zugriffszeit.
Und die ist bei der SSD um Faktor 100 besser (7,1 ms zu 0,07 ms).
Das ist richtig aber der 2.Server hat nur SATA 2.0. Ich müsste entweder einen dritten Controller für SSDs einbauen oder auf teure SAS-SSD umsteigen.

16 x 700€ = 11.200 $

So, sieht der 2. Server aus :
20210311_155252 (1).jpg



Ich werde ein Aufbauthread starten.....
Beitrag automatisch zusammengeführt:

Aber als lustiges Tüddelsystem, wieso nicht. Die haben wenigstens noch richtigen Klang :d
So ist es auch gedacht.
Der wird natürlich nicht 24h laufen sondern bei Bedarf.
 
Zuletzt bearbeitet:
Aber selbst die SSD am SATA 2-Anschluß hat noch 0,147 ms zu 7,1 ms, ist also da immerhin noch Faktor 48 besser.
Das ist richtig aber schau mal welche Zugriffszeiten eine normale 3,5" HDD (Tosshiba P300) hat :
diskbench (3).png


Und buffered Read ist auch die SAS HDD überlegen. Wahrscheinlich durch das Cache Modul des SAS-Controllers.....

Na ja, ich könnte natürlich auch die 6 SATA 2.0 Ports zusätzlich nutzen mit SSDs. Das andere schließt das eine nicht aus.
 
Aber selbst die SSD am SATA 2-Anschluß hat noch 0,147 ms
Vorsicht bei den Werten die solche Tools für die Zugriffszeit ermitteln, denn dies ist bei SSDs gar nicht so einfach und wird meist falsch gemacht, auch bei AS-SSD und ich würde mich wundern die AIDA besser wäre. Man sieht ja in Post #15, dass die Werte von AIDA und AS-SSD deutlich auseinandergehen, da liegt Faktor 2 dazwischen. Das Problem ist, dass man bei HDDs jeden beliebigen LBA anfordern kann, dann fährt sie diesen an, liest ihn aus schickt die Daten, was dann bei dem kleinst möglichen Zugriff von normalerweise 512 Byte, eben die Zugriffszeit ergibt. Aber SSDs, sind erstens auf 4k Zugriffe und nicht auf 512 Byte Zugriffe optimiert und dann haben sie eine Mappingtabelle, wenn auf dem angeforderten LBA keine gültigen Daten stehen, dann steht sie auch gar nicht dort drin und es kann und braucht auch nichts aus dem NAND ausgelesen zu werden, sondern die Controller liefern irgendwas, i.d.R. (bei Deterministic Zeroes After Trim) einfach nur Nullen zurück.

Genau dieser Fehler passiert auch AS-SSD, daher wird die angezeigte Zugriffszeit Lesend bei AS-SSD umso höher, je voller die SSD ist, weil einfach die Wahrscheinlichkeit steigt, dass dann Daten an den gelesenen LBAs stehen und diese wirklich aus dem NAND gelesen werden müssen, was natürlich länger dauert als nur festzustellen das es keine Daten gibt und direkt Nullen zu liefern. Man sollte besser auf die 4k Lesend schauen, bzw. bei CrystalDiskMark auf die 4k Q1T1 Lesend, die geben bei SSDs am zuverlässigsten Auskunft über die Latenz.
Das ist richtig aber schau mal welche Zugriffszeiten eine normale 3,5" HDD (Tosshiba P300) hat
Auch bei HDDs muss man aufpassen wie die Zugriffszeit gemessen wird, die hängt ja auch davon ab wie weit die Köpfe sich bewegen müssen, da geht von Track to Track bis Full Stroke und wenn Tools nur über wenige GB Adressraum messen, dann hängt es sehr von der Kapazität der HDD (bzw. des RAIDs) ab, was da rauskommt. Zugriffe über 450GB wären für eine einzelne 450GB Platte ein Full Stroke, für eine 6TB sind es 7,5% und damit nur Zugriffe über ein "paar" Tracks auf den äußeren Spuren, aber eben weit von einem Full Stroke entfernt. Bei Zugriffen über wenig GB ist der Effekt nicht so massiv, aber ähnlich und deshalb scheinen sie immer kürzere Zugriffszeiten zu haben als HDDs mit der gleichen Drehzahl, aber weniger Kapazität. Daher ist es besser diese mit Tools wie HD Tune (Achtung die kostenlose 2.55er Version unterstützt maximal 2TiB Adressierung), bei dem über die ganze Kapazität gemessen wird.
 
Die 16 ms sind arschlahm!
Ich habe hier eine uralte PATA 3,2 GB WD mit 5400 UPM, die schafft schon 12 ms.
Und aus meinem Fundus ca. 15 Jahre alte U-320 SCSI-Platten:
7200 UPM Hitachi liegt bei ca. 9 ms, eine 10.000 UPM Seagate bei ca. 7 ms und eine 15.000 UPM Seagate bei ca. 5 ms.
16 ms liegt im Bereich von uralten 4300 UPM-Platten.
 
PS:
SSD am SATA 3G (SATA 2) Port :
Der SATA Port an dem die SSD hängt, läuft übrigens nicht im AHCI Modus, dies beschränkt die Länge der Zugriffe auf maximal 2^8 LBAs, weshalb die seq. Transferraten geringer sind als mit SATA 3Gb/s möglich wäre und da im IDE Modus in aller Regel kein NCQ unterstützt wird, genau wie es hier der Fall ist, sind die 4k_64 auch so mies, da ohne NCQ immer nur ein neuer Befehl geschickt werden kann, nachdem der vorherige beendet wurde.
 
PS:
Der SATA Port an dem die SSD hängt, läuft übrigens nicht im AHCI Modus, dies beschränkt die Länge der Zugriffe auf maximal 2^8 LBAs, weshalb die seq. Transferraten geringer sind als mit SATA 3Gb/s möglich wäre und da im IDE Modus in aller Regel kein NCQ unterstützt wird, genau wie es hier der Fall ist, sind die 4k_64 auch so mies, da ohne NCQ immer nur ein neuer Befehl geschickt werden kann, nachdem der vorherige beendet wurde.
Ja, da hätte ich vor der Windows Installation drauf achten müssen. War mein Fehler!
Wird noch geändert wenn ich Win 10 mal neu installiere.
 
Wird noch geändert wenn ich Win 10 mal neu installiere.
Man braucht Windows dafür nicht neu zu installieren, es reicht dafür zu sorgen, dass ein passender AHCI Treiber vor dem Bootzeitpunkt gestartet wird, damit es klappt und keinen BSOD beim Booten gibt. Win 10 kann es glaube ich selbst, wenn man in den Abgesicherten Modus bootet, aber man kann auch einfach den Befehl sc Config storahci Start=Boot (die Eingabeauforderung als Adminstrator starten!) umstellen und danach sollte unter HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\storahci der Schlüssel Start den Wert 0 haben und es sollte keinen Schlüssel StartOverride geben.
 
Man braucht Windows dafür nicht neu zu installieren, es reicht dafür zu sorgen, dass ein passender AHCI Treiber vor dem Bootzeitpunkt gestartet wird, damit es klappt und keinen BSOD beim Booten gibt. Win 10 kann es glaube ich selbst, wenn man in den Abgesicherten Modus bootet, aber man kann auch einfach den Befehl sc Config storahci Start=Boot (die Eingabeauforderung also Adminstrator starten!) umstellen und danach sollte unter HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\storahci der Schlüssel Start den Wert 0 haben und es sollte keinen Schlüssel StartOverride geben.
Werde ich mir mal genauer anschauen....
 
Das ist kein Hexenwerk und wenn Du danach den sc Config pciide Start=Demand ausführst, also erst nachdem das booten im AHCI Modus klappt, dann sollte der Key Start unter HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\pciide den Wert 3 haben, so hast Du genau den Zustand als wäre Windows im AHCI Modus installiert worden, also auch keine unsaubere Installation. Man kann aber auch lassen und pciide ebenfalls zum Bootzeitpunkt starten lassen, dann kann man im AHCI und im IDE Modus booten, dann läuft halt der IDE Treiber auch, aber schluckt ja nicht viel RAM.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh