Welche IDE Platte für Musikrechner?

  • Ersteller Gelöschtes Mitglied 6883
  • Erstellt am
G

Gelöschtes Mitglied 6883

Guest
Hi, ich plane für einen Kumpel eine neue System-Festplatte zu kaufen,
leider unterstützt sein Mainboard kein S-ATA, deswegen muss ich noch zu IDE greifen.

Welche Platten von 80-120 gb sind da wohl am besten was Zuverlässigkeit & Performance angeht?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Samsung SP1213N - leise, wird nicht sonderlich warm (im vgl. zu anderen Platten), keine hohe Ausfallrate bekannt...
 
ich würde dir eine HDD mit 160GB empfehlen, die sind momentan vom P/L-verhältnis die besten!!!

HITACHI oder SAMSUNG...
 
Nur sollte man auch bedenken, dass nicht jedes Board (besonders wenn es noch kein SATA Unterstützt) die 48 Bit Adressierung beherrscht und somit mit so großen Platten, wie von CM50K vorgeschlagen, gar nicht umgehen kann.

@thett
Wichtig zu wissen wäre, was für ein Board (genaue Bezeichnung) dein Kumpel hat.
 
Zuletzt bearbeitet:
Ich kann die gegebenen Tips nur bestätigen!

Schau Dir evtl. noch verschiedene Benchmark-Ergebnisse an.

Wahrscheinlich wirst Du die Hitachi bevorzugen, da diese meiner Erinnerung nach die besseren Zugriffszeiten hat, was bei mehreren Audio-Streams wichtig wird (mehrere Dateien werden gleichzeitig gelesen).

Ich kann die Samsung nicht beurteilen, aber die Hitachi ist außerdem auch im Zugriff sehr leise. Laut einem Thread hier im Forum machen die Samsung Platten deutlichere Knackgeräusche im Zugriff.

Dafür kalibriert sich die Hitachi alle paar Minuten hörbar, allerdings nur, wenn sie nicht stark ausgelastet ist. Während der Aufname/Abspielen Deiner Tracks sollte das also kaum passieren.

Falls das Bios mit Festplatten über 120gb umgehen kann, sind 160gb, oder evtl. sogar 200gb die bessere Wahl, sowohl Preis/Leistungs-mässig, als auch bei der Performance.

Die größeren Platten haben über die gesamte Kapazität einen besseren Durchsatz, was für Audio-Aufnahmen durchaus wichtig ist. Die 200er Modelle der Hitachi sind nach meinem persönlichen Eindruck übrigens nicht lauter oder wärmer, als die 120/160er, obwohl ein Platter mehr drin steckt.
 
Die größeren Platten haben über die gesamte Kapazität einen besseren Durchsatz
Aha... eigentlich ist es genau umgekehrt. Über die gesamte Kapazität gesehen sind Platten einer Serie mit unterschiedlichen Größen beim Durchsatz gleich schnell. Nur wenn man die Leistung in einem gewissen Kapazitätsfenster sieht, ergeben sich Unterschiede. Denn da sind die größeren Platten immer schneller.
 
Aha... eigentlich ist es genau umgekehrt. Über die gesamte Kapazität gesehen sind Platten einer Serie mit unterschiedlichen Größen beim Durchsatz gleich schnell.

Ist es jetzt umgekehrt, oder ist es gleich?

Nur wenn man die Leistung in einem gewissen Kapazitätsfenster sieht, ergeben sich Unterschiede. Denn da sind die größeren Platten immer schneller

Also doch schneller!?

Wie dem auch sei, meiner Meinung nach sind größere Festplatten über die gesamte Kapazität schneller, da:

1. Mehrere Platter/Leseköpfe gleichzeitig zum Einsatz kommen:

+ weniger Bewegung der Köpfe
+ mehr Daten im äußeren, schnelleren Bereich der Platter
= schnellerer Durchsatz

2. Die Datendichte pro Platter evtl. höher ist:

+ weniger Kopfbewegung
+ mehr Daten im äußeren, schnelleren Bereich
+ höherer Datendurchsatz pro Drehung
= schnellerer Durchsatz

Ich habe außerdem eine Hitachi 7k250 160gb (2 Platter) mit einer 200gb (3 Platter) per HD-Tach verglichen:

attachment.php


Man erkennt, dass die durchschnittliche Datenrate bei beiden Platten bei ca. 50mb/s liegt. Das gilt aber nur bei sequenzielen Lesen (Daten liegen alle schön hintereinander). Außerdem hat die größere Platte innerhalb der ersten 120gb eine deutlich höhere durchschnittliche Datenrate, die Graphen zeigen das recht deutlich.

Sobald die Leseköpfe sich bewegen müssen sieht das ganze schon anders aus, da die größere Platte eine bessere durchschnittliche Zugriffzeit hat. Die Testdaten liegen wahrscheinlich näher beieinander: weniger Kopfbewegung, aber genau das passiert auch beim realen Einsatz.

Die Graphen sprechen für sich, Beachtung verdient allerdings noch die CPU-Belastung. Während der Tests lag diese bei beiden Platten mal um die 2-4% und mal bei 7%. Dass gerade die größere hier eine höhere Belastung anzeigt, ist eher Zufall.

Der Test liegt schon einige Wochen zurück, und wurde auf einem recht frisch installiertem System unter Windows XP Pro (SP1) gemacht. Die angezeigten Daten wurden mit nVidia Unified Treibern 4.12 erstellt. Mit Microsoft Standard-Treibern sieht das Bild allerdings nur unwesentlich anders aus (leicht weniger Durchsatz, 0.1ms langsamerer Zugriff).
 

Anhänge

  • hdtach_7k250.gif
    hdtach_7k250.gif
    27 KB · Aufrufe: 273
Zuletzt bearbeitet:
1. Mehrere Platter/Leseköpfe gleichzeitig zum Einsatz kommen:
Die S-/L-Köpfe bewegen sich nich unabhängig voneinander und können auch nicht gleichzeitig schreiben oder lesen. Es muss jeweils umgeschaltet werden, wenn die benötigten Daten auf einer anderen Platter oder einer anderen Seite einer Platter liegen und ein anderer Kopf dafür zuständig ist. Es kann immer nur ein Kopf aktiv sein.

+ weniger Bewegung der Köpfe
Unsinn! Wenn man die gesamte Kapazität betrachtet, müssen sich die Köpfe bei einer großen Platten genauso viel und weit bewegen, wie bei einer kleinen. Nur wenn man es in einem gewissen Kapazitätsfenster sieht, z.B. 40 GB, hat die größere Platte Vorteile, da zum einen die Köpfe einen kürzeren Weg haben und somit die Zugriffzeit niedriger ist. Auch ist die Datentransferrate in diesem Fenster höher. Dies ist aber nicht so, wie es übrigens dein Screenshot beweist, wenn man die gesamte Kapazität berücksichtigt (siehe Average Read).

+ mehr Daten im äußeren, schnelleren Bereich der Platter
Richtig, aber genauso hat die größere HDD mehr Daten im langsamen, hinteren Bereich der Platter ;). Das wiegt sich auf (siehe wiederum Average Read).

2. Die Datendichte pro Platter evtl. höher ist:
Möglich, muss aber nicht sein. Und wenn, dann ist der Unterschied sehr gering. So gering, dass man es vielleicht messen kann, aber nicht spüren.

Sobald die Leseköpfe sich bewegen müssen sieht das ganze schon anders aus, da die größere Platte eine bessere durchschnittliche Zugriffzeit hat.
Gut, die durchscnittliche Zugriffszeit ist bedingt durch die wesentlich geringere Head Switch Time (das Umschalten der Köpfe geht schneller als die Neupositionierung des gesamten Arms) bei größeren Platten etwas besser.

Die angezeigten Daten wurden mit nVidia Unified Treibern 4.12 erstellt. Mit Microsoft Standard-Treibern sieht das Bild allerdings nur unwesentlich anders aus (leicht weniger Durchsatz, 0.1ms langsamerer Zugriff).
HD-Tach ist wohl kaum dafür geeignet, um den Leistungsunterschied zwischen verschiedenen ATA-Treibern zu ermitteln. HD-Tach ist ein reiner Low-Level-Benchmark der nur die "Rohleistung" der Platte misst. Damit hat der verwendete Treiber aber nichts oder äußerst wenig mit zu tun. Interessant wäre die Messung des Leistungsunterschiedes unter Praxisbedingungen.

Damit wir uns jetzt nicht missverstehen. Ich sage auch, dass größere Platten schneller sind. Allerdings nur, wenn es um ein gewisses Kapazitätsfenster geht. Die Leistung z.B. innerhalb einer 8 GB großen Partition am Anfang der Platte ist bei einer 250 GB Platte sicherlich besser als bei einer 160 GB Platte. Sieht man es allerdings über die gesamte Kapazität hinweg, sind die Unterschiede so gering, dass es praktisch keinen Leistungsunterschied gibt. Und darauf wollte ich hinaus. Deine Aussage "Die größeren Platten haben über die gesamte Kapazität einen besseren Durchsatz" ist falsch. Über die gesamte Kapazität ist der Durchsatz nicht besser (siehe wiederum Average Read), aber innerhalb eines Kapazitätsfensters.
 
Das sich die Köpfe nicht unabhängig voneinander bewegen ist mir klar! Wie Du selber schreibst, ist das Umschalten zwischen den Köpfen aber wesentlich schneller, als den ganzen Arm zu bewegen.

Wenn also ein Platter dazukommt, dann habe ich pro Spur (ohne Armbewegung) mehr Daten, ergo werden die gleichen Daten auf der größeren Platte schneller bedient.

Überhaupt macht ein Vergleich nur Sinn, wenn man die gleichen Daten betrachtet!!!

Noch mal deutlich: Die gleichen Daten (in diesem Fall Audiospuren) werden auf der größeren Platte schneller bedient, da sie sich mehr im schnelleren äußeren Bereich aufhalten werden (übrigens auch abhängig von der Fragmentierung), und diese auf mehrere Oberflächen/Köpfe verteilt werden.

Sei das nun durch höhere Datendichte, oder mehrere Platter/Köpfe spielt kaum eine Rolle (ist eigentlich das gleiche). Selbst eine 160gb 7k250 ist einer 120gb vorzuziehen, da die 120er bei gleicher Platter-Zahl einen Kopf weniger hat (nutzt eine Oberfläche weniger).

Ganz nebenbei kann man auf dem Bild gut erkennen, dass meine 200er Platte einen höheren Durchsatz am Ende macht, als die 160er (fast 5mb/s Unterschied)!

Evtl. werden die Platter garnicht bis zum Innenrand beschrieben, da auch die 250er meines Wissens mit 3 Plattern arbeitet, also mehr drauf gequetscht wird.

Auf den Leistungsunterschied der Treiber wollte ich garnicht eingehen, sondern nur klar machen, dass das Bild mit Standard-Treibern kaum anders aussieht (da ich ein Bild mit nVidia-Treiber gepostet hatte).
 
Zuletzt bearbeitet:
Wenn also ein Platter dazukommt, dann habe ich pro Spur (ohne Armbewegung) mehr Daten, ergo werden die gleichen Daten auf der größeren Platte schneller bedient.
Dafür ist die durchschnittliche Zugriffszeit bei der größeren auch minimal besser. Ich bezweifle allerdings, dass das in der Praxis wirklich so viel bringt.

Noch mal deutlich: Die gleichen Daten (in diesem Fall Audiospuren) werden auf der größeren Platte schneller bedient, da sie sich mehr im schnelleren äußeren Bereich aufhalten werden (übrigens auch abhängig von der Fragmentierung), und diese auf mehrere Oberflächen/Köpfe verteilt werden.
Dir ist leider immer noch nicht aufgefallen, dass ich auf was ganz anderes hinaus will. Sicherlich ist eine größere Platte schneller, wenn man sich nur auf den schnellen Außenbereich beschränkt. Nimmt man allerdings den langsamen Innenbereich hinzu, egalisiert sich dieser Leistungsvorsprung. Im Übrigen meine ich mit "Kapazitätsfenster" den schnellen Außenbereich. Sieht man es in einem gewissen Fenster, wie du es anscheinend die ganze Zeit tust, ist die größere natürlich schneller. Dann passt aber deine Aussage, dass die größeren Platten über die gesamte Kapazität einen besseren Durchsatz haben, einfach nicht ins Bild. Du siehst lediglich ein gewisses Kapazitätsfenster, schreibst aber von der gesamten Kapazität. Verstehst du jetzt was ich meine?

Ich frage mich dann auch noch was du mit Audiospuren willst? Meinst du etwas Audio-Dateien? Sowas wie Audiospuren gibt es bei HDDs nicht.

Deine 200 GB Platte ist übrigens eine 250 GB Platte. Eine HDD mit 200 GB gibt es nicht von Hitachi. Und das 250er Modell hat in der Tat eine etwas höhere Datendichte (93,5 TPI gegenüber 90 TPI), was allerdings nur die Spurdichte betrifft. Das kann allerdings die etwas höhere Transferrate der 250 GB Platte am Ende erklären.
 
Nichts für ungut, wir sollten hier keinen Kleinkrieg vom Zaun brechen! :shot: :wink:

Wenn ich "über die gesamte Kapazität" schrieb (übrigens als schnelle Antwort, ohne die Wahl meiner Worte genau zu überdenken), dann meinte ich die Kapazität der ersten 120gb, also das von Madnex beschriebene "Fenster".

Die größere Festplatte ist also in den 120gb schneller, als eine 120gb-Festplatte.

Wie man am Beispiel meiner zwei Festplatten 160<->200 sehen kann, ist es aber durchaus möglich, dass die größere auch am Ende noch schneller ist (bis zu 5mb/s in meinem Fall), als die kleinere. :bigok:

Sodale, und nach all der Kleinkrämerei noch kurz der Hinweis, dass meine Festpladde natürlich ein 200gb-Modell ist. Welches nebenbei bemerkt zum Kaufzeitpunkt wesentlich günstiger war, als das 250er (als damaliges Topmodell).

Im Grunde handelt es sich aber wahrscheinlich um ein kastriertes 250er-Teil, sei es durch geringere Datendichte, oder dass am Ende der Platter einfach ein Bereich frei gelassen wurde (hatte Maxtor oder Seagate so auch schonmal gemacht), um ein günstigeres Modell anbieten zu können. :wayne:

Achja: Mit Audio-Spuren meine ich die Audio-Spuren/Tracks/whatever, die User Thett (der Fragende) in seiner Audio-Software/Sequencer benutzt (Cubase, Cakewalk, ProTools, Logic, whatever).

Es ging mir nämlich ursprünglich um die Frage, welche Festplatte sich gut zur einigermassen professionellen Audiobearbeitung eignet! Allerdings sehe ich gerade, dass er in seinen Audio-Rechner eine neue Systemplatte bauen will... :hmm:

Mein Tip: Nimm die leiseste und günstigste, und Kauf evtl. noch was Speicher um das Auslagern beim Arbeiten mit Softsynths oder großen Audio-Projekten zu verhinden.
 
Zuletzt bearbeitet:
Schön, dass du mich jetzt verstanden hast :).

Sodale, und nach all der Kleinkrämerei noch kurz der Hinweis, dass meine Festpladde natürlich ein 200gb-Modell ist. Welches nebenbei bemerkt zum Kaufzeitpunkt wesentlich günstiger war, als das 250er (als damaliges Topmodell).

Im Grunde handelt es sich aber wahrscheinlich um ein kastriertes 250er-Teil, sei es durch geringere Datendichte, oder dass am Ende der Platter einfach ein Bereich frei gelassen wurde (hatte Maxtor oder Seagate so auch schonmal gemacht), um ein günstigeres Modell anbieten zu können.
Hm.. dann handelt es sich entweder um ein OEM Modell oder um eine Austauschplatte (also eine reparierte). Denn ein 200 GB Modell gibt es offiziell, zumindest für den Endkundenmarkt, nicht von Hitachi. In beiden Fällen solltest du jetzt mal auf der Herstellerwebseite die gewährte Garantiezeit überprüfen. Für OEM Laufwerke gibt es nämlich keine Herstellergarantie für Endkunden.

Und bezüglich der Eignung von Platten für Audiobearbeitung. Da gibt es keine Unterschiede. Im Übrigen hat er nicht danach gefragt, sondern nach einer möglichst schnellen und zuverlässigen Platte ;).
 
Zuletzt bearbeitet:
Alles in allem frage ich mich gerade, ob mit "Musikrechner" überhaupt Audio-Bearbeitung gefragt war?! Wohl eher 'ne MP3-Abspieldose... :]
 
ich denke (auch) eher ´ne musicbox, sonst wäre hier die diskussion mit kompatibilität von grösseren platten gar nicht erst aufgekommen :fresse:
 
Hi, danke schonmal für die zahlreichen Antworten :)

@ Madnex:
Es ist ein
Asrock K7VT2 Board.
 
Gut, das Board ist Ultra-ATA/133 fähig und kann somit auch mit Platte größer als 128 GiB umgehen.
 
Das klingt gut! :)

Ich denke wir werden zu einer 160er Platte greifen. Am besten mit 8 MB Cache oder?

Samsung scheint aber leider echt einige Ausfälle zu haben...
 
Was meint Ihr? Hitachi? Samsung? Oder gar eine Western Digital?
 
Samsung Spinpoint 1614N bzw 1613N , je nachdem ob er 120gb oder 160gb haben will ;)
 
Bin für Hitachi, aber das ist immer ne persönliche Meinung.

Zum Kalibrierungsgeräusch:

Da hat Hitachi doch, da sich etliche User darüber beschwert haben, eine andere Firmware raus gebracht, welche das Kalibrieren langsamer, aber eben auch leiser, ausführt.

Nur ma am Rande erwähnt ... ich hab noch die alte FW drauf und es hört sich wie "quietschen" an. Ich finds lustig und bei meinen Hitachis gilt das gleiche wie für meine alten IBM Platten -> Wenn die IMMER ruhig wären, würde ich Angst bekommen. :fresse:

Die neuen haben aber sicherlich alle die neue FW drauf, langsamer wird die Platte dadurch NICHT, nur die Kalibrierung dauert eben etwas länger. Dazu gab es mal nen Thread auf Planet3dnow. :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh