Areca ARC-1680(i) SAS Performance

Birdman

Neuling
Thread Starter
Mitglied seit
05.08.2004
Beiträge
51
In einem älteren Thread wurden mal Bedenken geäussert, dass die Areca (SAS) Controller gerade bei I/O ziemlich schlecht im Vergleich zum Rest der Welt abschneiden - vor allem basierend auf dem Testbericht von www.tomshardware.com

Ich habe nun selber 2 von den ARC-1680i SAS Controller zur Hand, in jeweils 2 baugleichen Systemen (Supermicro 5025M) mit Core2Quad CPU und 4GB Ram.
Dazu stecken in einem System 8x die 1TB, 7200rpm SATA Disk von Western Digital und im andern System 4x eine 300GB SAS, 15k rpm Disk von Seagate drin.
Zur WD gibts noch zu sagen, dass dies eine "Greenpower" Version ist und Gerüchten zufolgen mitunter auch nur mit 5400rpm läuft. (evtl. dynamisch gesteuert?)

Anyway, ich habe beide Rigs mal durch den IOMeter gejagt, mit den identischen Benchmarkpattern wie bei Tomshardware.

Zur Erinnerung, bei Tomshardware kam folgendes raus: (da waren acht 10k SAS Disks im Einsatz)
raid5-fileserver.png

und
raid5-workstation.png


Bei meinem Test mit folgenden Settings
- Raid5
- Stripesize: 64kB
- Write Back Cache
kam bei den selben Tests folgendes raus:

FileServer Testpattern auf 8x WD 1TB SATA:
Q1: 128
Q2: 208
Q4: 298
Q8: 389
Q16: 522
Q32: 616
Q64: 634

Workstation Testpattern auf 8x WD 1TB SATA:
Q1: 146
Q2: 232
Q4: 327
Q8: 443
Q16: 672
Q32: 656
Q64: 659

Auch wenn die Resultate generell langsamer sind als dieder andern Controller von Tomshardware, sieht man dass es trotzdem deutlich besser ist als was Onkel Tom da beim Areca gemessen hat....und nicht vergessen, das waren hier nur langsame 1TB SATA Disks.


Kommen wir nun zu den SAS Disks:

Fileserver Testpattern auf 4x Seagate 300GB SAS:
Q1: 267
Q2: 217
Q4: 588
Q8: 808
Q16: 1027
Q32: 1062
Q64: 1071

Workstation Testpattern auf 4x Seagate 300GB SAS:
Q1: 279
Q2: 427
Q4: 628
Q8: 851
Q16: 1070
Q32: 1123
Q64: 1142

Bis zu einer Queue Tiefe von 16 zieht der Areca hier alles ab was bei www.tomshardware.com getestet wurde, danach bricht er aber ein und bringt kaum mehr eine Steigerung. Ob dies nun daran liegt dass ich nur 4 Disks hatte und damit bereits bei einer Queue von 16 am Limit war kann ich leider nicht sagen, dazu müsste ich mal eine weitere Disk kaufen :d
Aber man erkennt deutlich, dass die Performance um Welten besser ist als was beim Tom gebencht wurde - und das wie gesagt, bei nur 4 Disks.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Servus,

die WD laufen nur mit 5400rpm. Wechselnde Geschwindigkeiten sind bei keinem Hersteller möglich. Sollte Marketinggags haben auch schon andere Hersteller geliefert. Danke für den interessanten Test.

Grüße
trpd
 
Hey Birdman,

ich will meine auch mal als Vergleich hier posten. Ebenfalls wie Du mit Q1, Q2, ...
wie lange lief dieser Test? 5 Minute? Und 60 Sekunden Schnitt?
 
@worf1001

Der läuft an sich durch wenn man ihn lässt :d
Ich habe es so gemacht, dass ich einen Test von Sektor 0 - 8192000 (schauen dass man vorher das iobw.tst file auf dem zu testenden Drive gelöscht hat) genommen habe.
Dann erstellt er dieses File zuerst (geht ca 5min und sollte ~4GB gross werden) und macht danach direkt den Benchmark. Lässt man den laufen wird er nach ein paar Stunden auch mal fertig (bei seq. read Benchmarks schafft er das auch in 30min).
Da sich aber die Resultate nach 4-5min kaum mehr ändern, stoppe ich da jeweils und nehme den "infinity" Wert...wobei der bis auf die nachkomma stellen identisch mit den kürzeren Intervallen ist.
Die weiteren Benchmarks lässt man dann mit dem selten Testfile laufen, solange man die Sectoren nicht ändert passt das.
 
Zuletzt bearbeitet:
ich bin nicht sicher ob ich richtig verstehe,

habe jetzt folgendes eingestellt:

Starting Disk Sector: 0
Maximum Disk Size: 8192000
Access Spezifikation: Workstation
Resultat Display: 5 Sekunden
Run Time: 2 Minuten
Cycling Optionen: Cycle # Outstanding I/Os ....
# of Outstanding I/Os = Start: 1 / End: 64 / Power: 2 / Exponential Stepping

Ist das richtig?
 
So habe jetzt auch mal die zwei Tests Workstation und FileServer bei mir laufen lassen. Die Einstellungen sind 5 Disks im RAID5 mit einer StripeSize von 256kb, was dem Standard bei meinem Kontroller entspricht.

Die Einstellungen von IOMeter habe ich so genommen wie oben beschrieben.

Komisch, warum ist das so viel höher als bei dir?
 

Anhänge

  • IOMeter_FileServer_5min.jpg
    IOMeter_FileServer_5min.jpg
    22,7 KB · Aufrufe: 38
  • IOMeter_Workstation_5min.jpg
    IOMeter_Workstation_5min.jpg
    18,7 KB · Aufrufe: 28
Ich habe den selben Test jetzt noch über die gesamte Platte gemacht. Nun sieht das ganze natürlich schon etwas anders aus.

Ich denke, @Birdman, wenn Du den Test über die gesamte Platte machen würdest, würden sich deine Wert ebenfalls mehr dem Test von TOM angleichen.

Anbei das Ergebnis des Workstation-Testpattern:
 

Anhänge

  • IOMeter_Workstation_5min_ganze_Platte.jpg
    IOMeter_Workstation_5min_ganze_Platte.jpg
    23,7 KB · Aufrufe: 34
Und nun das Ganze im RAID0, auch über die gesamte Platte hinweg:
 

Anhänge

  • IOMeter_Workstation_5min_ganze_Platte_RAID0.jpg
    IOMeter_Workstation_5min_ganze_Platte_RAID0.jpg
    27,3 KB · Aufrufe: 30
jetzt noch im RAID10. Anscheindend ist RAID10 mit 6 Platten schneller als RAID5. Bei einem Ausfall: Im schlimmsten Fall kann eine Platte kaputt gehen, im besten Fall 3 gleichzeitig.
 

Anhänge

  • IOMeter_Workstation_5min_ganze_Platte_RAID10.jpg
    IOMeter_Workstation_5min_ganze_Platte_RAID10.jpg
    25,8 KB · Aufrufe: 29
Hier noch der Test des sequentiellen Lesen mit 32kb.

Anscheinend ist bei meinem Kontroller einfach bei einer Queue von 16 Schluss, danach gehts bergab. Komisch!
 

Anhänge

  • IOMeter_Sequentiell32kb_5min_ganze_Platte_RAID10_IO_pro_s.jpg
    IOMeter_Sequentiell32kb_5min_ganze_Platte_RAID10_IO_pro_s.jpg
    27 KB · Aufrufe: 32
  • IOMeter_Sequentiell32kb_5min_ganze_Platte_RAID10_MB_pro_s.jpg
    IOMeter_Sequentiell32kb_5min_ganze_Platte_RAID10_MB_pro_s.jpg
    21,9 KB · Aufrufe: 27
Zuletzt bearbeitet:
Wenn man die IOLeistung betrachtet, scheint mein Kontroller doch schneller zu sein als Deiner. Gut okay, ich habe sechs Platten im Verbund, du nur 4.

Habe mich jetzt momentan für ein RAID10 der sechs Platten entschieden. Wie ich bemerkt habe, bringt ein RAID10 die bessere IO-Leistung als ein RAID5. Und wenn der Platz reicht, sicherer ist es dann auch noch.
 
Wir verwenden wo's auf Performance draufankommt auch immer Raid10
Raid5 ist an sich Crap, wird heute aber leider zu viel eingesetzt....scheint zu sehr in Mode zu sein.
Man verliert mit Raid10 halt einfach zu viel Space, vor allem wenn man es mit 6 oder mehr Disks macht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh