Seite 82 von 395 ErsteErste ... 32 72 78 79 80 81 82 83 84 85 86 92 132 182 ... LetzteLetzte
Ergebnis 2.026 bis 2.050 von 9867
  1. #2026
    Kapitän zur See
    Registriert seit
    19.04.2012
    Beiträge
    3.386


    • Systeminfo
      • Motherboard:
      • ASRock Z370 Gaming-ITX
      • CPU:
      • Intel i7-8700K @ 5 Ghz
      • Kühlung:
      • WaKü (CPU+GPU @ MO-RA3 420)
      • Gehäuse:
      • Ncase M1 v5
      • RAM:
      • 32 GB G.Skill DDR4 @ 3733 CL16
      • Grafik:
      • EVGA GTX 1070 @ 2 Ghz
      • Storage:
      • 500 GB Samsung 960 EVO @ kryoM.2 micro
      • Monitor:
      • LG Electronics 27GK750F-B
      • Netzwerk:
      • Vodafone Cable @ 200/12 Mbit/s
      • Sound:
      • M-Audio AV32 @ Equalizer APO
      • Netzteil:
      • Corsair SF450 450W
      • Betriebssystem:
      • Windows 10 Pro 1809 x64
      • Sonstiges:
      • Ducky Miya Pro Panda Edition + Logitech G305
      • Notebook:
      • Tablets: HP Omni 10 + Amazon Fire HD 8
      • Photoequipment:
      • Nikon D3300 + AF-P VR DX 18-55mm
      • Handy:
      • Xiaomi Mi A1

    Standard

    Guten morgen,

    kleine Frage gibt es bei ZFS v28 und "echten" 4 KB Sektoren HDDs etwas zu beachten, hatte bisher immer nur max. 512 Byte (4 KB mit Emulation) Samsung 2 TB HDDs? Muss man vorher ein GPT Label schreiben (MBR wär ja falsch oder?), oder gibt es da nichts zu beachten?

    Ah schon gefunden http://blog.monsted.dk/?q=node/1
    Geändert von AG1M (23.06.12 um 11:12 Uhr)

  2. Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

  3. #2027
    Bootsmann Avatar von antilope114
    Registriert seit
    12.01.2012
    Ort
    Limbo
    Beiträge
    646


    • Systeminfo
      • Betriebssystem:
      • Linux
      • Handy:
      • Apple iPhone 5S

    Standard

    Habe 4 SAS Platten an meinem 9211-4i, eine davon würde ich gerne gegen ein neues Laufwerk tauschen. Wie kann ich ohne trial and error herausfinden, welche Platte am Controller Disk 0 ist?

    andreas@linda:~# format -e
    Searching for disks...done


    AVAILABLE DISK SELECTIONS:
    0. c0t5000C50034013A43d0 <SEAGATE-ST33000650SS-0002-2.73TB>
    /scsi_vhci/disk@g5000c50034013a43

    1. c0t5000C5003401598Fd0 <SEAGATE-ST33000650SS-0002-2.73TB>
    /scsi_vhci/disk@g5000c5003401598f
    2. ....

    edit/ Hab's - wen es interessiert:

    smartctl -d scsi -a /dev/rdsk/c0t5000C50034013A43d0 | grep "Serial"
    zeigt mir die Seriennummer an.
    Geändert von antilope114 (23.06.12 um 15:32 Uhr)
    Laptop: ThinkPad X220 | Core i7-2640M | 16 GB Ram | Intel SSD DC S3510 120GB | 3G HSPA | Intel Centrino Ultimate-N 6300 | Ubuntu 16.04 64-bit
    Server: 6x3TB SAS RAID10 (Solaris 11.3) | LSI 9211-8i | Supermicro X8SIL-F | Intel Xeon X3440 | 32 GB PC3-8500R reg ECC | Intel PCIe PRO/1000 PT Dual Port Server NIC | HP ProCurve 1810-8G [powered by ESXi 5.5U3 and pfSense 2.3.3-RELEASE-p1]
    Handy: iPhone SE 128GB

  4. #2028
    Oberstabsgefreiter
    Registriert seit
    31.01.2007
    Beiträge
    494


    Standard

    Gibt es eigentlich eine Möglichkeit das alle Platten auf einmal aus dem Standby aufwachen? Das dauert bei 5 Disks im RaidZ1 immer unglaublich lange weil die nacheinander einen Spinup machen.

  5. #2029
    Kapitän zur See
    Registriert seit
    19.04.2012
    Beiträge
    3.386


    • Systeminfo
      • Motherboard:
      • ASRock Z370 Gaming-ITX
      • CPU:
      • Intel i7-8700K @ 5 Ghz
      • Kühlung:
      • WaKü (CPU+GPU @ MO-RA3 420)
      • Gehäuse:
      • Ncase M1 v5
      • RAM:
      • 32 GB G.Skill DDR4 @ 3733 CL16
      • Grafik:
      • EVGA GTX 1070 @ 2 Ghz
      • Storage:
      • 500 GB Samsung 960 EVO @ kryoM.2 micro
      • Monitor:
      • LG Electronics 27GK750F-B
      • Netzwerk:
      • Vodafone Cable @ 200/12 Mbit/s
      • Sound:
      • M-Audio AV32 @ Equalizer APO
      • Netzteil:
      • Corsair SF450 450W
      • Betriebssystem:
      • Windows 10 Pro 1809 x64
      • Sonstiges:
      • Ducky Miya Pro Panda Edition + Logitech G305
      • Notebook:
      • Tablets: HP Omni 10 + Amazon Fire HD 8
      • Photoequipment:
      • Nikon D3300 + AF-P VR DX 18-55mm
      • Handy:
      • Xiaomi Mi A1

    Standard

    Hallo,

    bin gerade am optimieren was mir als Geschwindigkeitszuwachs helfen könnte (man ist ja nie zufrieden)

    So sieht mein aktueller zpool (v28) aus:

    Code:
      pool: storage
     state: ONLINE
     scan: none requested
    config:
    
            NAME         STATE     READ WRITE CKSUM
            storage      ONLINE       0     0     0
              mirror-0   ONLINE       0     0     0
                da0      ONLINE       0     0     0
                da1      ONLINE       0     0     0
              mirror-1   ONLINE       0     0     0
                da2      ONLINE       0     0     0
                da3      ONLINE       0     0     0
            logs
              mirror-2   ONLINE       0     0     0
                ada0s1a  ONLINE       0     0     0
                ada1s1a  ONLINE       0     0     0
            cache
              ada0s1b    ONLINE       0     0     0
              ada1s1b    ONLINE       0     0     0
    da0 bis da3 sind vier normale 2 TB SATA2 HDDs, ada0 + ada1 sind jeweils zwei 60 GB Intel SSDs, soweit so gut. 16 GB Ram stehen dem Host zur Verfügung, die FreeBSD 9.0 boot/loader.conf ist schon auf die 16 GB Ram optimiert. (FreeBSD Evil ZFS Tuning usw.)

    Nun ist ja Standardmäßig ZFS "primarycache" + "secondarycache" auf "all" gesetzt, nun habe ich aber Testweise mal nur auf "metadata" gestellt und gleich einen Performanceboost bekommen beim kopieren. Seltsam war es aber das ich Datenraten von etwa max. 131 MB/s hatte und kurz vorm Ende ging es runter auf 8 MB/s dann wieder nach oben auf 100+ MB/s, zwischendurch immer mal auf bis 75 MB/s runter, eben sehr schwankend. Es handelt sich dabei aber nur um eine 10 GB große Image Datei. Der Kopiertest erfolgte auf eine Wechselfestplatte, welche auch 2 TB groß war und als ZFS pool mit nur einer Disk eingestellt war. Ist diese Schwankung "normal"?

    Bei der Orcalehilfe steht:

    primarycache – Kontrolliert, was im ARC gespeichert wird.
    secondarycache – Kontrolliert, was im L2ARC gespeichert wird.

    Mögliche Werte für beide Eigenschaften – all, none und metadata. Ist diese Eigenschaft auf all gesetzt, werden sowohl Benutzerdaten als auch Metadaten im Cache gespeichert. Ist diese Eigenschaft auf none gesetzt, werden weder Benutzerdaten noch Metadaten im Cache gespeichert. Ist diese Eigenschaft auf metadata gesetzt, werden nur Metadaten im Cache gespeichert. Die Standardeinstellung ist all.
    Könnt ihr mir etwas helfen, wie man nun die optimale/stabile Schreibperformance das ganze Einstellen sollte? Danke

  6. #2030
    Flottillenadmiral
    Registriert seit
    02.09.2009
    Beiträge
    6.101


    Standard

    Zitat Zitat von AG1M Beitrag anzeigen
    Guten morgen,

    kleine Frage gibt es bei ZFS v28 und "echten" 4 KB Sektoren HDDs etwas zu beachten, hatte bisher immer nur max. 512 Byte (4 KB mit Emulation) Samsung 2 TB HDDs? Muss man vorher ein GPT Label schreiben (MBR wär ja falsch oder?), oder gibt es da nichts zu beachten?

    Ah schon gefunden Fixing the ZFS ashift problem on FreeBSD | blog.monsted.dk
    also nach meinen Infos gibt es (noch) keine echten 4K Laufwerke, die AF Laufwerke emulieren allesamt eine Sektorgrösse von 512 Byte an der Schnittstelle (SATA), d.h. die Platten haben intern 4K Sektoren, werden aber wie ALLE Platten mit 512 Byte Sektoren adressiert!!

    Ich verstehe in diesemn Zusammenhang die 4KB Emulation nicht - meinst du die Clustergrösse vom Dateisystem?
    Geändert von Digi-Quick (24.06.12 um 00:18 Uhr)

  7. #2031
    Obergefreiter
    Registriert seit
    15.08.2008
    Beiträge
    69


    Standard

    hi,

    bin auf meiner zfs recherche auf den thread hier gestoßen.
    ich will meinen backuprechner bzw mediapc neu aufsetzen und würde gerne ZFS wegen der sicherheit und deduplikation verwenden, jedoch will ich definitiv verschlüsselung.
    unter linux wäre ja wahrscheinlich LUKS die beste wahl?
    wie kombiniere ich das mit zfs? brauch ich zfs-fuse? ist ja langsamer als die zfs implementierungen im kernel wenn ich das richtig verstanden habe.
    kann ich erst das os booten, dann die disks mit luks mounten und dann zfs aktivieren?

    thx & gruß,
    soomon

  8. #2032
    Matrose
    Registriert seit
    10.02.2011
    Beiträge
    14


    Standard Zfs cheksumming

    Hey ho
    Wenn ich mit ZVOL ein virtuelles Block device innerhalb eines Zpools erzeuge; wird dann jeder Block dieses Device auch mit einer ckecksum versehen?

    Vielen Dank

  9. #2033
    Bootsmann Avatar von antilope114
    Registriert seit
    12.01.2012
    Ort
    Limbo
    Beiträge
    646


    • Systeminfo
      • Betriebssystem:
      • Linux
      • Handy:
      • Apple iPhone 5S

    Standard

    Zitat Zitat von gr4y5ky Beitrag anzeigen
    Hey ho
    Wenn ich mit ZVOL ein virtuelles Block device innerhalb eines Zpools erzeuge; wird dann jeder Block dieses Device auch mit einer ckecksum versehen?

    Vielen Dank
    Die Frage ist nicht ganz eindeutig: zvols bzw. LUNs werden von ZFS nur als Ganzes mit chksums versehen, die Inhalte sind für ZFS nicht transparent.

    Zitat Zitat von soomon Beitrag anzeigen
    hi,

    bin auf meiner zfs recherche auf den thread hier gestoßen.
    ich will meinen backuprechner bzw mediapc neu aufsetzen und würde gerne ZFS wegen der sicherheit und deduplikation verwenden, jedoch will ich definitiv verschlüsselung.
    Du brauchst für dein Vorhaben kein dedup. Um genau zu sein brauchen 98% der Anwender kein dedup weil sie meist nichtmal die notwendigen Hardware-Vorraussetzungen (d.h. genug RAM für die dedup-table) mitbringen.
    Für Backups ist ein ext4-Dateisystem mit LUKS vollkommen ausreichend. Ich würde sogar argumentieren, dass du mit zfs-fuse schlechter gestellt bist unter Linux als mit ext4, das nativ im Kernel integriert ist.
    Geändert von antilope114 (25.06.12 um 23:55 Uhr)
    Laptop: ThinkPad X220 | Core i7-2640M | 16 GB Ram | Intel SSD DC S3510 120GB | 3G HSPA | Intel Centrino Ultimate-N 6300 | Ubuntu 16.04 64-bit
    Server: 6x3TB SAS RAID10 (Solaris 11.3) | LSI 9211-8i | Supermicro X8SIL-F | Intel Xeon X3440 | 32 GB PC3-8500R reg ECC | Intel PCIe PRO/1000 PT Dual Port Server NIC | HP ProCurve 1810-8G [powered by ESXi 5.5U3 and pfSense 2.3.3-RELEASE-p1]
    Handy: iPhone SE 128GB

  10. #2034
    gea
    gea ist offline
    Kapitän zur See
    Registriert seit
    16.11.2010
    Beiträge
    3.514


    Standard

    Zitat Zitat von soomon Beitrag anzeigen
    hi,

    bin auf meiner zfs recherche auf den thread hier gestoßen.
    ich will meinen backuprechner bzw mediapc neu aufsetzen und würde gerne ZFS wegen der sicherheit und deduplikation verwenden, jedoch will ich definitiv verschlüsselung.
    unter linux wäre ja wahrscheinlich LUKS die beste wahl?
    wie kombiniere ich das mit zfs? brauch ich zfs-fuse? ist ja langsamer als die zfs implementierungen im kernel wenn ich das richtig verstanden habe.
    kann ich erst das os booten, dann die disks mit luks mounten und dann zfs aktivieren?

    thx & gruß,
    soomon
    ein paar Gedanken dazu:

    - ZFS Verschlüssellung im Dateisystem gibt es auschließlich (mit Vor- und Nachteilen) bei Oracle Solaris 11
    - ZFS Verschlüssellung auf verschlüsselten Devices/ Dateien gibt es bei any Solaris/ OpenIndiana/ FreeBSD/ Linux
    - ZFS/ Fuse ist ein nogo: Kernel Implementierung bei Linux nehmen;
    das schnellste/neueste/stabilste ZFS und den besten SMB/iSCSI Server gibts bei Solaris/OI
    - dedup ist nur bei ganz wenigen Anwendungen sinnvoll: braucht immens RAM (realtime dedup)

  11. #2035
    Bootsmann Avatar von antilope114
    Registriert seit
    12.01.2012
    Ort
    Limbo
    Beiträge
    646


    • Systeminfo
      • Betriebssystem:
      • Linux
      • Handy:
      • Apple iPhone 5S

    Standard

    Bei meinen SAS-Platten bemerke ich, dass die (sequentielle) Performance über NFS ab etwa 60-70% Füllstand merklich nachlässt. Dateien die früher geschrieben wurden kann ich mit 80-90 MB/s lesen, solche, die bei höherem Füllstand dazukommen (also ab der genannten Grenze etwa) teilweise nur mit 40-50 MB/s.

    Gibt es Best Practices zum "optimalen" Füllstand? Habe mal irgendwo gelesen, dass man die Festplatten idealerweise nicht mehr als 80% befüllt um nicht merklich an Performance zu verlieren.

    Theoretisch sollte das ja kein ZFS-spezifisches Problem sein, sondern in der Struktur der Magnet-Platter bzw. dem mechanischen Aufbau der Festplatte begründet liegen.
    Geändert von antilope114 (25.06.12 um 23:56 Uhr)
    Laptop: ThinkPad X220 | Core i7-2640M | 16 GB Ram | Intel SSD DC S3510 120GB | 3G HSPA | Intel Centrino Ultimate-N 6300 | Ubuntu 16.04 64-bit
    Server: 6x3TB SAS RAID10 (Solaris 11.3) | LSI 9211-8i | Supermicro X8SIL-F | Intel Xeon X3440 | 32 GB PC3-8500R reg ECC | Intel PCIe PRO/1000 PT Dual Port Server NIC | HP ProCurve 1810-8G [powered by ESXi 5.5U3 and pfSense 2.3.3-RELEASE-p1]
    Handy: iPhone SE 128GB

  12. #2036
    gea
    gea ist offline
    Kapitän zur See
    Registriert seit
    16.11.2010
    Beiträge
    3.514


    Standard

    Zitat Zitat von antilope114 Beitrag anzeigen
    Bei meinen SAS-Platten bemerke ich, dass die (sequentielle) Performance über NFS ab etwa 60-70% Füllstand merklich nachlässt. Dateien die früher geschrieben wurden kann ich mit 80-90 MB/s lesen, solche, die bei höherem Füllstand dazukommen (also ab der genannten Grenze etwa) teilweise nur mit 40-50 MB/s.

    Gibt es Best Practices zum "optimalen" Füllstand? Habe mal irgendwo gelesen, dass man die Festplatten idealerweise nicht mehr als 80% befüllt um nicht merklich an Performance zu verlieren.

    Theoretisch sollte das ja kein ZFS-spezifisches Problem sein, sondern darin begründet liegen, dass die Daten eben an den Rändern der Platter nicht mehr so dicht geschrieben werden.
    das sehe ich eher als "Fragmentierungsproblem".
    Je weniger freie Blöcke, desto weniger sequentielle Datentransfers.

    Ich würde kein Dateisystem mehr als 90% füllen, < 70% ist die sichere Seite

    ---------- Post added 26.06.12 at 00:02 ---------- Previous post was 25.06.12 at 23:58 ----------

    Zitat Zitat von gr4y5ky Beitrag anzeigen
    Hey ho
    Wenn ich mit ZVOL ein virtuelles Block device innerhalb eines Zpools erzeuge; wird dann jeder Block dieses Device auch mit einer ckecksum versehen?

    Vielen Dank
    Die Benennung ist nicht ganz eindeutig.
    ZFS schreibt alle Daten mit Prüfsummen auf Datenpools.
    Blockdevices (volumes) auf einem ZFS Pools sind Daten/devices, die wie eine Festplatte verwaltet werden.

    Davon unabhängig sind das ZFS Daten - die immer mit Prüfsumme geschrieben werden.

  13. #2037
    Bootsmann Avatar von antilope114
    Registriert seit
    12.01.2012
    Ort
    Limbo
    Beiträge
    646


    • Systeminfo
      • Betriebssystem:
      • Linux
      • Handy:
      • Apple iPhone 5S

    Standard

    Zitat Zitat von gea Beitrag anzeigen
    Ich würde kein Dateisystem mehr als 90% füllen, < 70% ist die sichere Seite
    Weißt du, nach welchem Algorithmus zfs Daten beispielsweise bei einem striped mirror auf einzelne vdevs alloziert?
    Laptop: ThinkPad X220 | Core i7-2640M | 16 GB Ram | Intel SSD DC S3510 120GB | 3G HSPA | Intel Centrino Ultimate-N 6300 | Ubuntu 16.04 64-bit
    Server: 6x3TB SAS RAID10 (Solaris 11.3) | LSI 9211-8i | Supermicro X8SIL-F | Intel Xeon X3440 | 32 GB PC3-8500R reg ECC | Intel PCIe PRO/1000 PT Dual Port Server NIC | HP ProCurve 1810-8G [powered by ESXi 5.5U3 and pfSense 2.3.3-RELEASE-p1]
    Handy: iPhone SE 128GB

  14. #2038
    gea
    gea ist offline
    Kapitän zur See
    Registriert seit
    16.11.2010
    Beiträge
    3.514


    Standard

    Zitat Zitat von antilope114 Beitrag anzeigen
    Weißt du, nach welchem Algorithmus zfs Daten beispielsweise bei einem striped mirror auf einzelne vdevs alloziert?
    Wenn auf allen vdevs ausreichend Platz ist würde ich sagen: gleichmäßig verteilt
    - denn nur dann hat man die addierte Performance alller Platten/vdevs
    Geändert von gea (26.06.12 um 01:11 Uhr)

  15. #2039
    Kapitänleutnant Avatar von drdope
    Registriert seit
    13.09.2006
    Ort
    NRW
    Beiträge
    1.894


    Standard

    Moin,

    Ich bin grad dabei mir einen (bzw. zwei) neue Fileserver basierend auf FreeNAS aufzubauen.
    Die Systeme sollen meinen bisherigen Gentoo-Fileserver ersetzen; der 2. Server soll als Backupserver für den ersten fungieren (via rSync) und wäre nicht dauerhaft in Betrieb bzw. aus Sicherheitsgründen nicht dauerhaft am Netz, sondern würde die meiste Zeit Off-Site stehen.

    Im Kontext von ZFS (es soll ein "einfaches" Raid-Z1 mit 6x 4TB eingesetzt werden) wird erwähnt, daß man ZFS pi mal Daumen 1GB RAM/TB HDD-Space gönnen sollte.
    Braucht man wirklich für eine Single-User Umgebung, die eh von der GB-LAN Anbindung der Server limitiert ist, so viel RAM?

    Oder bezieht sich diese Angabe eher auf reguläre Serverworkloads mit Multiuserzugriffen/hohen Ramdom-IO-Workloads, wo der RAM als Cache fungieren würde?

    Als Hardware soll folgendes zum Einsatz kommen:

    6 x Hitachi Deskstar 7K4000 4000GB, SATA 6Gb/s (0F14681/0S03363)
    1 x Intel Xeon E3-1230, 4x 3.20GHz, Sockel-1155, boxed (BX80623E31230)
    4 x Kingston ValueRAM Elpida DIMM 4GB PC3-10667E ECC CL9 (DDR3-1333) (KVR1333D3E9S/4GEC)
    1 x Supermicro X9SCL-F Retail, C202 (Sockel-1155, dual PC3-10667E DDR3)
    1 x Fractal Design Define Mini (FD-CA-DEF-MINI-BL)
    1 x Cougar A400 400W ATX 2.3

    Das ganze wird noch ergänzt um:

    --> http://geizhals.at/de/478381
    Da passen hinten direkt die Sata->USB Platinen aus diesen exteren Geäusen dran:
    --> http://geizhals.at/de/500065 (2x)
    Und dazu noch
    --> http://geizhals.at/de/720072

    Damit kriege ich dann noch zwei weitere 1TB 2,5' HDDs in das Gehäuse bzw. am Mainboard angeschlossen ohne einen zusätzlichen HDD-Controller verbauen zu müssen.
    USB 2.0 sollte von der Performance für die TimeMachine-HDD und perspektivisch den iTunes-Musik-Server def. ausreichen.
    Dann landen auf dem Array nur noch meine VideoFiles und Backups.

    Wenn meine Rechnung aufgeht, sollte das Ding dann ca. 75W bei 26TB Brutto schlucken, was man noch um 15W reduzieren könnte, wenn man statt 7200er auf 5400er HDDs setzt (die 4TB 5400er sind aber derzeit nirgends lieferbar).
    Geändert von drdope (26.06.12 um 06:24 Uhr)
    iMac 27' (late 2013) | iPad Pro 12.9' LTE | iPhone 5S | TimeCapsule (mid 2013)| Qnap TVS-671-PT-16G & UX-500p je 32TB brutto | Wetek Core

  16. #2040
    Stabsgefreiter
    Registriert seit
    28.12.2006
    Beiträge
    351


    Standard

    Kurze Anmerkung: 16GB Ram is schon OK, aber ich würde:

    - Solaris oder OI/Illumos statt Freenas nehmen, ZFS ist dort einfach deutlich schneller.
    - RaidZ2 verwenden, denn ein Resilver von vollen 4TB Platten dürfte 2 Tage dauern. Bei 6 Platten ist RaidZ2 auch von der Performance her besser. Ansonsten bei RaidZ1 nur 5 Platten nehmen.

    cu

  17. #2041
    Oberleutnant zur See
    Registriert seit
    01.04.2006
    Beiträge
    1.375


    • Systeminfo
      • Motherboard:
      • Gigabyte Z68X-UD3H-B3
      • CPU:
      • Intel 2600k @ 4.0Ghz
      • Systemname:
      • Sandy
      • Kühlung:
      • Mugen 2
      • Gehäuse:
      • Coolermaster Advanced II
      • RAM:
      • GEIL 2x4GB @ 1333Mhz
      • Grafik:
      • RX 480 GAMING X 8G
      • Storage:
      • 1xSamsung 840 Evo 250GB (System), 1x500GB WD HDD
      • Monitor:
      • 2xBenq G2411HD
      • Netzwerk:
      • ASG (Selbstbau)+HP 1810 J9450A
      • Sound:
      • Teufel Concept E Magnum, Creative Xfi music
      • Netzteil:
      • Cougar S 550
      • Betriebssystem:
      • elementary OS / Windows 10
      • Sonstiges:
      • FileServer Raid5 ~10TB (Debian 5) @ 3ware 9550SXU-12, Dockstar: Downloadserver, WLAN-AP, Printserver
      • Handy:
      • BQ Aquaris X5 Plus

    Standard

    - Solaris oder OI/Illumos statt Freenas nehmen, ZFS ist dort einfach deutlich schneller.
    Gibt es da vergleichswerte?

    Aber Freenas ist schon deutlich komfortabler als Solaris oder OI/Illumos. Da muss man schon Kompromisse machen.

  18. #2042
    Hauptgefreiter Avatar von c0d0s0
    Registriert seit
    07.03.2012
    Ort
    Am Arsch der Welt
    Beiträge
    202


    • Systeminfo
      • Betriebssystem:
      • so ziemlich alle
      • Handy:
      • Nokia 3210 :)

    Standard

    Vergleichswerte direkt hab ich nicht aber bei "lahmen" Kisten sind SMB Freigaben in Solaris flotter als in FreeNAS (obs an ZFS oder SMB liegt kann ich nicht sagen)
    Sobald die Kiste aber ne 1Gbit/s LAN auch unter FreeNAS voll ausreizen kann (geht mit der Config oben auf jeden Fall) merk ich dann persönnlich keinen Unterschied mehr. Könnte sein das ein RAIDZ unter Solaris intern schneller ist als unter FreeNAS aber die 1Gbit/s LAN sind für mich das Maß aller Dinge, mehr brauch ich persönnlich nicht. Cool find ich auch bei FreeNAS die Install des OS auf nen billigen USB Stick um die SATA Ports nur für Daten HDDs freizuhalten.
    Geändert von c0d0s0 (26.06.12 um 09:50 Uhr)

  19. #2043
    Oberleutnant zur See
    Registriert seit
    01.04.2006
    Beiträge
    1.375


    • Systeminfo
      • Motherboard:
      • Gigabyte Z68X-UD3H-B3
      • CPU:
      • Intel 2600k @ 4.0Ghz
      • Systemname:
      • Sandy
      • Kühlung:
      • Mugen 2
      • Gehäuse:
      • Coolermaster Advanced II
      • RAM:
      • GEIL 2x4GB @ 1333Mhz
      • Grafik:
      • RX 480 GAMING X 8G
      • Storage:
      • 1xSamsung 840 Evo 250GB (System), 1x500GB WD HDD
      • Monitor:
      • 2xBenq G2411HD
      • Netzwerk:
      • ASG (Selbstbau)+HP 1810 J9450A
      • Sound:
      • Teufel Concept E Magnum, Creative Xfi music
      • Netzteil:
      • Cougar S 550
      • Betriebssystem:
      • elementary OS / Windows 10
      • Sonstiges:
      • FileServer Raid5 ~10TB (Debian 5) @ 3ware 9550SXU-12, Dockstar: Downloadserver, WLAN-AP, Printserver
      • Handy:
      • BQ Aquaris X5 Plus

    Standard

    Hier mal ein Vergleich der verschiedenen Systeme:
    FreeNAS vs OpenSolaris ZFS Benchmarks » ZFS Build

    Freenas sch***t ziemlich ab in Sachen Performance.

    EDIT: leicht veraltet^^
    Geändert von MrDeluxe (26.06.12 um 10:05 Uhr)

  20. #2044
    Kapitänleutnant Avatar von bluesunset
    Registriert seit
    09.01.2012
    Ort
    Bayern - Ingolstadt
    Beiträge
    1.656


    • Systeminfo
      • Motherboard:
      • Intel SDS2 2x 2x64bit PCI, 2x32bit PCI, Dual U160
      • CPU:
      • 2x Intel P3-S 1400MHz
      • Systemname:
      • Backup - System-HDD 74GB Fujitsu 15k rpm SCSI
      • Kühlung:
      • Intel Boxed Kühler PWM
      • Gehäuse:
      • Coolermaster Stacker Version 1
      • RAM:
      • 6GiB regECC Kingston 133MHz SD
      • Grafik:
      • Matrox G450 32MiB, PCI
      • Storage:
      • 3ware 9550SXU 4-LP 4x 500GB ES.2
      • Monitor:
      • 2x Eizo SX2462W, Samsung Synmaster 21 Zoll CRT BNC
      • Netzwerk:
      • 4xGb Intel NIC, 4x2Gb FC Atto
      • Sound:
      • Canton R1 Audionet Max Mono, Marantz SC11, Rega P7
      • Netzteil:
      • 430 Watt Seasonic S12 II
      • Betriebssystem:
      • Debian 7.6, FreeBSD 9.1, Irix
      • Sonstiges:
      • Microsoft Natural Keyboard, stabiler Tisch, Bürodrehstuhl und Beleuchtung, Rollei 6008 MF Ausrüstung
      • Notebook:
      • 15,4&quot; WSXGA+ 1680x1050 matt, 9 Jahre alt Travelmate 8100 PCIe X700 ATI, Gbit Lan, 250GB WD 2.5&quot; PATA
      • Photoequipment:
      • 1V, 85 II, 100 IS, 16-35 II, 14 II, 580 EX II, Zeiss 100, 50 | EOS 6D | Leica M6 TTL, R8, 2,8/180 II
      • Handy:
      • Always on? Nein Danke!

    Standard

    FreeNAS verwendet ja auch immer noch einen alten ZFS Versionsstand. Kein v28 wie ein FreeBSD 9.0
    SUA3000RMXLI3U, 4xSUA1500I SNMP | Nortel ERS 5530-24TFD, 2x 4526GTX | Verkauf 10G Eth NIC
    [HTPC] Athlon2 X2 245e | 4GiB DDR3 1066MHz ECC | Asus 890FX | DVB-S2: Hauppauge Nova HD2 | 500GB Seagate LP5900 | Case: Origen AE 16V | ~ 40W idle | [Wdachi, Seasung, Toshitsu] ©
    [IBM X3850] 4x Intel 7120N DC Xeon | 32GiB DDR2 400MHz regECC, gespiegelt - 16GiB | 6x74GB 2.5" 10k SAS | 2x PCI-X 266 und 4x PCIe 8x Hot-Plug Steckplätze | ~ 720W idle
    [Storage] AMD 8120 FX | 4GiB DDR3 1066MHz ECC | Asus 890FX Crosshair 4 Extreme AM3 Beta Bios 3027 | 8x74GB 3.5" Seagate 15k5 SAS - Raidz3 | HBA: LSI 9220 8i | 2x Kabel 1x SFF-8087 auf 4x SFF-8482 | 1x LTO1 | Case: Chenbro RM31408 || Fotos umsonst? Nein! (Link)
    [Backup] Adic Scalar 100 | 2x LTO1, FC, 72 Slot || IBM TS3200 | 2x LTO3 FH FC, 4HE 48 Slot

  21. #2045
    Hauptgefreiter Avatar von c0d0s0
    Registriert seit
    07.03.2012
    Ort
    Am Arsch der Welt
    Beiträge
    202


    • Systeminfo
      • Betriebssystem:
      • so ziemlich alle
      • Handy:
      • Nokia 3210 :)

    Standard

    Bei FreeNAS kommt v28 erst noch, bei NAS4free wird schon v28 benutzt.
    P.S: NAS4free ist der Nachfolger von FreeNAS 0.7x während FreeNAS 8.x eine Neuentwicklung ist.

  22. #2046
    Stabsgefreiter
    Registriert seit
    28.12.2006
    Beiträge
    351


    Standard

    Freenas 8.2 hat ZFS V28, ist aber immer noch Beta.

  23. #2047
    gea
    gea ist offline
    Kapitän zur See
    Registriert seit
    16.11.2010
    Beiträge
    3.514


    Standard

    Zitat Zitat von MrDeluxe Beitrag anzeigen
    Gibt es da vergleichswerte?

    Aber Freenas ist schon deutlich komfortabler als Solaris oder OI/Illumos. Da muss man schon Kompromisse machen.
    FreeNas = FreeBSD + Web-UI
    OI = Server-OS ohne Web-UI aber mit grafischer Oberfläche (live-edition)

    Ein Web-UI gibt es für Solaris basierte Systeme aber mit Nexenta CE oder napp-it
    Der Komfort ist dann durchaus vergleichbar. Was bleibt ist der schnelle kernelbasierte CIFS Server bei
    Solaris, der SMB Sharing in ZFS integriert, mit funktionierenden Windows ACL und snapshots als
    Windows -Eigenschaft "vorherige version". Auch iSCSI und NFS sind unter Solaris einfach prima.

    Auch ist Solaris besser auf den Storagebetrieb vorbereitet und alles kommt aus einer Hand (Früher SUN jetzt Illumos). Bei FreeNAS muss erst noch einiges optimiert werden, damit alle Resourcen für ZFS nutzbar sind.

    Was für FreeNAS spricht, ist vor allem die größere Anzahl an Programmen, die ohne Ärger hinzu-
    installiert werden können (z.B. Mediaserver, DLNA etc)
    Geändert von gea (26.06.12 um 11:24 Uhr)

  24. #2048
    Kapitänleutnant Avatar von drdope
    Registriert seit
    13.09.2006
    Ort
    NRW
    Beiträge
    1.894


    Standard

    Zitat Zitat von c0d0s0 Beitrag anzeigen
    Vergleichswerte direkt hab ich nicht aber bei "lahmen" Kisten sind SMB Freigaben in Solaris flotter als in FreeNAS (obs an ZFS oder SMB liegt kann ich nicht sagen)
    Sobald die Kiste aber ne 1Gbit/s LAN auch unter FreeNAS voll ausreizen kann (geht mit der Config oben auf jeden Fall) merk ich dann persönnlich keinen Unterschied mehr. Könnte sein das ein RAIDZ unter Solaris intern schneller ist als unter FreeNAS aber die 1Gbit/s LAN sind für mich das Maß aller Dinge, mehr brauch ich persönnlich nicht. Cool find ich auch bei FreeNAS die Install des OS auf nen billigen USB Stick um die SATA Ports nur für Daten HDDs freizuhalten.
    Erstmal danke für die Antworten.

    Mir gehts bei der ganzen "FreeNAS-Geschichte" primär darum einen rel. kompakten, stromsparende Fileserver aufzubauen, der weniger administrativen Aufwand generiert als mein jetziges Gentoo-System.

    Auf FreeNAS als Appliance-OS bin ich gekommen, weil es:
    a) von einem USB-Stick löppt -> blockiert keinen Sata-Port
    b) viele Komfort-Features bietet, die ich unter Linux mit Softraid aufwendig per Hand/scripten einrichten müßte (eMail-Benarichtigung bei Problemen; Konfig via WebGUI; rSync-diff mit dem geplanten Backupserver).
    c) verifiziert mit dem Supermicro-Board läuft (hab mir gedacht für Softraid/ZFS ist ECC-RAM sicher nicht verkehrt und KVM over IP ist ein nettes Zusatzfeature, dann muß ich nicht für jeden Kram in den Keller - =Serverstandort - bzw. den Server hoch schleppen)

    Wenn ich das - inzwischen hochoptimierte - Gentoo-Linux, gegen ein anderes, vollwertiges OS tausche, komme ich ja vom Regen in die Traufe.

    Meine Ansprüche an den Server sind eigentlich sehr gering:
    a) Das Diskarray soll per Samba/AFP verfügbar sein; der Speicherplatz soll "am Stück" verfügbar sein
    b) zwei zusätzliche interne USB-HDDs sollen als TimeMachine & iTunes-Server (kommt wohl mit 8.2) fungieren
    c) Die Kiste sollte ausreichend fix sein, um die GB-LAN Anbindung zum Flaschenhals werden zu lassen
    d) Mail-benachrichtigung, wenn irgendwas mit dem Array/System nicht ok sein sollte
    e) vollautomatisiertes Backup via rSync-Diff auf ein zweites identisches System
    f) komplett via Webinterface bedienbar; möglichst geringer Adminaufwand/Wartungsaufwand

    @ludwinator
    Was spricht denn gegen das Raid-Z1 mit 6 HDDs (und was spricht für 5)?
    Ich habe bisher immer mit Hardwareraids gearbeitet (3Ware und Areca) -> soweit ich das gelesen habe entspricht ein rZ1 einem Raid5 (einfach Redundanz) und ein rZ2 einem Raid6 (fache Redundanz) -> in dem Kontext würde mir eine einfache Redundanz eigentlich reichen bzw. wäre mir der zusätzliche "Platz" definitiv wichtiger, da mir privaten Umfeld potentielle Ausfallzeiten nicht sonderlich weh tun, zumal ja eh ein 2. identischer Backupserver angedacht ist, sobald sich das Ding im "Alltag" als tauglich erweisen hat (bis der steht, behalte ich einfach den "alten" Gentoo-Fileserver als "Backup".
    Geändert von drdope (26.06.12 um 11:48 Uhr)
    iMac 27' (late 2013) | iPad Pro 12.9' LTE | iPhone 5S | TimeCapsule (mid 2013)| Qnap TVS-671-PT-16G & UX-500p je 32TB brutto | Wetek Core

  25. #2049
    Stabsgefreiter
    Registriert seit
    28.12.2006
    Beiträge
    351


    Standard

    Vereinfacht ausgedrückt: ZFS arbeitet mit bis zu 128kb großen Blöcken, im Fall von RAIDZ1 auf 6 Platten muss also 128kb auf 5 Platten kopiert werden, die 6. Platte sorgt für die Prüfsumme. Merkst du was? 128KB geht nicht grade durch 5, aber durch 4.
    Ergo: RAIDZ1 immer mit 3, 5, 9 und RaidZ2 mit 4, 6 oder 10 Devices usw.

    cu
    Geändert von ludwinator (26.06.12 um 12:45 Uhr)

  26. #2050
    Matrose
    Registriert seit
    10.02.2011
    Beiträge
    14


    Standard

    Vielen Dank an antilope114 und gea für die schnelle Antwort!

    Mein Plan ist es einen zpool mit raidz2 mit 8 Platten zu erstellen.
    Darauf will ich dann ein riesiges Blockdevice mit ZVOL erstellen.
    Dieses Blockdevice wird mit LUKS (Linux) transparent verschlüsselt und darauf kommt dann ext4.

    Wenn ich die Antworten richtig interpretiert habe, erweitere ich mit diesem Setup die Vorteile von Zfs bezüglich Datensicherheit (Raidz2, online scrubbing, checksumming jedes Datenblocks etc...)
    mit einen performanten Cryptolayer.

    Meine Frage:
    habe ich irgendwas wichtiges übersehen?
    Hat das Verwenden von einem gigantischen Blockdevice irgendwelche Nachteile? (ich würde das Blockdevice 100gb kleiner als den eigentlichen Pool machen. Ist das genug um ein copy-on-write Filesystem noch performant zu betreiben?

    Vielen Dank

Seite 82 von 395 ErsteErste ... 32 72 78 79 80 81 82 83 84 85 86 92 132 182 ... LetzteLetzte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •