Seite 365 von 366 ErsteErste ... 265 315 355 361 362 363 364 365 366 LetzteLetzte
Ergebnis 9.101 bis 9.125 von 9131
  1. #9101
    gea
    gea ist gerade online
    Kapit鋘 zur See
    Registriert seit
    16.11.2010
    Beitr鋑e
    3.133


    Standard

    1. Natives ZFS, das ist Oracle Solaris und die ersten Solaris Forks. Viele urspr黱gliche ZFS Eigenschaften wie der in ZFS eingebaute NFS/SMB Server sowie die Unterst黷zung von Windows SID und ntfs4 ACL (wie bei ntfs) sind nach wie vor nur bei Solaris und dessen Illumos Fork verf黦bar.

    2. Seit 2010 wird ZFS einerseits bei Oracle (die native Version ZFS v.44) und f黵 BSD, Illumos und ZoL als koordiniertes Projekt (ZFS v.5000) unter dem Dach von Open-ZFS weiterentwickelt. Das sorgt daf黵 dass Open-ZFS Pools eine sehr gro遝 Kompatibilit鋞 zwischen den Betriebssystemen BSD, Illumos und Linux haben und neue Features recht schnell auf den verschiedenen Plattformen erscheinen. In den Features unterscheiden sich BSD, Illumos und Zol bis auf die Eigenschaften unter 1. gottseidank recht wenig bzw nur kurzzeitig.

    Richtig ist allerdings, dass ZFS unter Illumos das alleinige Dateisystem ist und unter BSD das dominierende. Das sorgt hier f黵 Problemfreiheit im Betrieb oder bei Updates da alles ausschlie遧ich oder weitgehends auf ZFS abgestimmt ist. Unter Linux ist ZFS eins von vielen und nicht das Basisdateisystem und damit gibts doch immer wieder Probleme, insbesondere bei Updates.

    Auch fehlt ZoL eine vergleichbare webbasierte Managementoberfl鋍he die die M鰃lichkeiten von ZFS auch nur halbwegs abdeckt. Es gibt OMV aber das ist eher f黵 nicht-ZFS Sachen optimal.

  2. Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

  3. #9102
    Bootsmann
    Registriert seit
    29.01.2010
    Beitr鋑e
    647


    Standard

    Bin gerade am 躡erlegen, ob sich Open-ZFS bei mir aufgrund des Verhaltens von Verschl黶selung + L2ARC disqualifiziert:

    Laut FreeNAS-Doku ist alles, was auf den L2ARC-Laufwerken liegt, nicht verschl黶selt (Quelle: 8. Storage FreeNAS庐11.1-U6 User Guide Table of Contents ).

    Ist dies bei Orlacles Variante genauso? Ich verstehe ja noch, dass alles im ARC/RAM entschl黶selt vorliegt, aber auf nicht-fl點htigen Speichern finde ich das irgendwie weniger berauschend.

  4. #9103
    Kapit鋘 zur See
    Registriert seit
    31.05.2010
    Beitr鋑e
    3.704


    • Systeminfo
      • Motherboard:
      • ROG STRIX Z270-I GAMING
      • CPU:
      • Intel i7-7700K
      • Systemname:
      • 7700K
      • K黨lung:
      • Alphacooling Eisb鋜 280
      • Geh鋟se:
      • Lian Li Z70B
      • RAM:
      • 64GB DDR4 ECC
      • Grafik:
      • Nvidia RTX 2080Ti FE
      • Storage:
      • SSDs: SM961 1TB SSD, 840 EVO 1TB, 2x 860 EVO 1TB
      • Monitor:
      • Asus PB278Q / Eizo EV2750
      • Netzwerk:
      • 1x10Gbit, 1x100Gbit ConnectX-4
      • Sound:
      • Chord Mojo / AKG K812 Pro
      • Netzteil:
      • Seasonic Prime Ultra Titanium
      • Betriebssystem:
      • Windows 10 Pro
      • Notebook:
      • Zu viele
      • Photoequipment:
      • Unbenutzt
      • Handy:
      • Zu viel benutzt

    Standard

    Oracle ist da offenbar etwas besser aufgestellt:

    For the security minded readers, be reassured that the data stored in the persistent L2ARC is stored using the encrypted format.
    Quelle: It is the Dawning of the Age of the L2ARC | Bizarre ! Vous avez dit Bizarre ?
    Spoiler: Anzeigen

  5. #9104
    gea
    gea ist gerade online
    Kapit鋘 zur See
    Registriert seit
    16.11.2010
    Beitr鋑e
    3.133


    Standard

    Bisher geschieht die Verschl黶sellung bei Open-ZFS (egal ob BSD, Illumos oder Linux) auf der Basis von verschl黶selten Platten oder Dateien, also unterhalb von ZFS. ZFS bekommt davon gar nichts mit. Damit ist klar dass Cache und Replikation immer unverschl黶selt ist. Das 鋘dert sich aber in naher Zukunft da es auch unter Open-ZFS echte ZFS Verschl黶sellung geben wird: 8727 Native data and metadata encryption for zfs by lundman 路 Pull Request #489 路 openzfs/openzfs 路 GitHub. Diesmal ist sogar eine auf ZoL spezialisierte Firma federf黨rend. Dank Open-ZFS Kooperation kommt das auch auf den anderen Plattformen ziemlich zeitgleich.

    Lediglich das originale ZFS v.44 in Oracle Solaris hat momentan echte ZFS Verschl黶sellung. Damit kann man auch Cache und Replikation verschl黶seln oder per Dateisystem unterschiedlich verfahren (Verschl黶sellung ist Eigenschaft eines einzelnen Dateisystems). Solaris ZFS ist Open-ZFS immer noch deutlich vorraus. Da gibts auch vieles wie dedup2, schnelleres Resilvering, Auditing, NFS 4.1, SMB 3.1 das es bei Open-ZFS oder den freien Solaris Forks nicht gibt.
    Solaris kann man frei bei Oracle herunterladen und nicht-kommerziell nutzen - das dann aber ohne Bugfixes. Das erfordert einen Wartungsvertrag den es dann bis 2036 gibt. Kostet halt ca 800 Euro pro Jahr f黵 eine single-CPU und ist f黵 kommerzielle Nutzung obligatorisch.
    Ge鋘dert von gea (09.11.18 um 07:48 Uhr)

  6. #9105
    Stabsgefreiter
    Registriert seit
    28.12.2006
    Beitr鋑e
    338


    Standard

    8727 Native data and metadata encryption for zfs by lundman 路 Pull Request #489 路 openzfs/openzfs 路 GitHub
    wird verschl黶selte Daten ebenfalls verschl黶selt auf L2ARC ablegen. Das ist nicht vergleichbar mit GELI bei FreeNAS.

  7. #9106
    gea
    gea ist gerade online
    Kapit鋘 zur See
    Registriert seit
    16.11.2010
    Beitr鋑e
    3.133


    Standard

    ZFS vCluster

    Ich bin gerade dabei meine Z-Raid ZFS Cluster in a Box L鰏ung fertig zu entwickeln.

    Die herk鰉mliche L鰏ung ist ein Cluster in a Box bei der sich zwei Server einen gemeinsamen Pool von Multipath SAS Platten teilen. Von SuperMicro gibt es dazu Geh鋟se f黵 zwei Mainboards und multipath SAS Platten. Ein Server greift auf die Platten zu und gibt Dienste wie NFS oder SMB frei. Zur Wartung oder im Fehlerfall kann man auf den zweiten Server umschalten der dann die Platten/den Pool 黚ernimmt und die Dienste bereitstellt. Eine g鋘gige Software dazu ist RSF-1 von high-availability.

    Diese L鰏ung ist 黚licherweise sehr teuer und sehr kompliziert. Sie erlaubt aber hochverf黦bare Speicherl鰏ungen bei bestm鰃licher Performance. Meine L鰏ung basiert auf dem gleichen Konzept, virtualisiert aber den Cluster unter ESXi (Lizenz egal) und nutzt die M鰃lichkeiten von ESXi RAW Platten zwischen VMs zu sharen. Damit geht diese L鰏ung auch mit Sata Platten. Auch gen黦t ein Server statt der vorherigen zwei.

    Setup siehe http://www.napp-it.org/doc/downloads/z-raid.pdf

    Wer`s testen m鯿hte, es ist als Preview in der 18.02pre free (freier Download)


    cluster-in-a-box.png

  8. #9107
    Matrose
    Registriert seit
    09.11.2007
    Beitr鋑e
    16


    Standard Problem mit unbekanntem Device

    Debian mit ZFS und folgendes Problem beim "pool2":

    pool: pool1
    state: ONLINE
    scan: resilvered 3,68M in 0h0m with 0 errors on Sun Oct 14 15:36:55 2018
    config:

    NAME STATE READ WRITE CKSUM
    pool1 ONLINE 0 0 0
    raidz1-0 ONLINE 0 0 0
    sdc ONLINE 0 0 0
    sdd ONLINE 0 0 0
    sda ONLINE 0 0 0

    errors: No known data errors

    pool: pool2
    state: DEGRADED
    status: One or more devices has experienced an unrecoverable error. An
    attempt was made to correct the error. Applications are unaffected.
    action: Determine if the device needs to be replaced, and clear the errors
    using 'zpool clear' or replace the device with 'zpool replace'.
    see: ZFS Message ID: ZFS-8000-9P
    scan: scrub repaired 0 in 0h0m with 0 errors on Fri Nov 9 14:10:40 2018
    config:

    NAME STATE READ WRITE CKSUM
    pool2 DEGRADED 0 0 0
    raidz2-0 DEGRADED 0 0 0
    8682216994852003140 OFFLINE 0 0 0 was /dev/sda1
    sdb ONLINE 0 0 2
    sde ONLINE 0 0 0
    sdf ONLINE 0 0 0
    sdg1 ONLINE 0 0 0

    errors: No known data errors

    Offline hab ich das ja schon bekommen, aber es geht nicht zu entfernen mit "zpool remove" oder "zpool detach"
    Es ist auch keine HD angeschlossen mit dem Namen. Das Problem besteht seit dem letzten reboot, da hat sich wohl was mit den Laufwerksbezeichnungen ver鋘dert.

  9. #9108
    Flottillenadmiral Avatar von -INU-
    Registriert seit
    29.12.2007
    Ort
    Unter der Br點ke
    Beitr鋑e
    5.186


    • Systeminfo
      • Motherboard:
      • ASUS Maximus VII Gene
      • CPU:
      • I7 [email protected],8Ghz
      • Systemname:
      • Kiste
      • K黨lung:
      • Dampf
      • Geh鋟se:
      • Cooler Master Silencio 352M
      • RAM:
      • 4x8GB
      • Grafik:
      • ASUS 1080 Ti Strix
      • Storage:
      • Intel SSD 600p 1TB
      • Monitor:
      • Philips BDM4065UC + Dell P1914S
      • Netzwerk:
      • FritzBox 6490
      • Betriebssystem:
      • Windows 10 Pro 64bit
      • Notebook:
      • Apple MB 12", MBP 15"
      • Photoequipment:
      • Sony NEX-7
      • Handy:
      • Nexus 6

    Standard

    Hat ZFS/Nappit irgendeinen Tieringmechanismus der Daten nach Zugriffsmustern auf verschiedenen Pools verschieben kann ?

  10. #9109
    gea
    gea ist gerade online
    Kapit鋘 zur See
    Registriert seit
    16.11.2010
    Beitr鋑e
    3.133


    Standard

    nein.
    ZFS m鯿hte durch massiven Einsatz von RAM/SSD/NVMe Cache den Zugriff auf den gesamten Pool beschleunigen bzw die Schreib und Leselast m鰃lichst aus dem RAM zu bedienen.

  11. #9110
    Gefreiter
    Registriert seit
    04.10.2016
    Beitr鋑e
    41


    Standard

    Ich nutze zur ZoL.

    W黵de es ein Problem sein, wenn ich die SnapShots (Backup) auf napp-it speichern w黵de? Ich denke verwenden k鰊nte ich dann die SnapShots weiterhin nur auf ein ZoL oder?

  12. #9111
    gea
    gea ist gerade online
    Kapit鋘 zur See
    Registriert seit
    16.11.2010
    Beitr鋑e
    3.133


    Standard

    Ein Snapshots bei ZFS friert einen fr黨eren Dateistand ein. Er ist also Bestandteil eines Dateisystems. Man kann lediglich ein ganzes Dateisystem auf der Basis eines Snaps auf ein anderes ZFS Dateisystem (gleicher oder anderer Pool/Rechner) per zfs send 黚ertragen. Das muss nicht, geht aber oft zwischen verschiedenen Open-ZFS Plattformen

  13. #9112
    Matrose
    Registriert seit
    25.02.2018
    Beitr鋑e
    22


    Standard

    Ich habe in meinem Server vier HDDs und mich nach langem Hin und Her f黵 zwei Mirrors und gegen ein RAID-Z2 entschieden. Ich m鯿hte trotzdem die Performance pr黤en, erhalte unter napp-it (Pools → Benchmarks) aber ein unvollst鋘diges Bild:

    Code:
    begin tests ..
    
    Bennchmark filesystem: /tank/_Pool_Benchmark
    Read: filebench, Write: filebench_sequential, date: 11.11.2018
    
    hostname                        omnios  Memory size: 8192 Megabytes
    pool                            tank (recsize=128k, compr=off, readcache=all)
    slog                            -
    remark                           
    
    
    Fb3                             sync=always                     sync=disabled                   
    
    Fb4 singlestreamwrite.f         sync=always                     sync=disabled                   
                                    201 ops                         2379 ops
                                    40.195 ops/s                    475.780 ops/s
                                    5460us cpu/op                   1629us cpu/op
                                    24.6ms latency                  2.1ms latency
                                    40.0 MB/s                       475.6 MB/s
    ________________________________________________________________________________________
     
    read fb 7-9 + dd (opt)          randomread.f     randomrw.f     singlestreamr
    pri/sec cache=all               149.4 MB/s       169.6 MB/s     2.6 GB/s                      
    ________________________________________________________________________________________
    Sollte hier nicht unter Fb3 noch etwas stehen?

  14. #9113
    gea
    gea ist gerade online
    Kapit鋘 zur See
    Registriert seit
    16.11.2010
    Beitr鋑e
    3.133


    Standard

    Die aktuelle Voreinstellung f黵 die Pool > Benchmark Tests aktiviert lediglich den sequentiellen Schreibtest mit und ohne sync und die Read-Tests. Der Grund ist einfach der dass diese Werte durch die Einbeziehung von sync write auch eine sehr gute Einsch鋞zung der random-write Leistung bringen (40 MB/s vs 375 MB/s und 200 iops vs 2300 iops durch Nutzung des RAM write-cache. Die 200 iops entsprechen genau den RAW Werten eines Raid-10 mit ca 100 iops je Platte). Dazu l鋟ft dieser Test auch auf langsamerer Hardware noch durch w鋒rend ein kompletter Testlauf inkl. Random Write und dd auf langsamer Hardware in einen Timeout l鋟ft.

    Im Men Pool > Benchmark kann man aber die anderen Tests auch aktivieren.

  15. #9114
    Gefreiter
    Registriert seit
    04.10.2016
    Beitr鋑e
    41


    Standard

    Zitat Zitat von gea Beitrag anzeigen
    Ein Snapshots bei ZFS friert einen fr黨eren Dateistand ein. Er ist also Bestandteil eines Dateisystems. Man kann lediglich ein ganzes Dateisystem auf der Basis eines Snaps auf ein anderes ZFS Dateisystem (gleicher oder anderer Pool/Rechner) per zfs send 黚ertragen. Das muss nicht, geht aber oft zwischen verschiedenen Open-ZFS Plattformen
    Also sollte mein Backup-System f黵 die SnapShots auch ein ZoL sein -> das nehme ich mal so mit

  16. #9115
    Matrose
    Registriert seit
    25.02.2018
    Beitr鋑e
    22


    Standard

    Danke f黵 deine Erkl鋜ung, gea. Wenn ich dich richtig verstehe, sind die Werte f黵 ein "RAID 10" aus vier HDDs somit in Ordnung?
    Sync brauche ich beim Datenspeicher nicht und mein Netzwerk hat eh nur 1G. Muss ich die Datasets dann auf sync=disabled stellen oder reicht sync=standard? Freigabe erfolgt nur per SMB.

    Als VM-Speicher habe ich eine Intel DC S4500 eingebaut. Da ESXi hier per NFS sync erwartet, sollte ich auch in napp-it sync aktivieren, oder?
    Benchmark der SSD sieht folgenderma遝n aus:

    Code:
    Bennchmark filesystem: /rapid/_Pool_Benchmark
    Read: filebench, Write: filebench_sequential, date: 11.11.2018
    
    hostname                        omnios  Memory size: 8192 Megabytes
    pool                            rapid (recsize=128k, compr=off, readcache=all)
    slog                            -
    remark                           
    
    
    Fb3                             sync=always                     sync=disabled                   
    
    Fb4 singlestreamwrite.f         sync=always                     sync=disabled                   
                                    791 ops                         1508 ops
                                    158.184 ops/s                   301.584 ops/s
                                    2455us cpu/op                   2107us cpu/op
                                    6.3ms latency                   3.3ms latency
                                    158.0 MB/s                      301.4 MB/s
    ________________________________________________________________________________________
     
    read fb 7-9 + dd (opt)          randomread.f     randomrw.f     singlestreamr
    pri/sec cache=all               181.0 MB/s       118.4 MB/s     2.5 GB/s                      
    ________________________________________________________________________________________
    Kann man damit als VM-Speicher erstmal arbeiten? Hab nicht vor, irgendwelche riesigen Datenbanken zu verwalten, aber schnarchlangsam soll es nat黵lich auch nicht sein.

  17. #9116
    gea
    gea ist gerade online
    Kapit鋘 zur See
    Registriert seit
    16.11.2010
    Beitr鋑e
    3.133


    Standard

    Zitat Zitat von Swivel Beitrag anzeigen
    Also sollte mein Backup-System f黵 die SnapShots auch ein ZoL sein -> das nehme ich mal so mit
    Prinzipiell wurde die Open-ZFS Initiative gegr黱det, damit die Pools zwischen BSD, Illumos und Linux kompatibel sind. Neue Features kommen aber jeweils mit einer Verz鰃erung, bisher meist Illumos zuerst, dann BSD, dann Linux. Die Wahrscheinlichkeit, dass ein zfs send von Linux nach BSD oder Illumos klappt, ist damit sehr hoch.

    - - - Updated - - -

    Zitat Zitat von rigel Beitrag anzeigen
    Kann man damit als VM-Speicher erstmal arbeiten? Hab nicht vor, irgendwelche riesigen Datenbanken zu verwalten, aber schnarchlangsam soll es nat黵lich auch nicht sein.
    Alles im gr黱en Bereich.
    Ohne Redundanz Backup nicht vergessen (SSD > Disk-Pool)

    Mit sync=standard (Voreinstellung) bestimmt das schreibende Programm was passiert. Mit SMB bedeuted das async, mit ESXi und NFS sync.

  18. #9117
    Kapit鋘 zur See
    Registriert seit
    31.05.2010
    Beitr鋑e
    3.704


    • Systeminfo
      • Motherboard:
      • ROG STRIX Z270-I GAMING
      • CPU:
      • Intel i7-7700K
      • Systemname:
      • 7700K
      • K黨lung:
      • Alphacooling Eisb鋜 280
      • Geh鋟se:
      • Lian Li Z70B
      • RAM:
      • 64GB DDR4 ECC
      • Grafik:
      • Nvidia RTX 2080Ti FE
      • Storage:
      • SSDs: SM961 1TB SSD, 840 EVO 1TB, 2x 860 EVO 1TB
      • Monitor:
      • Asus PB278Q / Eizo EV2750
      • Netzwerk:
      • 1x10Gbit, 1x100Gbit ConnectX-4
      • Sound:
      • Chord Mojo / AKG K812 Pro
      • Netzteil:
      • Seasonic Prime Ultra Titanium
      • Betriebssystem:
      • Windows 10 Pro
      • Notebook:
      • Zu viele
      • Photoequipment:
      • Unbenutzt
      • Handy:
      • Zu viel benutzt

    Standard

    Wie ist denn eigentlich der aktuelle Stand rund um Solaris 11.4? Mein letzter Stand mit der Beta 11.4b war, dass da noch einiges hakte.

    F鋒rt hier jemand solaris 11.4 als VM unter ESXi?

    Vor allem interessant: Gibt es inzwischen sauber funktionierende vmware tools?
    Spoiler: Anzeigen

  19. #9118
    Obergefreiter
    Registriert seit
    07.12.2013
    Beitr鋑e
    70


    • Systeminfo
      • Motherboard:
      • ASUS Z97-WS
      • CPU:
      • i7 4790K
      • K黨lung:
      • Custom Loop
      • Geh鋟se:
      • Lian Li PC-A77
      • RAM:
      • 32GB, DDR3L-1600, CL9-9-9-24
      • Grafik:
      • Titan X (Pascal)
      • Storage:
      • SSDs (8TB) + 2 NAS (32TB)
      • Netzteil:
      • be quiet! DPP 10 550W
      • Betriebssystem:
      • Windows 10

    Standard

    Ich habe dieses Wochenende Solaris 11.4 unter ESXi 6.7 versucht zum laufen zu kriegen. Installation lief problemlos durch. Allerdings habe ich noch Probleme mit Passthrough von NVMe SSDs (Optane 900p und Samsung 970 Evo) und vmxnet3 l鋟ft bei mir auch noch nicht. Die VMware-Tools-other-10.3.5-10430147 konnte ich aber ohne probleme installieren.

    Dabei hab ich noch ein bisschen mit der Verschl黶selung rumgespielt. Ist das normal, das dadurch die Datenrate massiv einbricht? Ich habe erst gedacht meine CPU ist zu lahm, aber ein ssl speedtest mit ebenfalls aes-256-ccm ist doch recht schnell:
    Code:
    [email protected]:~# openssl speed -engine pkcs11 -evp aes-256-ccm
    engine "pkcs11" set.
    Doing aes-256-ccm for 3s on 16 size blocks: 82301680 aes-256-ccm's in 3.00s
    Doing aes-256-ccm for 3s on 64 size blocks: 66217778 aes-256-ccm's in 2.99s
    Doing aes-256-ccm for 3s on 256 size blocks: 67938469 aes-256-ccm's in 3.00s
    Doing aes-256-ccm for 3s on 1024 size blocks: 68387598 aes-256-ccm's in 3.00s
    Doing aes-256-ccm for 3s on 8192 size blocks: 67524671 aes-256-ccm's in 3.00s
    OpenSSL 1.0.2o  27 Mar 2018
    built on: date not available
    options:bn(64,64) rc4(16x,int) des(ptr,cisc,16,int) aes(partial) blowfish(ptr)
    compiler: information not available
    The 'numbers' are in 1000s of bytes per second processed.
    type             16 bytes     64 bytes    256 bytes   1024 bytes   8192 bytes
    aes-256-ccm     438942.29k  1417370.50k  5797416.02k 23342966.78k 184387368.28k
    Das ist, wenn ich das richtig verstehe, singlecore mit AES-NI.
    blocksize 16 bytes: 418,6 MiB/s
    blocksize 8192 bytes: 171,7 GiB/s

    Meine Transferrate 黚er SMB ist aber auf ~250 MiB/s eingebrochen.

  20. #9119
    gea
    gea ist gerade online
    Kapit鋘 zur See
    Registriert seit
    16.11.2010
    Beitr鋑e
    3.133


    Standard

    Die VMware Tools f黵 Solaris aus ESXi 6.7u1 funktionieren.

  21. #9120
    Kapit鋘 zur See
    Registriert seit
    31.05.2010
    Beitr鋑e
    3.704


    • Systeminfo
      • Motherboard:
      • ROG STRIX Z270-I GAMING
      • CPU:
      • Intel i7-7700K
      • Systemname:
      • 7700K
      • K黨lung:
      • Alphacooling Eisb鋜 280
      • Geh鋟se:
      • Lian Li Z70B
      • RAM:
      • 64GB DDR4 ECC
      • Grafik:
      • Nvidia RTX 2080Ti FE
      • Storage:
      • SSDs: SM961 1TB SSD, 840 EVO 1TB, 2x 860 EVO 1TB
      • Monitor:
      • Asus PB278Q / Eizo EV2750
      • Netzwerk:
      • 1x10Gbit, 1x100Gbit ConnectX-4
      • Sound:
      • Chord Mojo / AKG K812 Pro
      • Netzteil:
      • Seasonic Prime Ultra Titanium
      • Betriebssystem:
      • Windows 10 Pro
      • Notebook:
      • Zu viele
      • Photoequipment:
      • Unbenutzt
      • Handy:
      • Zu viel benutzt

    Standard

    @gea: wie man merkt frickel ich gerade mal wieder an meinen Solaris-Installationen rum... lief bisher alles auf Napp-It Version 17.xx - wenn ich jetzt f黵 18.xx ca. 3 Pro keys f黵 Homeuse brauche, auch 黚er die Website oder besser anders anfragen?
    Spoiler: Anzeigen

  22. #9121
    TCM
    TCM ist offline
    Kapit鋘leutnant
    Registriert seit
    06.04.2012
    Beitr鋑e
    1.837


    Standard

    Zitat Zitat von Bccc1 Beitrag anzeigen
    ein ssl speedtest mit ebenfalls aes-256-ccm ist doch recht schnell
    Der ist vor allem falsch. H鋘g ein -elapsed dran.

  23. #9122
    Obergefreiter
    Registriert seit
    07.12.2013
    Beitr鋑e
    70


    • Systeminfo
      • Motherboard:
      • ASUS Z97-WS
      • CPU:
      • i7 4790K
      • K黨lung:
      • Custom Loop
      • Geh鋟se:
      • Lian Li PC-A77
      • RAM:
      • 32GB, DDR3L-1600, CL9-9-9-24
      • Grafik:
      • Titan X (Pascal)
      • Storage:
      • SSDs (8TB) + 2 NAS (32TB)
      • Netzteil:
      • be quiet! DPP 10 550W
      • Betriebssystem:
      • Windows 10

    Standard

    Zitat Zitat von TCM Beitrag anzeigen
    Der ist vor allem falsch. H鋘g ein -elapsed dran.
    Danke, das wusste ich nicht. Habs eben schnell gegoogled und verstehe jetzt, dass die Ergebnisse ohne elapsed mit aes ni nichts wert sind.

    So siehts jetzt aus:
    Code:
    [email protected]:/vms# openssl speed -engine pkcs11 -evp aes-256-ccm -elapsed
    engine "pkcs11" set.
    You have chosen to measure elapsed time instead of user CPU time.
    Doing aes-256-ccm for 3s on 16 size blocks: 80947803 aes-256-ccm's in 3.00s
    Doing aes-256-ccm for 3s on 64 size blocks: 38042280 aes-256-ccm's in 3.00s
    Doing aes-256-ccm for 3s on 256 size blocks: 39560205 aes-256-ccm's in 3.00s
    Doing aes-256-ccm for 3s on 1024 size blocks: 38903551 aes-256-ccm's in 3.00s
    Doing aes-256-ccm for 3s on 8192 size blocks: 38716073 aes-256-ccm's in 3.00s
    OpenSSL 1.0.2o  27 Mar 2018
    built on: date not available
    options:bn(64,64) rc4(16x,int) des(ptr,cisc,16,int) aes(partial) blowfish(ptr)
    compiler: information not available
    The 'numbers' are in 1000s of bytes per second processed.
    type             16 bytes     64 bytes    256 bytes   1024 bytes   8192 bytes
    aes-256-ccm     431721.62k   811568.64k  3375804.16k 13279078.74k 105720690.01k
    blocksize 16 bytes: 411,7 MiB/s
    blocksize 8192 bytes: 98,5 GiB/s

    Das ist schonmal deutlich weniger bei gr鲞eren blocksizes. Verstehe ich das richtig, die Blocksize aus dem openssl bench bezieht sich auf die Gr鲞e der zu verschl黶selnden Daten und NICHT auf die Blocksize von AES? Weil die sollte ja per Definition immer 128 Bit/16 Byte sein, obwohl der Rijndael Algorithmus bis zu 32 Byte k鰊nte. Gibt ZFS dem Oracle Solaris Cryptographic Framework (gibts daf黵 auch ein griffigeren Namen?) immer ganze records oder kleinere H鋚pchen? Bei 128k recordsize w黵de ich erwarten, das es mindestens so schnell wie mit blocksize 8k ist, und das war ja deutlich schneller als ich brauche.

    Edit: Da die VM momentan 6 vCPUs hat, habe ich den Bench nochmal mit 6 Threads ausgef黨rt:
    Code:
    [email protected]:/vms# openssl speed -multi 6 -engine pkcs11 -evp aes-256-ccm -elapsed
    engine "pkcs11" set.
    Forked child 0
    Forked child 1
    Forked child 2
    Forked child 3
    Forked child 4
    +DT:aes-256-ccm:3:16
    +DT:aes-256-ccm:3:16
    +DT:aes-256-ccm:3:16
    +DT:aes-256-ccm:3:16
    +DT:aes-256-ccm:3:16
    +DT:aes-256-ccm:3:16
    Forked child 5
    +R:30368221:aes-256-ccm:3.000000
    +R:29550758:aes-256-ccm:3.000000
    +R:30460774:aes-256-ccm:3.000000
    +DT:aes-256-ccm:3:64
    +DT:aes-256-ccm:3:64
    +R:30046718:aes-256-ccm:3.000000
    +R:65959603:aes-256-ccm:3.000000
    +DT:aes-256-ccm:3:64
    +DT:aes-256-ccm:3:64
    +DT:aes-256-ccm:3:64
    +R:29308429:aes-256-ccm:3.000000
    +DT:aes-256-ccm:3:64
    +R:30853723:aes-256-ccm:3.000000
    +R:30301686:aes-256-ccm:3.000000
    +R:30490895:aes-256-ccm:3.000000
    +DT:aes-256-ccm:3:256
    +R:30569295:aes-256-ccm:3.000000
    +DT:aes-256-ccm:3:256
    +R:64821439:aes-256-ccm:3.000000
    +R:30631695:aes-256-ccm:3.000000
    +DT:aes-256-ccm:3:256
    +DT:aes-256-ccm:3:256
    +DT:aes-256-ccm:3:256
    +DT:aes-256-ccm:3:256
    +R:29435441:aes-256-ccm:3.000000
    +R:28367432:aes-256-ccm:3.000000
    +R:30167988:aes-256-ccm:3.000000
    +R:65696464:aes-256-ccm:3.000000
    +R:53743833:aes-256-ccm:3.000000
    +R:27534617:aes-256-ccm:3.000000
    +DT:aes-256-ccm:3:1024
    +DT:aes-256-ccm:3:1024
    +DT:aes-256-ccm:3:1024
    +DT:aes-256-ccm:3:1024
    +DT:aes-256-ccm:3:1024
    +DT:aes-256-ccm:3:1024
    +R:30767079:aes-256-ccm:3.000000
    +R:30040830:aes-256-ccm:3.000000
    +R:30507274:aes-256-ccm:3.000000
    +R:30549839:aes-256-ccm:3.000000
    +R:30552249:aes-256-ccm:3.000000
    +R:64838852:aes-256-ccm:3.000000
    +DT:aes-256-ccm:3:8192
    +DT:aes-256-ccm:3:8192
    +DT:aes-256-ccm:3:8192
    +DT:aes-256-ccm:3:8192
    +DT:aes-256-ccm:3:8192
    +DT:aes-256-ccm:3:8192
    +R:41759843:aes-256-ccm:3.000000
    +R:53955217:aes-256-ccm:3.000000
    +R:28632604:aes-256-ccm:3.000000
    +R:30127637:aes-256-ccm:3.000000
    +R:67256460:aes-256-ccm:3.000000
    +R:30662855:aes-256-ccm:3.000000
    Got: +H:16:64:256:1024:8192 from 0
    Got: +F:22:aes-256-ccm:161963845.33:646435968.00:2349620650.67:10413149525.33:78186097322.67 from 0
    Got: +H:16:64:256:1024:8192 from 1
    Got: +F:22:aes-256-ccm:162457461.33:658212757.33:2574334976.00:10427678378.67:147333712554.67 from 1
    Got: +H:16:64:256:1024:8192 from 2
    Got: +F:22:aes-256-ccm:160249162.67:652144960.00:2420687530.67:22131661482.67:183654973440.00 from 2
    Got: +H:16:64:256:1024:8192 from 3
    Got: +F:22:aes-256-ccm:351784549.33:1382857365.33:5606098261.33:10253936640.00:114032211285.33 from 3
    Got: +H:16:64:256:1024:8192 from 4
    Got: +F:22:aes-256-ccm:157604042.67:650472426.67:4586140416.00:10501829632.00:83730036053.33 from 4
    Got: +H:16:64:256:1024:8192 from 5
    Got: +F:22:aes-256-ccm:156311621.33:653476160.00:2511824298.67:10428500992.00:82268534101.33 from 5
    OpenSSL 1.0.2o  27 Mar 2018
    built on: date not available
    options:bn(64,64) rc4(16x,int) des(ptr,cisc,16,int) aes(partial) blowfish(ptr)
    compiler: information not available
    evp            1150370.68k  4643599.64k 20048706.13k 74156756.65k 689205564.76k
    Also 1,07 GiB/s f黵 Blocksize 16 Bytes. Nat黵lich ist das jetzt ohne CPU belastung durch ZFS und SMB, aber trotzdem sollte das doch locker reichen, oder?
    Ge鋘dert von Bccc1 (11.11.18 um 22:45 Uhr)

  24. #9123
    Kapit鋘 zur See
    Registriert seit
    31.05.2010
    Beitr鋑e
    3.704


    • Systeminfo
      • Motherboard:
      • ROG STRIX Z270-I GAMING
      • CPU:
      • Intel i7-7700K
      • Systemname:
      • 7700K
      • K黨lung:
      • Alphacooling Eisb鋜 280
      • Geh鋟se:
      • Lian Li Z70B
      • RAM:
      • 64GB DDR4 ECC
      • Grafik:
      • Nvidia RTX 2080Ti FE
      • Storage:
      • SSDs: SM961 1TB SSD, 840 EVO 1TB, 2x 860 EVO 1TB
      • Monitor:
      • Asus PB278Q / Eizo EV2750
      • Netzwerk:
      • 1x10Gbit, 1x100Gbit ConnectX-4
      • Sound:
      • Chord Mojo / AKG K812 Pro
      • Netzteil:
      • Seasonic Prime Ultra Titanium
      • Betriebssystem:
      • Windows 10 Pro
      • Notebook:
      • Zu viele
      • Photoequipment:
      • Unbenutzt
      • Handy:
      • Zu viel benutzt

    Standard

    Ihr Lieben, ich bin mal wieder zu bl鰀. Und ja, "never change a running System".

    Was habe ich gemacht: ich habe im im Prinzip nur aus Server1 (Solaris 11.3 mit napp-it 17.06 oder so) die Platten eines Pools ausgebaut und in Server2 geschoben (Solaris 11.4 mit napp-it 18.06).

    Was ist das Problem: Ich komm' ums Verrecken mit Windows nicht auf die SMB-Freigaben. Die lokalen Accounts sind auf der neuen Kiste die Gleichen (name, passwd, IDs) wie auf der alten. Selbst mit der Anmeldung als "root" komme ich nicht auf die Freigabe, sondern bekomme folgende Fehlermeldung:

    AccessDenied.jpg

    Habe auch schon testweise die ACLs auf einem der alten ZFS-Filesystem resetted ("remove"). Bringt aber leider auch n黶chts. Das Problem tritt auch auf, wenn ich ein neues ZFS-Filesystem anlege und beim Anlegen "shareSMB" ausw鋒le (allerdings mit guest=off). Wenn ich die SMB-Freigabe ausstelle und dann wieder mit guest allowed=on einrichte, komme ich allerdings drauf. Aber ich will eigentlich keinen Gast-Zugang auf der Freigabe...

    Ich habe den dumpfen Verdacht, dass ich irgendwas Banales 黚ersehen/vergessen habe. Jemand eine Idee?
    Spoiler: Anzeigen

  25. #9124
    TCM
    TCM ist offline
    Kapit鋘leutnant
    Registriert seit
    06.04.2012
    Beitr鋑e
    1.837


    Standard

    Zitat Zitat von Bccc1 Beitrag anzeigen
    ...
    Da passt irgendwas nicht. Knapp 100GB/s ist in den Regionen von L1-Cache. Kein normaler Code schaufelt so viele Daten, auch nicht mit AES-NI.

    Normal sind solche Zahlen (model name: Intel(R) Core(TM) i5-4570 CPU @ 3.20GHz):

    Code:
    # openssl speed -elapsed aes-256-cbc
    You have chosen to measure elapsed time instead of user CPU time.
    Doing aes-256 cbc for 3s on 16 size blocks: 19093168 aes-256 cbc's in 3.00s
    Doing aes-256 cbc for 3s on 64 size blocks: 5154091 aes-256 cbc's in 3.00s
    Doing aes-256 cbc for 3s on 256 size blocks: 1307673 aes-256 cbc's in 3.00s
    Doing aes-256 cbc for 3s on 1024 size blocks: 327633 aes-256 cbc's in 3.00s
    Doing aes-256 cbc for 3s on 8192 size blocks: 41138 aes-256 cbc's in 3.00s
    Doing aes-256 cbc for 3s on 16384 size blocks: 20580 aes-256 cbc's in 3.00s
    OpenSSL 1.1.0f  25 May 2017
    built on: reproducible build, date unspecified
    options:bn(64,64) rc4(16x,int) des(int) aes(partial) blowfish(ptr)
    compiler: gcc -DDSO_DLFCN -DHAVE_DLFCN_H -DNDEBUG -DOPENSSL_THREADS -DOPENSSL_NO_STATIC_ENGINE -DOPENSSL_PIC -DOPENSSL_IA32_SSE2 -DOPENSSL_BN_ASM_MONT -DOPENSSL_BN_ASM_MONT5 -DOPENSSL_BN_ASM_GF2m -DSHA1_ASM -DSHA256_ASM -DSHA512_ASM -DRC4_ASM -DMD5_ASM -DAES_ASM -DVPAES_ASM -DBSAES_ASM -DGHASH_ASM -DECP_NISTZ256_ASM -DPADLOCK_ASM -DPOLY1305_ASM -DOPENSSLDIR="\"/usr/lib/ssl\"" -DENGINESDIR="\"/usr/lib/x86_64-linux-gnu/engines-1.1\""
    The 'numbers' are in 1000s of bytes per second processed.
    type             16 bytes     64 bytes    256 bytes   1024 bytes   8192 bytes  16384 bytes
    aes-256 cbc     101830.23k   109953.94k   111588.10k   111832.06k   112334.17k   112394.24k
    
    
    # openssl speed -elapsed -evp aes-256-cbc
    You have chosen to measure elapsed time instead of user CPU time.
    Doing aes-256-cbc for 3s on 16 size blocks: 94454753 aes-256-cbc's in 3.00s
    Doing aes-256-cbc for 3s on 64 size blocks: 26419290 aes-256-cbc's in 3.00s
    Doing aes-256-cbc for 3s on 256 size blocks: 6725099 aes-256-cbc's in 3.00s
    Doing aes-256-cbc for 3s on 1024 size blocks: 1689166 aes-256-cbc's in 3.00s
    Doing aes-256-cbc for 3s on 8192 size blocks: 210995 aes-256-cbc's in 3.00s
    Doing aes-256-cbc for 3s on 16384 size blocks: 105774 aes-256-cbc's in 3.00s
    OpenSSL 1.1.0f  25 May 2017
    built on: reproducible build, date unspecified
    options:bn(64,64) rc4(16x,int) des(int) aes(partial) blowfish(ptr)
    compiler: gcc -DDSO_DLFCN -DHAVE_DLFCN_H -DNDEBUG -DOPENSSL_THREADS -DOPENSSL_NO_STATIC_ENGINE -DOPENSSL_PIC -DOPENSSL_IA32_SSE2 -DOPENSSL_BN_ASM_MONT -DOPENSSL_BN_ASM_MONT5 -DOPENSSL_BN_ASM_GF2m -DSHA1_ASM -DSHA256_ASM -DSHA512_ASM -DRC4_ASM -DMD5_ASM -DAES_ASM -DVPAES_ASM -DBSAES_ASM -DGHASH_ASM -DECP_NISTZ256_ASM -DPADLOCK_ASM -DPOLY1305_ASM -DOPENSSLDIR="\"/usr/lib/ssl\"" -DENGINESDIR="\"/usr/lib/x86_64-linux-gnu/engines-1.1\""
    The 'numbers' are in 1000s of bytes per second processed.
    type             16 bytes     64 bytes    256 bytes   1024 bytes   8192 bytes  16384 bytes
    aes-256-cbc     503758.68k   563611.52k   573875.11k   576568.66k   576157.01k   577667.07k
    Keine Ahnung, was aes-256-ccm da treibt, aber um den Faktor 100+ wird es nicht einfach so schneller. Auff鋖lig ist vor allem, dass er 黚erhaupt nicht mit der Blockgr鲞e und den insgesamt berechneten Bl鯿ken nach unten geht. Je gr鲞er die Bl鯿ke, umso weniger d黵fte er in festen 3s schaffen.

    Hier mal noch aes-256-gcm, was auch wesentlich realistischer aussieht:
    Code:
    # openssl speed -elapsed -evp aes-256-gcm
    You have chosen to measure elapsed time instead of user CPU time.
    Doing aes-256-gcm for 3s on 16 size blocks: 59570152 aes-256-gcm's in 3.00s
    Doing aes-256-gcm for 3s on 64 size blocks: 44027890 aes-256-gcm's in 3.00s
    Doing aes-256-gcm for 3s on 256 size blocks: 22336523 aes-256-gcm's in 3.00s
    Doing aes-256-gcm for 3s on 1024 size blocks: 7054975 aes-256-gcm's in 3.00s
    Doing aes-256-gcm for 3s on 8192 size blocks: 1003361 aes-256-gcm's in 3.00s
    Doing aes-256-gcm for 3s on 16384 size blocks: 508234 aes-256-gcm's in 3.00s
    OpenSSL 1.1.0f  25 May 2017
    built on: reproducible build, date unspecified
    options:bn(64,64) rc4(16x,int) des(int) aes(partial) blowfish(ptr)
    compiler: gcc -DDSO_DLFCN -DHAVE_DLFCN_H -DNDEBUG -DOPENSSL_THREADS -DOPENSSL_NO_STATIC_ENGINE -DOPENSSL_PIC -DOPENSSL_IA32_SSE2 -DOPENSSL_BN_ASM_MONT -DOPENSSL_BN_ASM_MONT5 -DOPENSSL_BN_ASM_GF2m -DSHA1_ASM -DSHA256_ASM -DSHA512_ASM -DRC4_ASM -DMD5_ASM -DAES_ASM -DVPAES_ASM -DBSAES_ASM -DGHASH_ASM -DECP_NISTZ256_ASM -DPADLOCK_ASM -DPOLY1305_ASM -DOPENSSLDIR="\"/usr/lib/ssl\"" -DENGINESDIR="\"/usr/lib/x86_64-linux-gnu/engines-1.1\""
    The 'numbers' are in 1000s of bytes per second processed.
    type             16 bytes     64 bytes    256 bytes   1024 bytes   8192 bytes  16384 bytes
    aes-256-gcm     317707.48k   939261.65k  1906049.96k  2408098.13k  2739844.44k  2775635.29k
    Ge鋘dert von TCM (12.11.18 um 23:33 Uhr)

  26. #9125
    gea
    gea ist gerade online
    Kapit鋘 zur See
    Registriert seit
    16.11.2010
    Beitr鋑e
    3.133


    Standard

    Zitat Zitat von besterino Beitrag anzeigen
    Ihr Lieben, ich bin mal wieder zu bl鰀. Und ja, "never change a running System".

    Was habe ich gemacht: ich habe im im Prinzip nur aus Server1 (Solaris 11.3 mit napp-it 17.06 oder so) die Platten eines Pools ausgebaut und in Server2 geschoben (Solaris 11.4 mit napp-it 18.06).

    Was ist das Problem: Ich komm' ums Verrecken mit Windows nicht auf die SMB-Freigaben. Die lokalen Accounts sind auf der neuen Kiste die Gleichen (name, passwd, IDs) wie auf der alten. Selbst mit der Anmeldung als "root" komme ich nicht auf die Freigabe, sondern bekomme folgende Fehlermeldung:

    AccessDenied.jpg

    Habe auch schon testweise die ACLs auf einem der alten ZFS-Filesystem resetted ("remove"). Bringt aber leider auch n黶chts. Das Problem tritt auch auf, wenn ich ein neues ZFS-Filesystem anlege und beim Anlegen "shareSMB" ausw鋒le (allerdings mit guest=off). Wenn ich die SMB-Freigabe ausstelle und dann wieder mit guest allowed=on einrichte, komme ich allerdings drauf. Aber ich will eigentlich keinen Gast-Zugang auf der Freigabe...

    Ich habe den dumpfen Verdacht, dass ich irgendwas Banales 黚ersehen/vergessen habe. Jemand eine Idee?
    D黵fte wohl ein Rechteproblem sein.
    Der in ZFS eingebaute SMB Server bei Solarish nutzt Windows sid als Bezug f黵 Rechte und nicht Unix uid wie SAMBA. Wird ein Pool auf einen anderen Rechner verschoben und man nutzt einen AD Server bleiben die Rechte inktakt. Im Workgroup Modus wird die sid lokal unter anderem aus der Unix uid erzeugt. Sind die gleichen Benutzer mit der gleichen uid angelegt und wurde jeweils zus鋞zlich zu dem Unix Passwort per passwd username ein SMB Passwort erzeugt (hat eine andere Struktur) so sollten die Rechte erhalten bleiben.

    Wenn nicht hat man gleiches zu tun wie bei Windows wenn man eine Platte an einen anderen Rechner anschlie遲, n鋗lich Rechte neu setzen. Am schnellsten geht es per napp-it ACL Men die Rechte rekursiv auf jeder=modify zu 鋘dern. Dann darf jeder "鋘dern" und man kann anschlie遝nd die Rechte gezielt wieder einschr鋘ken (per ACL extension oder aus Windows per SMB als root).


Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anh鋘ge hochladen: Nein
  • Beitr鋑e bearbeiten: Nein
  •