Seite 383 von 385 ErsteErste ... 283 333 373 379 380 381 382 383 384 385 LetzteLetzte
Ergebnis 9.551 bis 9.575 von 9605
  1. #9551
    Oberstabsgefreiter
    Registriert seit
    01.12.2007
    Beiträge
    387


    Standard

    Zitat Zitat von gea Beitrag anzeigen
    Auf der Consoler kann man napp-it via /etc/init.d/napp-it restart starten/neu starten. Eventuell kommt da eine hilfreiche Fehlermeldung. Ansonst einfach den Online Installer via wget neu starten. Eventuelle Einstellungen bleiben erhalten.
    Habe keine Fehlermeldung bekommen, aber nach wget ging es wieder problemlos!

    Vielen Dank!!!

  2. Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

  3. #9552
    gea
    gea ist offline
    Kapitän zur See
    Registriert seit
    16.11.2010
    Beiträge
    3.398


    Standard

    Zitat Zitat von morumbinas Beitrag anzeigen
    Habe keine Fehlermeldung bekommen, aber nach wget ging es wieder problemlos!

    Vielen Dank!!!
    Eine weitere Möglichkeit wären die Bootenvironments von Solarish gewesen.
    Das sind bootfähige Snaps mit dem Systemzuständen vor den letzten Änderungen.

    Die kann man beim Booten direkt anwählen um einen Stand vor einem der letzten Updates zu booten.

  4. #9553
    Obergefreiter
    Registriert seit
    12.05.2009
    Beiträge
    123


    • Systeminfo
      • Motherboard:
      • Supermicro X11SSH-TF
      • CPU:
      • Xeon E3-1240v6
      • Gehäuse:
      • Sharkoon Rebel 12
      • RAM:
      • 32GB Samsung ECC
      • Storage:
      • 4x 8TB Seagate IronWolf, 1x 4TB WD Red
      • Betriebssystem:
      • ESXi 6.5
      • Notebook:
      • Apple MacBook Pro 13" Retina (Late 2015), i7 3.1 GHz, 16GB RAM, 1 TB Flash
      • Photoequipment:
      • EOS 5D Mark II + viel Glas
      • Handy:
      • Blackberry Q10

    Standard

    Danke für die ausführliche Antwort, Trambahner!

    Zitat Zitat von Trambahner Beitrag anzeigen
    - Sowohl PM/SM863 als auch PM/SM883 unterstützen Trim, sofern es das OS tut. FreeBSD ZFS tut es. ZoL (und damit Proxmox) bin ich nicht auf dem aktuellen Stand. Trim kann übrigens auch nachteilig sein, denn es erhöht die Latenzen.

    Ich bin momentan auf dem aktuellen Omnios-Release. Soweit mir bekannt, gibt es dafür noch keinen Trim-Support. Oder ist mein Kenntnisstand mittlerweile überholt? Wie sieht es bei Solaris selbst aus?
    Server: Supermicro X11SSH-TF, Xeon E3-1240v6, 32GB ECC, 1TB Samsung SSD 960Pro, 512 GB Samsung SSD 850 Pro, Corsair Force MP500 NVMe 240GB, 1x4TB WD Red, 4x8TB Seagate Ironwolf @ESXi 6.5
    Workstation: ASRock Z97 Extreme6, i7 4790K, 16GB Corsair XMS, Asus GTX 1070 Strix, Samsung SSD SM951-NVMe 512GB, 30" Dell U3011
    Mobil: Apple MacBook Pro 13" Retina (Late 2015), i7 3.1 GHz, 16GB RAM, 1 TB Flash
    Tablet: iPad Pro 10.5" 512GB WiFi / Cellular

  5. #9554
    gea
    gea ist offline
    Kapitän zur See
    Registriert seit
    16.11.2010
    Beiträge
    3.398


    Standard

    Solaris kann Trim im Raid.
    Bei Illumos kann das NexentaStor. Es gibt aber ein Projekt um das in das allgemeine Illumos (OmniOS,OI) zu übernehmen.

    Man kann aber sagen, dass Trim bei einem Server mit konstanter Schreiblast nicht so viel bringt oder bei Enterprise SSD nicht wirklich nötig ist. Neue NVMe wie Intel Optane brauchen gar kein Trim mehr.

  6. #9555
    Matrose
    Registriert seit
    26.02.2019
    Ort
    Bribrabratwurst-Land
    Beiträge
    13


    • Systeminfo
      • Motherboard:
      • GIGABYTE X470 AORUS GAMING 5
      • CPU:
      • AMD Ryzen 7 2700X WRAITH
      • Kühlung:
      • be quiet! Silent Loop 280mm
      • Gehäuse:
      • be quiet! DARK BASE PRO900rev.
      • RAM:
      • G.Skill DIMM 32 GB DDR4-3200 K
      • Grafik:
      • GIGABYTE GeForce GTX 1080 G1
      • Monitor:
      • Acer Predator XB281HK
      • Sound:
      • Beyerdynamics MMX 300 2G Gaming-Headset
      • Netzteil:
      • Corsair HX850i
      • Betriebssystem:
      • Windows 10 Pro 64bit
      • Sonstiges:
      • G19 Keyboard, G700 Laser Mouse, Wacom Tablet Intuos Pro M, Panasonic Dokumentenscanner KV-S1026C
      • Photoequipment:
      • Canon EOS 750d

    Standard

    Hallo Zusammen,

    ich muss zugeben ich bin noch recht neu am Solaris 11 testen. Hatte nur gesehen, es gab wohl Probleme ursprünglich mit dem Broadcom SAS 9305-24i .
    Hat denn zwischenzeitlich schon jemand erfolgreich HDDs über den Broadcom SAS 9305-24i an das Solaris 11 (läuft im ESXi) durchgereicht?
    Würde mit dem geanken spielen mir den Controller anzuschaffen sollte es mittlerweile funktionieren.

    Bzw. gibt es denn alternativ ähnliche SAS Controller die mit Solaris 11 (im ESXI) laufen?

    Danke für eure Infos.

    Grüße
    Elektromat

  7. #9556
    Stabsgefreiter Avatar von me777
    Registriert seit
    07.04.2009
    Beiträge
    331


    Standard

    Nabend nochmal,
    mein Backup Datengrab meldet sich alle paar Tage mit ner Fehlermeldun/Warnuing:
    Code:
    ZFS has detected an io error:
    
       eid: 35
     class: io
      host: backup
      time: 2019-04-10 03:00:27+0200
     vtype: disk
     vpath: /dev/mapper/ld-ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N3VPFXRY
     vguid: 0x8720E9A41BE42EB0
     cksum: 0
      read: 0
     write: 0
      pool: backup
    SMART sagt bei beiden Platten bei denen es passiert alles OK, auch der Selbsttest.
    Aber ein scrub hat auf den 2 Platten jeweils mehrere checksum Fehler gefunden.
    Code:
    	    ld-ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2UARD0K  ONLINE       0     0    48
    	    ld-ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N3VPFXRY  ONLINE       0     0    44
    Suche ich hier nach einem Problem den Platten selbst oder ehr Controler oder Kabel?

    Danke.

  8. #9557
    Obergefreiter
    Registriert seit
    22.07.2013
    Beiträge
    71


    Standard

    Zitat Zitat von me777 Beitrag anzeigen
    Suche ich hier nach einem Problem den Platten selbst oder ehr Controler oder Kabel?
    Bei mir lag es damals an fehlerhafter Firmware für den HBA (die frühen Versionen der LSI Firmware v20 hatten Fehler, die mit der 20.0.0.7 (?) dann ausgemerzt waren). Firmware-Update und Kabel wechseln wären wohl die schnellsten und einfachsten Maßnahmen.

  9. #9558
    Stabsgefreiter Avatar von me777
    Registriert seit
    07.04.2009
    Beiträge
    331


    Standard

    das oben waren nur ausschnitte, ich habe insgesamt 8 von den 3TB (incl der 2 mit den Fehlern) und dann noch 8 4TB;
    hmm, das ich debian nutze hätte ich auch noch schreiben sollen. sorry.

    der controller sollte es nicht sein, dann müssten ja alle glechen Platten am controller gleichmäßig Fehler machen?

    eventuell hängen auch ausgerechenet die 2 direkt per SATA am mainborad. muss ich mal checken.

  10. #9559
    gea
    gea ist offline
    Kapitän zur See
    Registriert seit
    16.11.2010
    Beiträge
    3.398


    Standard

    Zitat Zitat von Elektromat Beitrag anzeigen
    Hallo Zusammen,

    ich muss zugeben ich bin noch recht neu am Solaris 11 testen. Hatte nur gesehen, es gab wohl Probleme ursprünglich mit dem Broadcom SAS 9305-24i .
    Hat denn zwischenzeitlich schon jemand erfolgreich HDDs über den Broadcom SAS 9305-24i an das Solaris 11 (läuft im ESXi) durchgereicht?
    Würde mit dem geanken spielen mir den Controller anzuschaffen sollte es mittlerweile funktionieren.

    Bzw. gibt es denn alternativ ähnliche SAS Controller die mit Solaris 11 (im ESXI) laufen?

    Danke für eure Infos.

    Grüße
    Elektromat
    Mein letzter Wissenstand war, dass es zumindest ohne Subscription/neuere Builds nicht geht.
    Unter ESXi geht allenfalls RDM einzelner Platten.

    Ich würde den BroadCom 9300 nehmen, gibts halt nicht mit 24 Port. Da brauchts mehrere oder einen Expander (am Besten dann mit SAS Platten).
    Geändert von gea (12.04.19 um 21:04 Uhr)

  11. #9560
    Kapitän zur See
    Registriert seit
    31.05.2010
    Ort
    Wo mein Daddel-PC steht
    Beiträge
    3.982


    • Systeminfo
      • Motherboard:
      • ROG STRIX Z270G GAMING
      • CPU:
      • Intel i7-7700K
      • Systemname:
      • 7700K
      • Kühlung:
      • MoRa3 + Watercool Blöcke
      • Gehäuse:
      • Nanoxia CoolForce2 Rev. B
      • RAM:
      • 32GB DDR4 ECC (2400)
      • Grafik:
      • Nvidia RTX 2080Ti FE
      • Storage:
      • SSDs: SM961 1TB, 840 EVO 1TB, 2x 860 EVO 1TB
      • Monitor:
      • Asus PB278Q / Eizo EV2750
      • Netzwerk:
      • 10Gbit, 100Gbit (Connectx-4)
      • Sound:
      • Chord Mojo / AKG K812 Pro
      • Netzteil:
      • Seasonic Prime Ultra Titanium
      • Betriebssystem:
      • Windows 10 Pro
      • Notebook:
      • Zu viele
      • Photoequipment:
      • Unbenutzt
      • Handy:
      • Zu viel benutzt

    Standard

    Hab den 9305-24i in einem X11Spi-TF mit Xeon Silver (siehe Signatur).

    PCIe-Passthrough des ganzen Controllers an Solaris (11.3 / 11.4) funktionierte bei mir leider nicht. Passthrough der einzelnen Platten funktioniert unauffällig und hab ich jetzt seit einigen Monaten so im Betrieb ohne Probleme.
    Spoiler: Anzeigen

  12. #9561
    Matrose
    Registriert seit
    26.02.2019
    Ort
    Bribrabratwurst-Land
    Beiträge
    13


    • Systeminfo
      • Motherboard:
      • GIGABYTE X470 AORUS GAMING 5
      • CPU:
      • AMD Ryzen 7 2700X WRAITH
      • Kühlung:
      • be quiet! Silent Loop 280mm
      • Gehäuse:
      • be quiet! DARK BASE PRO900rev.
      • RAM:
      • G.Skill DIMM 32 GB DDR4-3200 K
      • Grafik:
      • GIGABYTE GeForce GTX 1080 G1
      • Monitor:
      • Acer Predator XB281HK
      • Sound:
      • Beyerdynamics MMX 300 2G Gaming-Headset
      • Netzteil:
      • Corsair HX850i
      • Betriebssystem:
      • Windows 10 Pro 64bit
      • Sonstiges:
      • G19 Keyboard, G700 Laser Mouse, Wacom Tablet Intuos Pro M, Panasonic Dokumentenscanner KV-S1026C
      • Photoequipment:
      • Canon EOS 750d

    Standard

    Zitat Zitat von gea Beitrag anzeigen
    Mein letzter Wissenstand war, dass es zumindest ohne Subscription/neuere Builds nicht geht.
    Unter ESXi geht allenfalls RDM einzelner Platten.

    Ich würde den BroadCom 9300 nehmen, gibts halt nicht mit 24 Port. Da brauchts mehrere oder einen Expander (am Besten dann mit SAS Platten).

    Zitat Zitat von besterino Beitrag anzeigen
    Hab den 9305-24i in einem X11Spi-TF mit Xeon Silver (siehe Signatur).

    PCIe-Passthrough des ganzen Controllers an Solaris (11.3 / 11.4) funktionierte bei mir leider nicht. Passthrough der einzelnen Platten funktioniert unauffällig und hab ich jetzt seit einigen Monaten so im Betrieb ohne Probleme.

    Danke für eure Infos, das bringt mich auf den richtigen Weg.

  13. #9562
    Obergefreiter
    Registriert seit
    01.02.2013
    Beiträge
    88


    Standard

    Ist eigentlich die Verschlüsselung für Free ZFS schon releast worden?

  14. #9563
    Bootsmann Avatar von martingo
    Registriert seit
    17.01.2017
    Beiträge
    676


    Standard

    Dataset Verschlüsselung unter zfs on Linux wird in 0.8 enthalten sein, welches noch immer RC Status hat.

  15. #9564
    you
    you ist offline
    Hauptgefreiter
    Registriert seit
    28.12.2016
    Ort
    Dresden
    Beiträge
    144


    • Systeminfo
      • Motherboard:
      • Supermicro X10SRH-CLN4F
      • CPU:
      • Intel E5-2630LV4
      • Systemname:
      • Schätzele
      • Kühlung:
      • Noctua nh-u9dxi4
      • Gehäuse:
      • Supermicro SC743T-665B
      • RAM:
      • Samsung M393A4K40BB0-CPB x2
      • Grafik:
      • onboard
      • Storage:
      • HD for DATA an H310, SSDs for VMs an LSI3008
      • Monitor:
      • none
      • Netzwerk:
      • Ubiquiti: AP, USW POE, CK, USG
      • Sound:
      • none
      • Netzteil:
      • 650 Seasonic Prime Titaninium
      • Betriebssystem:
      • ESXI 6.5
      • Sonstiges:
      • napp-it Complete Pro Home, OPNSense
      • Notebook:
      • ja
      • Photoequipment:
      • jaaaa
      • Handy:
      • ja

    Standard

    Bei OmniOS passiert diesbezüglich leider nichts für mich Erkennbares. Verschlüsselung ist ein Feature, das ich gerne noch sehen würde.

  16. #9565
    gea
    gea ist offline
    Kapitän zur See
    Registriert seit
    16.11.2010
    Beiträge
    3.398


    Standard

    Die Firma Datto entwickelt ZFS Encryption auf Basis der noch aus OpenSolaris enthaltenen Code-Bestandteile aus der Oracle dann ZFS Verschlüssellung in Solaris 11 fertig entwickelt hat. Datto arbeitet mit ZoL so dass die freie Verschlüssellung zuerst für ZoL kommen wird.

    Es gibt aber Projekte das auch in die anderen Open-ZFS Plattformen zu übernehmen, Stand Illumos siehe 8727 Native data and metadata encryption for zfs by lundman · Pull Request #489 · openzfs/openzfs · GitHub

  17. #9566
    Gefreiter
    Registriert seit
    12.12.2014
    Beiträge
    33


    • Systeminfo
      • Motherboard:
      • Fujitsu D3417-B2
      • CPU:
      • Pentium G4600
      • RAM:
      • 32 GB ECC
      • Storage:
      • Intel 600p, 4x IronWolf 10TB, 2x Sams. 860 500GB
      • Betriebssystem:
      • ESXi / OmniOS napp-it

    Standard

    Zitat Zitat von gea Beitrag anzeigen
    Pool Export + Pool Import
    Pool an anderem Rechner einfach anstecken und Pool Import
    Pool Destroy und dann direkt wieder Pool Import

    Macht genau das gleiche. Das klappt wenn die Platten da sind oder eben nicht wenn Platten fehlen.
    Ein ZFS Pool kann aus allem gebildet werden was nach Platte riecht (Blockdevice), also Platten, Dateien, iSCSI, FC etc

    Also auch USB Pool oder aber eSata/Sata (mit aktiviertem Hotplug) oder Sata Platten an SAS Controller + hotplug fähiger Backplane. Letzteres wäre die beste Lösung zusammen mit incrementellem zfs send (Replikation) und damit ZFS Snaps/ Versionierung.
    Ok. Ich habe mich aus Kostengründen vorerst für die USB-Variante entschieden. HBA, Gehäuse, Backplane das sind ja locker 300€... Falls jemand eine Idee hat wie ich das günstiger umsetzen kann, bin ich für Vorschläge dankbar.

    Eine ergänzende Frage noch zu Napp-It: Der Backupserver verwaltet alle Replikations-Jobs. Das sind derzeit drei "Richtungen":
    1. Haupt-Server -> Backupserver
    2. Backupserver -> USB-Backup1 (vollständig)
    3. Backupserver -> USB-Backup2 (nur das nötigste)

    Dahinter verbergen sich jeweils 3 Dateisysteme - also sind es insgesamt 9 Replikations-Jobs (=9 benötigte Basis-Snapshots auf dem Backupserver).

    Kann es sein, dass die Replikations-Jobs sich gegenseitig die Snaps aufräumen?

    Ich habe gerade die Replikation 2. (keep hours:0,days:0,months:0,years:0 - kein hold) abgeschlossen.
    Dann die Replikation 1. (keep hours:24,days:32,months:12,years:2 - kein hold) gestartet. Nun fehlt der Basis-Snapshot auf dem Backupserver für die Replikation 2.

    Offenbar war es eine falsche Annahme dass die Aufräumregel nur durch den eigenen Replikationslauf ausgeführt wird.

    Wie stelle ich es nun am geschicktesten an, wenn ich auf den USB-Platten (bspw. bei den TV-Aufnahmen ) nur die für die Replikation notwendigen letzten Snaps behalten möchte? Auf dem Backupserver selbst ist mir das egal, aber man definiert die Anzahl der vorzuhaltenden Snaps ja je Pärchen...

    Viele Grüße
    Dirk

  18. #9567
    Gefreiter
    Registriert seit
    19.03.2018
    Beiträge
    54


    • Systeminfo
      • Motherboard:
      • Supermicro X11SSH-LN4F
      • CPU:
      • Intel Xeon E3 1225v6
      • Gehäuse:
      • Intertech 4U4408 19"
      • RAM:
      • Kingston 16GB UDIMM ECC
      • Storage:
      • Corsair MP500 480GM NVMe SSD
      • Netzteil:
      • Cooler Master V Series V550
      • Betriebssystem:
      • ESXi 6.5

    Standard

    Hallo zusammen!

    Kurze Frage:
    Szenario: Homeserver auf Napp-It Basis. ZFS-Pool "Data1" bestehend aus einer Festplatte (2TB). Es kommen 4 neue Festplatten zuu je 4TB dazu. Diese sollen die 2TB Platte vollständig ersetzen. Die 2TB Platte werde ich ggf. noch eine Zeitlang als Backup Medium verwenden.

    Nun die Frage: Welche Strategie würdet Ihr für die Datenmigration verwenden? Ich sehe zwei Möglichkeiten:
    1.) Neuen ZFS-Pool mit den vier neuen Platten anlegen (Raid-Z2, Zielkonfiguration, falls nicht jemand gute Argumente für eine andere Konfiguration hat, bin da offen). Anschließed die Dateisysteme per 'zfs send' von Data1 auf den neuen Pool migieren
    2.) Den bestehenden Pool Data1 sukzessive um die neuen Platten erweitern; zunächst den Pool um 3x 4TB Platte erweitern (Raid-Z2 angeben), nach Verteilung der Daten auf die drei neuen Platten die alte 2TB Platte raus nehmen und durch die vierte neue Platte ersetzen. Danach weitere Schritte notwendig?

    Sind beide Alternativen so machbar, welche wäre zu bevorzugen? Oder gibt es noch eine dritte Variante?

    Danke und Gruß

    Kandamir

    PS: Habe schon alle vier Platten in die Einschübe gesteckt (Hotwap fähiges Gehäuse mit SAS Backplane auf SATA-Controller, der ist per PassThrough an die Napp-IT VM durchgereicht), jedoch zeigt Napp-IT auch nach längerem Warten nur zwei der vier Platten an?! Schade, muss ich den Server wohl durchstarten...

  19. #9568
    Obergefreiter
    Registriert seit
    22.07.2013
    Beiträge
    71


    Standard

    Bei vier Platten würde ich ein RAID10 machen, kein RaidZ2.

    "Erweitern" des pools wird grds. nicht so funktionieren wie Du es Dir vorstellst (vor allem kein 3-Platten-RAIDZ auf ein 4-Platten-RAIDZ erweitern!), daher Strategie 1. Notfalls kannst Du ja auch erstmal ein RAID0 aus zwei Platten machen, per ZFS send migrieren und dann dann das RAID0 zu einem RAID10 erweitern (denn mirror hinzufügen geht, RAIDZ erweitern geht nicht).
    Geändert von asche77 (16.04.19 um 15:58 Uhr)

  20. #9569
    gea
    gea ist offline
    Kapitän zur See
    Registriert seit
    16.11.2010
    Beiträge
    3.398


    Standard

    Zitat Zitat von dstockm Beitrag anzeigen
    Ok. Ich habe mich aus Kostengründen vorerst für die USB-Variante entschieden. HBA, Gehäuse, Backplane das sind ja locker 300€... Falls jemand eine Idee hat wie ich das günstiger umsetzen kann, bin ich für Vorschläge dankbar.

    ...
    Kann es sein, dass die Replikations-Jobs sich gegenseitig die Snaps aufräumen?

    ...
    Wie stelle ich es nun am geschicktesten an, wenn ich auf den USB-Platten (bspw. bei den TV-Aufnahmen ) nur die für die Replikation notwendigen letzten Snaps behalten möchte? Auf dem Backupserver selbst ist mir das egal, aber man definiert die Anzahl der vorzuhaltenden Snaps ja je Pärchen...
    1.
    Für Zuhause gibt es z.B. das Silverstone CS 380. Kostet ca 130 Euro und hat 8 Hot-Plugfähige Wechseleinschübe - nicht nur für Sata sondern sogar dualpath SAS.

    2.
    Bei einer inkrementellen Replikation wird zu Beginn das Ziel-Dateisystem auf den letzten gemeinsamen Stand zurückgesetzt. Alle nachfolgenden Snaps gehen dabei verloren. Man kann also keine Replikation a > b > c laufen lassen sondern nur a > b und a > c.

    3.
    Wenn man keine zusätzlichen Snaps per keep oder hold definiert, werden immer nur die zwei letzten behalten. Eigentlich würde der letzte reichen, bei Übertragungsproblemen ist man aber oft froh den vorletzten Snap auch noch zu haben.

    - - - Updated - - -

    Zitat Zitat von kandamir Beitrag anzeigen

    PS: Habe schon alle vier Platten in die Einschübe gesteckt (Hotwap fähiges Gehäuse mit SAS Backplane auf SATA-Controller, der ist per PassThrough an die Napp-IT VM durchgereicht), jedoch zeigt Napp-IT auch nach längerem Warten nur zwei der vier Platten an?! Schade, muss ich den Server wohl durchstarten...
    Sata kann Hotplug aber

    - nicht mit jedem Chipsatz
    - teilweise nur wenn es im Bios aktiviert ist
    - unter OmniOS nur wenn es aktiviert ist

    siehe System > Tuning oder durch Anfügen in /etc/system von

    * enable sata hotplug
    set sata:sata_auto_online=1

  21. #9570
    Matrose
    Registriert seit
    04.01.2015
    Beiträge
    29


    Standard

    Hallo,
    ich suche einen sas und Nvme expander um SAS HD/SSD und Intel® Optane™ 480 GB, 2,5 Zoll, PCIe* 3.1 x4, 3D XPoint™ in ein Shelf mit einzubauen.
    Hat da vieleicht einer eine Expander gesehen mit dem das möglich ist.

    Viele Grüße
    Jörg

  22. #9571
    Gefreiter
    Registriert seit
    12.12.2014
    Beiträge
    33


    • Systeminfo
      • Motherboard:
      • Fujitsu D3417-B2
      • CPU:
      • Pentium G4600
      • RAM:
      • 32 GB ECC
      • Storage:
      • Intel 600p, 4x IronWolf 10TB, 2x Sams. 860 500GB
      • Betriebssystem:
      • ESXi / OmniOS napp-it

    Standard

    Zitat Zitat von gea Beitrag anzeigen
    1.
    Für Zuhause gibt es z.B. das Silverstone CS 380. Kostet ca 130 Euro und hat 8 Hot-Plugfähige Wechseleinschübe - nicht nur für Sata sondern sogar dualpath SAS.

    2.
    Bei einer inkrementellen Replikation wird zu Beginn das Ziel-Dateisystem auf den letzten gemeinsamen Stand zurückgesetzt. Alle nachfolgenden Snaps gehen dabei verloren. Man kann also keine Replikation a > b > c laufen lassen sondern nur a > b und a > c.

    3.
    Wenn man keine zusätzlichen Snaps per keep oder hold definiert, werden immer nur die zwei letzten behalten. Eigentlich würde der letzte reichen, bei Übertragungsproblemen ist man aber oft froh den vorletzten Snap auch noch zu haben.
    Danke!

    zu 1. Verstehe ich gerade selbst nicht, warum ich bisher nur an ein externes Laufwerksgehäuse gedacht habe.
    Dann noch einen LSI 2008 IT-Mode basierten Controller? Um wieviel erhöht sich dadurch der Stromverbrauch im Idle? Im Hauptserver wäre evtl. noch genug Platz für ein paar Wechselschächte.
    Ich versuche bislang jegliche zusätzliche Hardware im Hauptserver zu vermeiden, weil dadurch der Stromverbrauch deutlich steigt (aktuell 19W idle). Eine testweise installierte USB3.1 Karte hat glatt +15 Watt ohne angeschlossene Geräte ausgemacht. Ich denke mal ein extra HBA liegt da sicherlich nicht drunter.

    zu 2. Ah, Mist. Dann habe ich das ja schlau angestellt. Ok, dann muss das 2.+3. Backup halt als Quelle vom Haupt-Server aus laufen. Nun muss ich wieder die 12 + 4TB kopieren Wenn ich das noch ein paar mal machen muss, bin ich wirklich von USB weg (Punkt 1).

    Dann kann ich aber das Backup trotzdem vom Backupserver ausführen lassen, oder? Also so:
    a < b
    a < c durchgeführt durch b
    Dann muss ich als Quelle anstelle 127.0.0.1 den Hauptserver nehmen?!

    zu 3. Das bezieht sich dann aber nur auf ein Nicht-Replikationsziel? Es würde mir ja notfalls reichen, wenn ich auf dem Backupserver den vorletzen Snap noch hätte.
    Da war zumindest meine Grundannahme dass bei Keep/Hold=0 trotzdem mindestens ein Replikations-Snap stehen bleibt nicht so verkehrt. Nur leider nicht auf beiden Seiten...

    edit
    Ah, so ganz rund ist das für mich noch nicht. Folgende Hintergadanken hatte ich:
    - Hauptserver (a) kaputt: Als erstes das externe Backup (c) auf den Stand des Backupservers (b) bringen. Kurze Laufzeit da nur die letzten Änderungen. Erst dann komplette Rücksicherung nach a.
    - Backupserver kaputt: Nicht so schlimm. Der Hauptserver hat neuere Platten. c bleibt im Schrank und b wird nach Reparatur komplett neu von a befüllt.

    Das klappt natürlich mit meinem Ansatz a < c via b nicht...
    Dann wohl eher so:
    a > b (normales Backup)
    a > c via b (USB-Satz 1: Komplett-Backup)
    a > d (USB-Satz 2: Notfall-Backup nur das Nötigste)
    Geändert von dstockm (16.04.19 um 17:23 Uhr)

  23. #9572
    Gefreiter
    Registriert seit
    19.03.2018
    Beiträge
    54


    • Systeminfo
      • Motherboard:
      • Supermicro X11SSH-LN4F
      • CPU:
      • Intel Xeon E3 1225v6
      • Gehäuse:
      • Intertech 4U4408 19&quot;
      • RAM:
      • Kingston 16GB UDIMM ECC
      • Storage:
      • Corsair MP500 480GM NVMe SSD
      • Netzteil:
      • Cooler Master V Series V550
      • Betriebssystem:
      • ESXi 6.5

    Standard

    Zitat Zitat von asche77 Beitrag anzeigen
    Bei vier Platten würde ich ein RAID10 machen, kein RaidZ2.

    "Erweitern" des pools wird grds. nicht so funktionieren wie Du es Dir vorstellst (vor allem kein 3-Platten-RAIDZ auf ein 4-Platten-RAIDZ erweitern!), daher Strategie 1. Notfalls kannst Du ja auch erstmal ein RAID0 aus zwei Platten machen, per ZFS send migrieren und dann dann das RAID0 zu einem RAID10 erweitern (denn mirror hinzufügen geht, RAIDZ erweitern geht nicht).
    Danke für den Tipp. Warum würdest Du eher ein Raid10 wählen, statt eines Raid-Z2? Ich hatte Raid-Z2 jedoch mit dem Hintergedanken gewählt, dass bei Raid-Z2 zwei Platten gleichzeitig ausfallen dürfen. Bei Raid10 darf nur eine Platte gleichzeitig ausfallen. Da bei Ausfall einer Platte auf den verbleibenden Platten eine erhöhte Last liegt (Raidset muss repariert werden), ist die Ausfallwahrscheinlichkeit höher. Wenn dann von übrig gebliebenen Platten noch eine zweite Platte ausfällt, war es das... (dann muss das Backup dran...).

    Edit: Bzgl. Erweitern hattest Du mich vermiutlich missverstanden. Der ZFS-Pool ist aktuell kein Raid (einzelne Platte, 2TB). Ich würde auf einen Schlag den Pool um drei der vier neuen 4TB Plaztten erweitern als Raid-Z2, womit der Pool bestehen würde aus 1x 2TB und 3x 4TB. Nach Synchronisation würde ich die 2TB Platte entfernen (Raidset wäre degraded) und die vierte 4TB Platte stattdessen einbinden und erneut synchronisieren. Oder würden die Bestandsdaten auf der 2TB Platte gar nicht auf die drei 4TB Platten verteilt werden, wenn ich diese zum Raid-Z2 Verbund ergänze?

    Zitat Zitat von gea Beitrag anzeigen
    - - - Updated - - -



    Sata kann Hotplug aber

    - nicht mit jedem Chipsatz
    - teilweise nur wenn es im Bios aktiviert ist
    - unter OmniOS nur wenn es aktiviert ist

    siehe System > Tuning oder durch Anfügen in /etc/system von

    * enable sata hotplug
    set sata:sata_auto_online=1
    Danke, muss ich mir noch mal anschauen. Das Board (Supermicro X11SSH-LN4F) müsste das können, nur wie es im BIOS eingestellt ist, habe ich nicht im Kopf...
    Edit: Hotplug war im BIOS für alle SATA-Ports eingeschaltet.

    Die Tuning Parameter hatte ich noch gar nicht entdeckt, da ist unter /etc/system noch gar nix eingetragen... Sind die vorgeschlagenen Base Tuning Optionen quasi als Standardempfehlung zu sehen?

    * enable sata hotplug
    set sata:sata_auto_online=1
    * set disk timeout 15s (default 60s=0x3c)
    set sd:sd_io_time=0xF
    * limit arc cache (optional ex 80% of RAM)
    * set zfs:zfs_arc_max=0x133333333
    * enable l2arc cache for sequential data
    set zfs:l2arc_noprefetch=0
    * increase NFS number of threads
    set nfs:nfs3_max_threads=64
    set nfs:nfs4_max_threads=64
    * increase NFS read ahead count
    set nfs:nfs3_nra=32
    set nfs:nfs4_nra=32
    * increase NFS maximum transfer size
    set nfs3:max_transfer_size=1048576
    set nfs4:max_transfer_size=1048576
    * increase NFS logical block size
    set nfs:nfs3_bsize=1048576
    set nfs:nfs4_bsize=1048576
    Deine Meinung bzgl. der Datenmigration wäre mir noch wichtig.
    Geändert von kandamir (16.04.19 um 19:32 Uhr)

  24. #9573
    Leutnant zur See
    Registriert seit
    14.08.2014
    Ort
    Serverraum
    Beiträge
    1.053


    • Systeminfo
      • Motherboard:
      • Supermicro X11SSH-CTF / Thinkpad T470p
      • CPU:
      • Xeon E3-1240v5/ i7-7820HQ
      • Systemname:
      • 'Blechtrottl'
      • Kühlung:
      • NH-D15S / TP
      • Gehäuse:
      • Fractal Define R4 / TP
      • RAM:
      • 64GB ECC / 32GB
      • Grafik:
      • AST2400 / i7+Nvidia 940MX
      • Storage:
      • 6xSM863+6xHC530+i900p / PM961 1TB+MTS400 512GB
      • Monitor:
      • - / 2*Dell U2717D
      • Netzwerk:
      • 10Gbase-T (XS708-E) + 1Gbase-T
      • Sound:
      • - / SoundBlaster HD USB + Logi Z-2300
      • Netzteil:
      • 400W Bequiet StraightPower 10
      • Betriebssystem:
      • ESXI+FreeBSD / W10+W8
      • Sonstiges:
      • + 2x Dell T20 Xeon + 1x Lenovo M93p i5-4570 + 1x Asrock Z77 i7-3770K 4.5Ghz + X10SL7-F E3-1275v3
      • Notebook:
      • Thinkpad T470p

    Standard

    Ich mach das mit den Backups mit 2 ZFS-(V)Maschinen und übertrage da einfach inkrementell einzeln von Snap zu Snap vom Main auf den Backup.
    Ältere Snaps können dann mit der Zeit auf der Main-Maschine weg, auf der Backupmaschine sind diese Snaps dann ja auch noch drauf und die neueren Snaps entsprechend auf beiden.

  25. #9574
    Oberbootsmann Avatar von Luckysh0t
    Registriert seit
    08.11.2009
    Ort
    Lecker, lecker, lecker
    Beiträge
    934


    • Systeminfo
      • Motherboard:
      • ASUS ROG STRIX B350-F GAMING
      • CPU:
      • AMD Ryzen 5 1600X
      • Kühlung:
      • Noctua NH-D15 SE-AM4
      • Gehäuse:
      • Nanoxia Deep Silence 1 Rev. B
      • RAM:
      • 16 GB G.Skill FlareX DDR4-3200
      • Grafik:
      • PowerColor Go Green 6570
      • Storage:
      • Samsung 960 Evo 512 GB
      • Monitor:
      • Dell UltraSharp 21,5
      • Netzteil:
      • Be Quiet Dark Power Pro 550 W
      • Betriebssystem:
      • Windows 10 Pro

    Standard

    @kandamir

    Bei RAID 10 dürfen auch zwei HDDs ausfallen (bei 4 HDDs), es darf nur nicht das raid 1 paar sein was ausfällt.Was du meinst ist ein Raidz1 aka raid5
    Geändert von Luckysh0t (16.04.19 um 23:45 Uhr)

  26. #9575
    Gefreiter
    Registriert seit
    19.03.2018
    Beiträge
    54


    • Systeminfo
      • Motherboard:
      • Supermicro X11SSH-LN4F
      • CPU:
      • Intel Xeon E3 1225v6
      • Gehäuse:
      • Intertech 4U4408 19&quot;
      • RAM:
      • Kingston 16GB UDIMM ECC
      • Storage:
      • Corsair MP500 480GM NVMe SSD
      • Netzteil:
      • Cooler Master V Series V550
      • Betriebssystem:
      • ESXi 6.5

    Standard

    Okay, das wäre also eine 2/3-Chance, dass es gut geht. Oder anders herum: eine 1/3-Chance, dass es die eine Platte trifft, die es nicht treffen soll. Unter der Annahme, dass eine zweite Platte kaputt geht. Hmmm... Und was ist der Benefit von Raid10? Etwas mehr Netto-Plattenplatz und?


Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •