Seite 350 von 351 ErsteErste ... 250 300 340 346 347 348 349 350 351 LetzteLetzte
Ergebnis 8.726 bis 8.750 von 8751
  1. #8726
    Kapitänleutnant
    Registriert seit
    17.03.2007
    Beiträge
    1.617


    Standard

    Profitiert zfs eher von Takt oder von cores? Bin am überlegen, ob ich mein Opteron 3280 als Filer einsetzen soll und als proxmox-server eher was wie n dell r210-ii holen soll. CPU-Stromsparen muss man ja wohl per hand irgendwie aktivieren? Funktioniert spindown? Tendiere zwischen nas4free und freenas. Möchte erst nach und nach den Pool erweitern. Hier geht es mir primär um Datendurchsatz und Kapazität, Integrität ist jetzt nicht soooo wichtig, da vom wichtigsten eh Backups existieren.

    Ist der Opteron 3280 dafür ausreichend?

    Was ich machen möchte: als Speichergrab für Mediendateien, als VM-host (nur um die Rechenleistung bei encodiervorgängen zu beschleunigen) und als installationsort für VMs und Windows (10Gbit).
    Aktuell habe ich einen A10-6800k mit non-ecc RAM als Fileserver mit openmediavault mit snapraid und mergerfs auf 3TB 3.5" hdds.
    Da diese Festplatten etwas zu viel Strom fressen, sollen es viele kleinere 1TB 2.5" werden in zfs für mehr Durchsatz.
    Der Opteron ist aktuell mein proxmox-server für n Dutzend LXC, jedoch dafür total oversized. Windows VMs laufen da zwar auch sporadisch, da ich aber mit GPU-Passtrough das auf eine weitere Maschine auslagern will z.B. auf den dann freiwerdenden A10 oder gar auf n FX-8300 (damit die GPU nicht immer Strom verbraucht), sind 8 Kerne für n paar LXC zu viel. Auch benötige ich etwas mehr Bandbreite, weshalb ich ZFS ins Auge fasse.
    Spoiler: Anzeigen

  2. Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

  3. #8727
    Oberstabsgefreiter Avatar von martingo
    Registriert seit
    17.01.2017
    Beiträge
    501


    Standard

    Zitat Zitat von gea Beitrag anzeigen
    Danke Dir erstmal. Ein Mapping für root auf /root habe ich hinbekommen. Am Mapping für die anderen Benutzer scheitert es gerade noch. Sehe die Freigabe, aber komme nicht drauf. Ob es daran liegt, dass deren Home Verzeichnis auf einem bestehenden Share liegt oder ob es an den Berechtigungen hapert, muss ich noch eruieren.
    Wenn ich root testweise mal auf den gleichen Share mappe, werde ich es sehen. Werde das die Tage mal testen.

  4. #8728
    Oberstabsgefreiter
    Registriert seit
    16.04.2012
    Beiträge
    397


    Standard

    Tty.c: loadable library and perl binaries are mismatched (got handshake key 9e00080, needed 9e40080)
    Bekomme diese Fehlermeldung wenn ich in der WebGui auf "Pools" oder ""ZFS Filesystems" klicke.
    Einzige Veränderung war in letzter Zeit ein Update auf die aktuelle Version (26) und dass ich eine USB Platte dran gesteckt habe.
    Geändert von CommanderBond (14.05.18 um 14:08 Uhr)

  5. #8729
    gea
    gea ist offline
    Fregattenkapitän
    Registriert seit
    16.11.2010
    Beiträge
    2.944


    Standard

    napp-it unterstützt OmniOS 151026 ab 18.01 (April 02)

    Nach dem Update muss man sich in napp-it aus/einloggen.
    Wenn nach dem Update der Fehler mit der Perl-Bibliothek bleibt, das Update nochmal laden.

  6. #8730
    gea
    gea ist offline
    Fregattenkapitän
    Registriert seit
    16.11.2010
    Beiträge
    2.944


    Standard

    Vielleicht auch hier interessant

    - Intel Optane als ZFS Pooldisk wenn hohe sync write Raten benötigt werden
    - Intel Optane als Slog bzw mehrere Optane als Slog für Load-Balancing

    Intel Optane (32G/800P/900P) for ZFS pools and Slog on Solaris and OmniOS | ServeTheHome and ServeThe.Biz Forums

  7. #8731
    Oberstabsgefreiter Avatar von martingo
    Registriert seit
    17.01.2017
    Beiträge
    501


    Standard

    Kann man mit napp-it auch den rpool produktiv nutzen? Ich habe Solaris auf eine eingebaute Platte installiert. Die zweite Platte habe ich dann als Mirror hinzugefügt.
    Anlegen kann ich ZFS Filesystems aber nur auf einer dritten Platte, die extern dranhängt.
    Bedeutet das im Umkehrschluss, dass ich Solaris und napp-it zwingend auf einen Stick o.ä. installieren muss, wenn ich die zwei internen Platten produktiv für SMB Shares, NFS usw. nutzen will?

  8. #8732
    Leutnant zur See
    Registriert seit
    10.03.2004
    Ort
    Köln
    Beiträge
    1.150


    • Systeminfo
      • Motherboard:
      • ASROCK B75 Pro3-M
      • CPU:
      • E3-1230V2 @ stock
      • Kühlung:
      • Thermalright HR-02 Macho PCGH
      • Gehäuse:
      • Fractal Design R4
      • RAM:
      • 16 GB DDR3 Corsair PC3-12800
      • Grafik:
      • Gigabyte R7-360 - 2GB
      • Storage:
      • RaidZ2 mit 40TB in LianLi Q26
      • Monitor:
      • Dell U2515h
      • Netzwerk:
      • GBit
      • Sound:
      • onboard mit M-Audio BX5 Boxen
      • Netzteil:
      • Enermax MODU82+ 525W
      • Betriebssystem:
      • Windows 10
      • Sonstiges:
      • Epson WP 4535; NUC 3217IYE Win10/Kodi
      • Photoequipment:
      • Nikon D300s; SB-900; 16-85mm; 50mm
      • Handy:
      • Lumia 950 DS, Vernee M5

    Standard

    Kurz gesagt: Ja.

  9. #8733
    gea
    gea ist offline
    Fregattenkapitän
    Registriert seit
    16.11.2010
    Beiträge
    2.944


    Standard

    Vom OS aus gesehen: ja, für napp-it eher nein (ausser man macht die Shares auf der Console)

    Prinzipiell ist rpool ein normaler ZFS Pool auf dem man Dateisysteme anlegen und sharen kann (könnte). Man kann rpool auch spiegeln und bei einigen Systemen (aktuelles OmniOS, BSD) kann man auch einen Rpool auf einem Raid-Zn anlegen.

    Es ist aber dennoch so, dass man System und Daten trennen sollte, zumindest bei etwas professionelleren Anwendungen. Napp-it selber geht auch davon aus und unterstützt viele Features nur auf einem Datenpool nicht auf rpool. Der Systempool muss auch rpool heißen.

    Früher ging das auch gar nicht anders. Wenn ich mal Zeit finde werde ich das vielleicht ändern um die Möglichkeiten eines aktuellen OmniOS abzudecken. Das greift aber an sehr vielen Stellen in das Management ein.

    Solaris oder genauer gesagt der Bootmanager Grub unterstützt nach wie vor nur Mirror. Mir ist zumindest nicht bekannt dass Oracle da was ändert.

  10. #8734
    Oberstabsgefreiter
    Registriert seit
    16.04.2012
    Beiträge
    397


    Standard

    Ist aber kein Beinbruch bei nem gescheiten USB Stick mit wear leveling wie zB Sandisk Extreme Pro

  11. #8735
    Oberstabsgefreiter
    Registriert seit
    16.04.2012
    Beiträge
    397


    Standard

    Gibt es eigentlich einen schnellen Weg alle Snapshots eines ZFS Datasets mit auf einen neuen Pool zu nehmen?

    Note that the first argument (snap1) is the earlier snapshot and the second argument (snap2) is the later snapshot. In this case, the newtank/dana file system must already exist for the incremental receive to be successful.
    Was ist mit earlier und later gemeint? Meint earlier den älteren Snapshots? Oder derjenige der vom jetzigen Zeitpunkt ausgesehen noch net so lange her ist?

  12. #8736
    Obergefreiter
    Registriert seit
    28.04.2007
    Beiträge
    94


    Standard

    Bei nem kompletten Pool inkl. allem (Snapshots und aller Datasets):

    zfs snapshot -r [email protected]
    zfs send -R [email protected] | zfs receive -F pool_B

    Bzw. so wenn du den Fortschritt live sehen willst: zfs send -Rv [email protected] | zfs receive -F pool_B

  13. #8737
    Oberstabsgefreiter
    Registriert seit
    16.04.2012
    Beiträge
    397


    Standard

    Will aber nur ein dataset. Der ganze Pool ist zu groß für das Ziel

  14. #8738
    gea
    gea ist offline
    Fregattenkapitän
    Registriert seit
    16.11.2010
    Beiträge
    2.944


    Standard

    Dann halt nicht pool sondern pool/filesystem als Quelle für die rekursive Replikation

  15. #8739
    Oberstabsgefreiter
    Registriert seit
    16.04.2012
    Beiträge
    397


    Standard

    Mit Rekursiv sind doch immer nur die darunter liegenden Filesysteme gemeint dachte ich?
    Steh grad auf dem Schlauch. Meinte Rekursiv jetzt auch die Snapshots?

  16. #8740
    gea
    gea ist offline
    Fregattenkapitän
    Registriert seit
    16.11.2010
    Beiträge
    2.944


    Standard

    Rekursiv bedeutet inkl darunter liegender Dateisysteme.
    Damit das aber inkrementell keine Probleme macht (wg neuen oder gelöschten Dateisystemen) werden die Snaps repliziert.

    Einfach mal ausprobieren ob das Ergebnis so ist wie gewünscht.

  17. #8741
    Oberstabsgefreiter
    Registriert seit
    16.04.2012
    Beiträge
    397


    Standard

    Glaube Rekursiv ist der falsche Befehl.

    Habe einen Snapshot erstellt den nach ssdpool/test123 gesendet und anschließend folgenden Befehl eingegeben:

    zfs send -I tank/[email protected] tank/[email protected] | zfs receive ssdpool/test123

    Jetzt sind auch die Snapshots am Ziel die zwischen den beiden angegeben Snapshots erstellt worden sind.

    Müsste doch korrekt sein oder?
    Geändert von CommanderBond (17.05.18 um 18:12 Uhr)

  18. #8742
    Kapitän zur See
    Registriert seit
    13.06.2006
    Ort
    Würzburg
    Beiträge
    3.113


    • Systeminfo
      • Motherboard:
      • Asus M5A97 LE R2.0
      • CPU:
      • AMD FX-6300 @ Stock
      • Systemname:
      • Gut(t)enberg
      • Kühlung:
      • True Spirit 120, 2x80mm
      • Gehäuse:
      • Chenbro RM413 mit 2 Käfigen
      • RAM:
      • 2x8GB Kingston DDR3-1600 ECC
      • Grafik:
      • Gigabyte Radeon 260X 2GB
      • Storage:
      • 8x2000 GB (@RAIDZ2), 40GB Vertex2 (Sys)
      • Monitor:
      • SSH... (zur Not: Fushitsu P20, 20" 1600x1200 SPVA)
      • Netzwerk:
      • Intel EXPI9301 CT Gigabit
      • Sound:
      • Sound? Im Server?!
      • Netzteil:
      • BQT PP L7-350W + APC-USV 700VA
      • Betriebssystem:
      • Solaris 11.2 + napp-it
      • Sonstiges:
      • IBM BR10i, 2x Chenbro SR107-Backplanes (MiniSAS) umgebaut für 5,25''
      • Notebook:
      • ThinkPad T400 / P9700 / 2x4GB / 256+128+2x32 GB / WXGA+ LED / GMA + 2503 Grakadock / abgn+BT+UTMS
      • Photoequipment:
      • Nokia N900
      • Handy:
      • Nokia N900! :P

    Standard

    Zitat Zitat von CommanderBond Beitrag anzeigen
    Ist aber kein Beinbruch bei nem gescheiten USB Stick mit wear leveling wie zB Sandisk Extreme Pro
    Hab ich was verpasst? Extreme 32, 64 und Extreme Pro 128 kann man mit normaler Nutzung in die Knie zwingen. Das Contröllerchen dadrin hat am Anfang zwar viel Dampf, aber wehe man nutzt das Teil intensiv.

    Ja, definitiv lieber nehmen als Sticks vom Grabbeltisch.
    Nein, definitiv nicht nehmen, wenn man auch echte SSDs verbauen kann. Und seien sie noch so billig. Vertex2 40GB

  19. #8743
    Oberstabsgefreiter Avatar von martingo
    Registriert seit
    17.01.2017
    Beiträge
    501


    Standard

    Hast Du die eigentliche Fragestellung gelesen? Es ging nicht darum, das "Teil intensiv zu nutzen". Es ging darum, ein Solaris mit napp-it von dort laufen zu lassen. Da passiert nach dem Booten fast nichts auf dem USB-Stick.

    Meine Frage wurde beantwortet, vielen Dank!
    Geändert von martingo (17.05.18 um 23:54 Uhr)

  20. #8744
    Oberstabsgefreiter
    Registriert seit
    16.04.2012
    Beiträge
    397


    Standard

    Zitat Zitat von Bzzz Beitrag anzeigen
    Hab ich was verpasst? Extreme 32, 64 und Extreme Pro 128 kann man mit normaler Nutzung in die Knie zwingen. Das Contröllerchen dadrin hat am Anfang zwar viel Dampf, aber wehe man nutzt das Teil intensiv.

    Ja, definitiv lieber nehmen als Sticks vom Grabbeltisch.
    Nein, definitiv nicht nehmen, wenn man auch echte SSDs verbauen kann. Und seien sie noch so billig. Vertex2 40GB
    Es wurd auch nirgendwo gesagt dass eine SSD nicht vorzuziehen ist. Aber was wenn man nur einen SATA Port benötigt?
    Ferner geh vielleicht auch mal auf die Seite von Sandisk
    Solid State USB Flash-Laufwerk

    Das SanDisk Extreme PRO USB 3.1 Solid State Flash-Laufwerk bietet die Leistung, Kapazität und Zuverlässigkeit einer SSD in einem vollständig mobilen USB Flash-Laufwerk.
    Das Teil ist quasi ne SSD nur mit nem USB Anschluss.
    Zumal auch nicht gesagt wurde dass man da jetzt 5 VMs gleichzeitig drauf betreiben soll sondern es war nur als Alternative zusehen wo man das OS drauf installiert wenn man keinen Sata Port zur Verfügung hat.
    Geändert von CommanderBond (17.05.18 um 23:58 Uhr)

  21. #8745
    Oberbootsmann Avatar von Luckysh0t
    Registriert seit
    08.11.2009
    Ort
    Daheim
    Beiträge
    779


    • Systeminfo
      • Motherboard:
      • ASUS ROG STRIX B350-F GAMING
      • CPU:
      • AMD Ryzen 5 1600X
      • Kühlung:
      • Noctua NH-D15 SE-AM4
      • Gehäuse:
      • Lian Li Armorsuit PC-P50
      • RAM:
      • 16 GB G.Skill FlareX DDR4-3200
      • Grafik:
      • PowerColor Go Green 6570
      • Storage:
      • Samsung 960 Evo 512 GB
      • Monitor:
      • Dell UltraSharp 21,5
      • Netzteil:
      • Be Quiet Dark Power Pro 550 W
      • Betriebssystem:
      • Windows 10 Pro

    Standard

    @Martingo

    Im zweifel könnte man auch eine m.2 Sata SSD nach Wahl und ein entsprechendes m.2 USB-Stick - Gehäuse nehmen, wenn man den Platz hat, da die ja doch etwas größer sind.

    z.B
    Silverstone SST-MS09C externes M.2-SATA-SSD Gehäuse silber 4710007225424 | eBay
    Solaris,Filer,vBox Host: Chenbro SR30169 - AMD Athlon 5350 - AC M1 - ASRock AM1B-ITX - 16 GB DDR 3 1600 - Crucial SSD (Rpool) - SanDisk SSD (VM Pool) - Seagate Ironwolf (Datenpool) - BQ PP 9 300W
    Pi 3B+,Stretch: Suche noch Einsatzgebiet
    Infra:UBNT UniFi USG, UBNT UniFi AP-AC-LR, MT CSS326-24G-2S+RM
    vBoxVM on Solaris: DietPi (PiHole), Ubuntu Server (UniFi Controller), Win7 (itunes Airplay Server)
    D3-Profil

  22. #8746
    Oberstabsgefreiter Avatar von martingo
    Registriert seit
    17.01.2017
    Beiträge
    501


    Standard

    Das ist lieb von Euch, dass ihr euch weiter Gedanken macht, aber meine Frage ist wirklich beantwortet.
    Es geht dabei um einen kleinen ungenutzten 1HE Supermicro Atom. Der soll nichts weiter machen, als an einem anderen Ort einmal die Woche Proxmox Backups auf die internen Platten zu empfangen und gelegentlich auf die externe Platte Snapshots anzufertigen, weil der Platz auf den internen Platten begrenzt ist. Wenn der USB-Stick die Grätsche macht, ist das System in einer Stunde wieder aufgesetzt. Wenn der ganze Server in Flammen aufgeht, weine ich ebenfalls nicht. Es handelt sich dabei nur ums Backup vom Backup vom Backup.

  23. #8747
    Oberstabsgefreiter
    Registriert seit
    16.04.2012
    Beiträge
    397


    Standard

    Zitat Zitat von Luckysh0t Beitrag anzeigen
    @Martingo

    Im zweifel könnte man auch eine m.2 Sata SSD nach Wahl und ein entsprechendes m.2 USB-Stick - Gehäuse nehmen, wenn man den Platz hat, da die ja doch etwas größer sind.

    z.B
    Silverstone SST-MS09C externes M.2-SATA-SSD Gehäuse silber 4710007225424 | eBay
    Könnte man, aber einen Vorteil sehe ich nicht wenn man das auch direkt mit einem Gerät erreichen kann. Ich denke ein moderner "HighEnd" Stick ist im Grunde sowieso doch dasselbe wie eine "externe" USB SSD.

    Mein Sandisk Extreme Pro läuft immer noch obwohl der "nur" 16GB groß ist und schon locker über 2TB drauf geschrieben wurde. Kann man ja mit CrystalDiskInfo auch auslesen, wie bei klassischen SSDs. Nen 16GB billig USB Stick den ich auch mal benutzt habe war nach etwa einem Jahr defekt.

    Wollte nur ne Empfehlung für den Stick aussprechen falls man was in der Richtung sucht. Irgendwo in einem Sandisk Forum hatte ja auch mal ein Mitarbeiter behauptet dass sämtliche Produkte über Wear Leveling verfügen von denen.
    Ist ja nicht so dass sich da in den letzten Jahren bei USB Sticks und SD Karten überhaupt nix getan hat.
    Geändert von CommanderBond (18.05.18 um 15:24 Uhr)

  24. #8748
    Oberstabsgefreiter
    Registriert seit
    16.04.2012
    Beiträge
    397


    Standard

    Zitat Zitat von gea Beitrag anzeigen
    Vom OS aus gesehen: ja, für napp-it eher nein (ausser man macht die Shares auf der Console)

    Prinzipiell ist rpool ein normaler ZFS Pool auf dem man Dateisysteme anlegen und sharen kann (könnte). Man kann rpool auch spiegeln und bei einigen Systemen (aktuelles OmniOS, BSD) kann man auch einen Rpool auf einem Raid-Zn anlegen.

    Es ist aber dennoch so, dass man System und Daten trennen sollte, zumindest bei etwas professionelleren Anwendungen. Napp-it selber geht auch davon aus und unterstützt viele Features nur auf einem Datenpool nicht auf rpool. Der Systempool muss auch rpool heißen.

    Früher ging das auch gar nicht anders. Wenn ich mal Zeit finde werde ich das vielleicht ändern um die Möglichkeiten eines aktuellen OmniOS abzudecken. Das greift aber an sehr vielen Stellen in das Management ein.

    Solaris oder genauer gesagt der Bootmanager Grub unterstützt nach wie vor nur Mirror. Mir ist zumindest nicht bekannt dass Oracle da was ändert.
    Das würde aber doch Sinn ergeben um OS und VMs /LXZones gemeinsamm auf einem Mirror Pool abzulegen. So würde man sich die seperate SSD sparen können für VMs, bzw könnte einen einzigen Mirror Pool sowohl fürs OS als auch VMs benutzen.
    Geändert von CommanderBond (19.05.18 um 22:53 Uhr)

  25. #8749
    gea
    gea ist offline
    Fregattenkapitän
    Registriert seit
    16.11.2010
    Beiträge
    2.944


    Standard

    Prinzipiell ist das auf der Todo Liste so wie auch beliebige Poolnamen für den Systempool und Shares auf rpool.

    Die Grundphilosophie ist aber:
    Auf rpool gehört absolut nichts wichtiges das man sichern müsste. Wenn die Systemplatte ausfällt, so sollte eine Neuinstallation + Pool Import das Standardverfahren sein um das Storage innerhalb von wenigen Minuten nach System Totalcrash wieder lauffähig zu haben. Je mehr man auf die Systemplatte legt, desto aufwändiger wird ein Restore nach Crash, bis hin zur Notwendigkeit von Backup und Disaster Recovery Verfahren. Ein Rpool Mirror ist daher auch nur dazu da, die Verfügbarkeit zu verbessern.

    Wer sich daran hält, muss ein paar Euro extra für eine kleine separate Bootplatte ausgeben, hat dafür aber im Fall eines Crashs weniger Probleme (und nutzt den SSD Mirror dann für VMs)

  26. #8750
    Ozy
    Ozy ist offline
    Matrose
    Registriert seit
    24.05.2008
    Beiträge
    7


    Standard

    Hallo ZFS-Freunde,

    ich habe einen Heim-File-Server aus 6 Supermicro SAS826-TQ Backplanes (je 12 Anschlüsse) gebaut. Je 2 Backplanes hängen an einem HP-24fach SAS Expander, welcher wiederum von einem Dell Perc H200 (IT geflasht) betrieben wird. Zur Zeit betreibe ich da 4 Pools, die aus jeweils einem raidz2 vdev mit 9 Platten bestehen. Die Geometrie ist so, dass je 3 Platten an einer Backplane hängen, d.h. jedes vdev hängt an 3 Backplanes über 3 Expander an 3 Controllern. Ich hielt das aus Performance-Gründen für eine gute Idee, frage mich jetzt aber, wie es im Falle eines Hardware-Fehlers seitens Backplane/Expander/Controller aussieht? Wenn von denen ein Gerät aussteigt, fehlen den vdevs plötzlich 3 Platten. Wie reagiert ZFS in dem Fall? Sind die Pools dann Schrott, oder kann ich die wiederholen, wenn das entsprechende Bauteil ersetzt wurde?


Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •