Seite 92 von 368 ErsteErste ... 42 82 88 89 90 91 92 93 94 95 96 102 142 192 ... LetzteLetzte
Ergebnis 2.276 bis 2.300 von 9192
  1. #2276
    Hauptgefreiter
    Registriert seit
    08.12.2011
    Beiträge
    238


    Standard

    Zitat Zitat von millenniumpilot Beitrag anzeigen
    ich habe das gerade durch: Pool exportieren, ESX runterfahren und Karte tauschen, neue Karte durchreichen, Pool importieren
    Hi millenniumpilot,

    Perfekt. Besten Dank. Werde ich so machen.

  2. Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

  3. #2277
    Bootsmann Avatar von antilope114
    Registriert seit
    12.01.2012
    Ort
    Limbo
    Beiträge
    646


    • Systeminfo
      • Betriebssystem:
      • Linux
      • Handy:
      • Apple iPhone 5S

    Standard

    Zitat Zitat von chlen Beitrag anzeigen
    @antiplope: Ich habe keine Idee, wie Du in Deinem Setup bei seq. Writes auf 100 MB/s ohne zusätzliche ZIL SSD (und bei aktivierten synchronen writes) kommst. In meinem Fall ist nicht mehr als 26MB/s drin. Mit der Intel 320 als ZIL verbessert sich die Situation, ohne sind es aber sehr mau aus.
    Eigentlich sollte das zusätzliche Log device bei großen sequential writes genau 0 Unterschied machen, v.a. bei CIFS. Das dürften bei dir also zufällige Schwankungen sein.

    Selbst bei random writes schaffe ich teilweise >50 MB/s. Es hängt dann vielleicht an deinen Festplatten (ich nehme an du nutzt SATA-Laufwerke?) bzw. der Poolarchitektur (was auch immer du aufgesetzt hast)

    Ich habe übrigens Jumboframs aktiviert.

    Grüße
    Laptop: ThinkPad X220 | Core i7-2640M | 16 GB Ram | Intel SSD DC S3510 120GB | 3G HSPA | Intel Centrino Ultimate-N 6300 | Ubuntu 16.04 64-bit
    Server: 6x3TB SAS RAID10 (Solaris 11.3) | LSI 9211-8i | Supermicro X8SIL-F | Intel Xeon X3440 | 32 GB PC3-8500R reg ECC | Intel PCIe PRO/1000 PT Dual Port Server NIC | HP ProCurve 1810-8G [powered by ESXi 5.5U3 and pfSense 2.3.3-RELEASE-p1]
    Handy: iPhone SE 128GB

  4. #2278
    gea
    gea ist offline
    Kapitän zur See
    Registriert seit
    16.11.2010
    Beiträge
    3.175


    Standard

    Zitat Zitat von chlen Beitrag anzeigen
    Nachdem ich Jumboframes in ESXI und Solaris/ OI abgestellt, habe funktioniert das All-in-One-Konzept ohne Probleme.
    Ich kann jetzt VMs in ESXI auf dem per NFS exportierten datastore einrichten - auch mit vmxnet3-Treiber.
    Danke für den Tipp!

    Ich muss am Wochenende noch ein paar Tests machen, um mich zu entscheiden, ob ich die VMs auf NFS datastore or ISCSI datastore einrichte.
    Meine ersten Tests haben signifikante Performance-Unterschiede (bei seq. reads) gezeigt. Muss das aber nochmals mit IOmeter nachmessen, da ich CrystalDiskMark nicht (mehr) traue (die Varianzen der messungen sind zu gross).
    @antiplope: Ich habe keine Idee, wie Du in Deinem Setup bei seq. Writes auf 100 MB/s ohne zusätzliche ZIL SSD (und bei aktivierten synchronen writes) kommst. In meinem Fall ist nicht mehr als 26MB/s drin. Mit der Intel 320 als ZIL verbessert sich die Situation, ohne sind es aber sehr mau aus.

    Abschliessend noch ein paar Fragen und eine Beobachtung bszgl. Comstar/iscsi mit napp-it 8k:
    1) Das iscsi-LUN liegt ja in einem ZFS Folder: Ich nehme an, ich muss in diesem Fall write-sync auf "standard" (d.h. keine asynchronen Writes) stellen. Was wären die Konsequenzen, wenn ich das nicht tue?
    2) Den Write-Back Cache des LUNs habe ich "enabled" (safe but slow) gestellt: Was sind die Konsequenzen, wenn ich das nicht tue?
    3) Ich bin nicht in der Lage mit napp-it ein CHAP user/pwd einzurichten. Wenn ich es über das Comstar-Menü (Edit Target) eingebe, ist es anschliessend in der Target-Übersicht als "unset" deklariert. Mein Eindruck ist, dass napp-it ein "+"-Symbol an den entsprechenden CLI-Befehl anhängt und der Befehl daher nicht ausgeführt wird.
    Per Kommandozeile kann ich den Befehl ausführen. Leider habe ich es auch anschliessend nicht geschafft, das ISCSI LUN unter Windows 7 mit CHAP-Authentifizierung einzubinden. Das target wird discovered. Wenn ich unter "advanced settings" im initiator CHAP username und Passwort (12 Zeichen) eingebe, erhalte ich immer einen "Authentification Error". Ohne Chap kein Problem.
    Muss ich weitere Services unter napp-it aktivieren?

    sync=default=auto -> ZFS beachtet den Wunsch der schreibenden Anwendung
    wenn man sync nicht möchte, dann sync=off

    Bei 1 und 2 geht es um das gleiche. Wenn der Strom ausfällt, sind eventuell die letzten 5s Schreiben verloren.
    Wenn man das nicht möchte, muss man sync aktiviert lassen (via default=auto).
    Es kann bei kleinen Dateien dann aber erheblich lansamer sein als mit sync=off

    Wenn es schnell sein soll und sicher, dann braucht man ein Log-device.
    Wenn es praktisch gleich schnell sein soll dann ein DRAM Logdevice.

    Wobei bei einem all-in-one meist eine kleine USV eine bessere Investition ist als ein teures Log-device.


    zu 3.
    Da ich complett auf NFS umgestellt habe, müsste ich mr iSCSI + chap erst mal wieder anschauen
    Bei Bedarf einfach das Script für edit target anschauen:
    "/var/web-gui/data/napp-it/zfsos/09_comstar iscsi/03_targets/03_edit iscsi targets/action.pl"


    mit
    &print_var($variable);
    kann man das script anhalten und den Inhalt von $variable ausgeben.
    Das Passwort steht in: /var/web-gui/data/napp-it/_log/passwd.txt

    ---------- Post added at 20:54 ---------- Previous post was at 20:48 ----------

    Zitat Zitat von antilope114 Beitrag anzeigen
    Eigentlich sollte das zusätzliche Log device bei großen sequential writes genau 0 Unterschied machen, v.a. bei CIFS. Das dürften bei dir also zufällige Schwankungen sein.

    Grüße
    Sync write wird nur benutzt, wenn die schreibende Anwendung das anfordert (egal ob bei großen und kleinen Dateien) Die Größe des Log device muss aber lediglich so groß sein um max 10s Daten zu puffern (10 Gb/s=1GB/s x 10 = 10 GB)
    Selbst bei 10 Gbe reicht also ein 8GB ZIL so wie es bei einem ZeusRAM der Fall ist.

    CIFS benutzt das nicht und da ist es egal.

  5. #2279
    Hauptgefreiter Avatar von Freak240
    Registriert seit
    18.03.2012
    Ort
    im schnuggelischen Saarland
    Beiträge
    230


    • Systeminfo
      • Motherboard:
      • Asus P6T SE
      • CPU:
      • Intel Core i7-930 @3,2Ghz
      • Systemname:
      • Nox
      • Kühlung:
      • Wasserkühlung
      • Gehäuse:
      • CoolerMaster CM 690 II Advance
      • RAM:
      • G.Skill Ripjaw 4 gb
      • Grafik:
      • Evga Geforce GTX 680 SC
      • Storage:
      • Corsair Force GT 60GB
      • Monitor:
      • 22" LG @ 1680x1050
      • Sound:
      • Creative Soundblaster Play!
      • Netzteil:
      • Silverstone 650W
      • Betriebssystem:
      • Windows 7 x64 Pro
      • Notebook:
      • Acer Aspire 5738G
      • Photoequipment:
      • Handy! o.O
      • Handy:
      • HTC Sensation XE

    Standard

    Hallo,
    ich weiss zwar nicht ob schonmal jemand gefragt hat aber....

    Ist es möglich einen zfs Pool der unter Linux (ZFS on Linux) erstellt wurde in Opensloaris/Indiana zu importieren?
    Geändert von Freak240 (22.08.12 um 16:01 Uhr)

  6. #2280
    gea
    gea ist offline
    Kapitän zur See
    Registriert seit
    16.11.2010
    Beiträge
    3.175


    Standard

    Zitat Zitat von Freak240 Beitrag anzeigen
    Hallo,
    ich weiss zwar nicht ob schonmal jemand gefragt hat aber....

    Ist es möglich einen zfs Pool der unter Linux (ZFS on Linux) erstellt wurde in Opensloaris/Indiana zu importieren?
    Von der ZFS Version (V.28) gibt es kein Problem.

    Probleme kann eventuell die Partitionierung machen.
    Von FreeBSD können z.B. keine Pools importierte werden, deren Platten GPT formatiert sind
    sondern nur solche die Geom formatiert sind. Ob es mit Linux ähnliche Probleme gibt, kann ich nicht sagen.

    Einfach mal probieren und Ergebnis posten.

  7. #2281
    Hauptgefreiter
    Registriert seit
    06.12.2005
    Beiträge
    149


    Standard

    Hi,

    wie kann man eigentlich herausfinden, wie die Platten unter FreeBSD formatiert sind?

    Hab dazu leider noch nichts gefunden.

    Ghandalf

  8. #2282
    Matrose
    Registriert seit
    24.08.2012
    Beiträge
    1


    Standard

    Hi all,

    ich glaube ich habe im napp-it einen Bug gefunden. Wo kann ich den denn loswerden?
    Folgendes Problem:

    Ich habe mehrere ZFS-Folder in einem Pool, welche einen Underscore im Namen haben, also so
    /bigvol
    /bigvol/rechner1_freigabe1
    /bigvol/rechner1_freigabe2
    ...
    /bigvol/rechner1_freigabe9

    Wenn man jetzt einen autosnap-job auf bigvol anlegt, dann sollten ja rekursiv alle darunter liegenden Shares einen Snap bekommen. In diesem Fall jedoch bekommt X_freigabe2 und alle weiteren nie einen Snap. Besser, er wird sofort wieder gelöscht.

    Das Problem liegt in der Jobdatei.pl in /var/web-gui/data/napp-it/_log/jobs.
    In Zeile 48 wird
    Code:
    $name=~s/\_.*//
    ausgeführt und es wird erwartet, dass von Snapname die Erstellungszeit abgetrennt wird.
    Das funktioniert natürlich mit obigen Sharename nicht. Es muss
    Code:
    $name=~s/\_[^\_]*$//
    lauten.
    Dann klappts auch mit den rekursiven Snaps.
    Geändert von scorch1 (24.08.12 um 16:02 Uhr)

  9. #2283
    Kapitän zur See
    Registriert seit
    19.04.2012
    Beiträge
    3.161


    • Systeminfo
      • Motherboard:
      • ASRock Fatal1ty Z370 Gaming-ITX
      • CPU:
      • Intel i5-8600K @ 5 Ghz
      • Kühlung:
      • WaKü (CPU+GPU @ MO-RA3 420)
      • Gehäuse:
      • Ncase M1 v5
      • RAM:
      • 16 GB G.Skill DDR4 @ 4133 CL17
      • Grafik:
      • EVGA GTX 1070 @ 2.1/4.5 Ghz
      • Storage:
      • 500 GB Samsung 960 EVO @ kryoM.2 micro
      • Monitor:
      • LG 27MP59G-P
      • Netzwerk:
      • Vodafone Cable @ 200/12 Mbit/s
      • Sound:
      • M-Audio AV32 @ Equalizer APO
      • Netzteil:
      • Corsair SF450 450W
      • Betriebssystem:
      • Windows 8.1 Pro
      • Sonstiges:
      • Kobo Glo eReader
      • Notebook:
      • Tablets: HP Omni 10 + Amazon Fire HD 8
      • Photoequipment:
      • Nikon D3300 + AF-P VR DX 18-55mm
      • Handy:
      • Xiaomi Mi A1

    Standard

    Gibt es mit einem IBM ServeRAID M1015 Controller Probleme mit Solaris 11? Kann man ohne Probleme alle (SATA-3) HDDs/SSDs einzeln ansprechen um einen ZFS Pool anlegen zu können? Wenn nein gibt es passende IT Firmware? Danke

    /Edit Mir ist noch was einfallen rennt die Karte auch in einem PCIe x4 Slot ohne Probleme? Oder würde auch der PCIe x16 (der eigentlich für eine Graka vorgesehene Slot) funktionieren und automatisch auf x8 angepasst werden? Mobo wäre ein Intel DB65ALB3.
    Geändert von AG1M (26.08.12 um 13:33 Uhr)

  10. #2284
    Kapitänleutnant Avatar von hominidae
    Registriert seit
    23.10.2011
    Beiträge
    1.954


    Standard

    ...der standard M1015 Treiber ist für MegaRaid-SAS...die RAID Funktion des Controllers braucht man nicht. Wenn SO11 die Treiber hat, die Disks "unconfigured" lassen..werden dann einzeln als JBOD angezeigt.
    Besser ist es, denn M1015 in einen 9211-8i (9210-8i) HBA umzuflashen.
    Anleitungen gibt es genug, zB hier: LSI Controller FW updates IR/IT modes
    Nach dem ersten umflashen ist es kein M1015 mehr, sondern ein 9211-8i...ab dann die normale Update Prozedur für neuere FW benutzen.

    ...er funzt in einem x4 Slot...aber nicht voll bestückt mit High-Speed Disks.
    Ob er in einem x16er Slot läuft, hängt vom mobo ab...wenn es ein Gamer-Board ist, sind die Chancen schlecht...ansonsten ganz OK...ein Intel Board sollte IMHO immer nah an der Referenz
    sein und auch die x16er abwärtskompatibel für x8er oder x4er Karten bauen.

  11. #2285
    Kapitän zur See
    Registriert seit
    19.04.2012
    Beiträge
    3.161


    • Systeminfo
      • Motherboard:
      • ASRock Fatal1ty Z370 Gaming-ITX
      • CPU:
      • Intel i5-8600K @ 5 Ghz
      • Kühlung:
      • WaKü (CPU+GPU @ MO-RA3 420)
      • Gehäuse:
      • Ncase M1 v5
      • RAM:
      • 16 GB G.Skill DDR4 @ 4133 CL17
      • Grafik:
      • EVGA GTX 1070 @ 2.1/4.5 Ghz
      • Storage:
      • 500 GB Samsung 960 EVO @ kryoM.2 micro
      • Monitor:
      • LG 27MP59G-P
      • Netzwerk:
      • Vodafone Cable @ 200/12 Mbit/s
      • Sound:
      • M-Audio AV32 @ Equalizer APO
      • Netzteil:
      • Corsair SF450 450W
      • Betriebssystem:
      • Windows 8.1 Pro
      • Sonstiges:
      • Kobo Glo eReader
      • Notebook:
      • Tablets: HP Omni 10 + Amazon Fire HD 8
      • Photoequipment:
      • Nikon D3300 + AF-P VR DX 18-55mm
      • Handy:
      • Xiaomi Mi A1

    Standard

    Super danke für die ganzen Informationen

  12. #2286
    gea
    gea ist offline
    Kapitän zur See
    Registriert seit
    16.11.2010
    Beiträge
    3.175


    Standard

    Zitat Zitat von scorch1 Beitrag anzeigen
    Hi all,

    ich glaube ich habe im napp-it einen Bug gefunden. Wo kann ich den denn loswerden?
    Folgendes Problem:

    Ich habe mehrere ZFS-Folder in einem Pool, welche einen Underscore im Namen haben, also so
    /bigvol
    /bigvol/rechner1_freigabe1
    /bigvol/rechner1_freigabe2
    ...
    /bigvol/rechner1_freigabe9

    Wenn man jetzt einen autosnap-job auf bigvol anlegt, dann sollten ja rekursiv alle darunter liegenden Shares einen Snap bekommen. In diesem Fall jedoch bekommt X_freigabe2 und alle weiteren nie einen Snap. Besser, er wird sofort wieder gelöscht.

    Das Problem liegt in der Jobdatei.pl in /var/web-gui/data/napp-it/_log/jobs.
    In Zeile 48 wird
    Code:
    $name=~s/\_.*//
    ausgeführt und es wird erwartet, dass von Snapname die Erstellungszeit abgetrennt wird.
    Das funktioniert natürlich mit obigen Sharename nicht. Es muss
    Code:
    $name=~s/\_[^\_]*$//
    lauten.
    Dann klappts auch mit den rekursiven Snaps.
    Danke für den Hinweis.
    Ich werde das Script in der nächsten Version überarbeiten

  13. #2287
    Bootsmann
    Registriert seit
    30.12.2010
    Beiträge
    582


    Standard

    Zitat Zitat von gea Beitrag anzeigen
    Onboard Sata -> Backplane: geht mit speziellem reverse 8087 Kabel, nicht mit dem normalen Kabel
    (beim Bestellen auf "reverse" achten)

    Zitat Zitat von layerbreak Beitrag anzeigen
    Meinst du dann dieses Kabel? LSI Internal Multi-Lane Cables - All Cables
    Sodele, das reverse Kabel ist endlich gekommen. Wollte nur berichten, dass der Anschluss 4 weiterer HDs super funktioniert hat.

    In ESXi einfach SATA-Controller per passthrough freigeben, ESXi neustarten und in der VM-OI als weiteres PCI-Gerät anmelden. Das was.

  14. #2288
    Avatar von Bob.Dig
    Registriert seit
    10.05.2007
    Beiträge
    14.207


    • Systeminfo
      • Motherboard:
      • ASUS Z97I-Plus
      • CPU:
      • Intel Core i5-4670K
      • Kühlung:
      • Noctua NH-D15
      • Gehäuse:
      • Jonsbo VR1 S
      • RAM:
      • Crucial Ballistix Sport 16GB
      • Grafik:
      • ASUS Strix GeForce GTX 1060
      • Storage:
      • Samsung SSD 850 EVO 500GB
      • Monitor:
      • Acer XB270HU
      • Sound:
      • Realtek ALC892
      • Netzteil:
      • Cooler Master V-Series V550
      • Betriebssystem:
      • Microsoft Windows 10 (1809)
      • Sonstiges:
      • Logitech K800 Wireless Illuminated + G5 Refresh

    Standard

    Ich hoffe, man steinigt mich hier nicht für diese Frage, aber hat sich schon jemand mit ReFS auseinander gesetzt? Es liest sich zumindest nicht vollkommen uninteressant.
    Zitat Zitat von en.wikipedia.org
    However, in Windows Server 2012, automated error-correction is only supported on mirrored spaces, and booting from ReFS is not supported either.
    Die Performance soll wohl ziemlich schlecht sein....
    Geändert von Bob.Dig (27.08.12 um 17:55 Uhr)

  15. #2289
    Bootsmann
    Registriert seit
    30.12.2010
    Beiträge
    582


    Standard

    Momentan betreibe ich meinen Server nach @gea's "all-in-one-Prinzip" mit ESXi 4.x und Oi_148.
    Außer OI laufen noch folgende VMs: WinXP, Win7, Debian, CentOS und Suse.

    Bis jetzt habe ich noch nicht auf ESXi 5.x und OI_150a5 geupdatet - getreu nach dem Motto "never touch a running system".
    Was mir bis heute leider nicht gelungen ist, dass der gesamte Server erst die VMs und dann ESXi runterfährt, um über Nacht Strom zu sparen.

    Meine jetzige Überlegung ist, den Server nur mit OI_150a5 neu zu installieren und dann die Virtualisierung mit zones und kvm zu machen.
    7. Virtualization - OpenIndiana - OpenIndiana Wiki
    Meine Hardware müsste hierfür keine Probleme machen - SM_X8SIA, Xeon X3450, 16GB RAM, zusätzliche Intel 82576 4-Port Netzwerkkarte und 2 LSI-9211-8i

    Hat jemand mit der OI Virtualisierung schon Erfahrungen gemacht? Vor allem mit zones und kvm.
    Können auch Windows und Linux VMs realisiert werden oder nur weitere OIs?
    Quellen, wo die vorgehensweise beschrieben ist, denn das wiki von OI ist schon sehr schmal.

  16. #2290
    Kapitän zur See
    Registriert seit
    19.04.2012
    Beiträge
    3.161


    • Systeminfo
      • Motherboard:
      • ASRock Fatal1ty Z370 Gaming-ITX
      • CPU:
      • Intel i5-8600K @ 5 Ghz
      • Kühlung:
      • WaKü (CPU+GPU @ MO-RA3 420)
      • Gehäuse:
      • Ncase M1 v5
      • RAM:
      • 16 GB G.Skill DDR4 @ 4133 CL17
      • Grafik:
      • EVGA GTX 1070 @ 2.1/4.5 Ghz
      • Storage:
      • 500 GB Samsung 960 EVO @ kryoM.2 micro
      • Monitor:
      • LG 27MP59G-P
      • Netzwerk:
      • Vodafone Cable @ 200/12 Mbit/s
      • Sound:
      • M-Audio AV32 @ Equalizer APO
      • Netzteil:
      • Corsair SF450 450W
      • Betriebssystem:
      • Windows 8.1 Pro
      • Sonstiges:
      • Kobo Glo eReader
      • Notebook:
      • Tablets: HP Omni 10 + Amazon Fire HD 8
      • Photoequipment:
      • Nikon D3300 + AF-P VR DX 18-55mm
      • Handy:
      • Xiaomi Mi A1

    Standard

    Wäre dafür nicht SmartOS eine gute "out-of-the-box" Alternative?

  17. #2291
    Kapitänleutnant Avatar von hominidae
    Registriert seit
    23.10.2011
    Beiträge
    1.954


    Standard

    Zitat Zitat von layerbreak Beitrag anzeigen
    Momentan betreibe ich meinen Server nach @gea's "all-in-one-Prinzip" mit ESXi 4.x und Oi_148.
    Außer OI laufen noch folgende VMs: WinXP, Win7, Debian, CentOS und Suse.

    [...]

    Hat jemand mit der OI Virtualisierung schon Erfahrungen gemacht? Vor allem mit zones und kvm.
    Können auch Windows und Linux VMs realisiert werden oder nur weitere OIs?
    Quellen, wo die vorgehensweise beschrieben ist, denn das wiki von OI ist schon sehr schmal.
    ...das kvm unter OI, SmartOS, ... kan kein pcipassthrough.
    Wenn Du mit den VMs nix besonders machst, sollte es gehen...wenn Du aber noch mehr willst, zB ne TV Karte für einen VDR durchreichen, geht das nicht,

  18. #2292
    Bootsmann
    Registriert seit
    30.12.2010
    Beiträge
    582


    Standard

    Zitat Zitat von AG1M Beitrag anzeigen
    Wäre dafür nicht SmartOS eine gute "out-of-the-box" Alternative?
    Da dürfte napp-it aber nicht gehen.

    Zitat Zitat von hominidae Beitrag anzeigen
    ...das kvm unter OI, SmartOS, ... kan kein pcipassthrough.
    Wenn Du mit den VMs nix besonders machst, sollte es gehen...wenn Du aber noch mehr willst, zB ne TV Karte für einen VDR durchreichen, geht das nicht,
    Dann brauch ich doch kein passthrough mehr. ??
    Bei ESXi werden die LSI Karten per passthrough an OI weitergereicht, das brauch ich ja dann nicht mehr.
    Auf Suse Basis läuft eine Firewall und da ist jetzt die 4-Port Netzwerkkarte auch nicht durchgereicht, sondern jeder Port hat seinen eigenen vSwitch.
    Für eine TV Karte hab ich keinen Platz mehr auf dem Board. :-(

  19. #2293
    Kapitänleutnant Avatar von hominidae
    Registriert seit
    23.10.2011
    Beiträge
    1.954


    Standard

    Zitat Zitat von layerbreak Beitrag anzeigen
    Dann brauch ich doch kein passthrough mehr. ??
    Bei ESXi werden die LSI Karten per passthrough an OI weitergereicht, das brauch ich ja dann nicht mehr.
    Auf Suse Basis läuft eine Firewall und da ist jetzt die 4-Port Netzwerkkarte auch nicht durchgereicht, sondern jeder Port hat seinen eigenen vSwitch.
    Für eine TV Karte hab ich keinen Platz mehr auf dem Board. :-(
    ...ja, eben...wenn Du es nicht brauchst.
    KVM unter OI ist aber auch noch ziemlich junfgfräulich...keine GUI/Tools zum Management...nur CLI.
    Wenn Du ESXi loswerden willst...wie wäre es mit Proxmox-VE als hypervisor (Debian based KVM)?...alles geht remote, im Prinzip via Web.
    ..ein all-in-one sollte damit gehen (zumindest die CLI version von OI SO11 sollte stabil laufen)

  20. #2294
    Obergefreiter
    Registriert seit
    18.10.2011
    Beiträge
    121


    Standard

    Auf meinem Openindiana läuft Virtualbox mit phpVitrtualbox(Webmanagement). Ist zwar teilweise nicht das schnellste aber läuft 100%ig.

  21. #2295
    Hauptgefreiter
    Registriert seit
    06.12.2005
    Beiträge
    149


    Standard

    Hi,

    ich habe da ein kleines Problem mit zfs send und receive.
    Ich möchte einen User erstellen, mit dem ich zfs send und receive auf beiden Servern ausführen kann.

    Einen User habe ich schon angelegt mit:
    Code:
    useradd -m -d /home/backup -s /bin/bash backup
    Danach habe ich noch diese ZFS Rechte vergeben:
    Code:
    zfs allow backup create,snapshot,receive,send,destroy,mount tank
    Mit passwd habe dem User ein Passwort vergeben.

    Soweit so gut. Ich möchte mit zfs send und receive hauptsächlich COMSTAR iSCSI devices sichern und dafür muss ich sicherstellen dass die zfs properties mitkopiert werden.

    Wenn ich jetzt den Befehl ausführe:
    Code:
    zfs send -R tank/[email protected] | ssh [email protected] "/usr/sbin/zfs receive -Fduv tank/backup_raid"
    Wir der Snapshot problemlos gesendet, aber ich bekomme eine Fehlermeldung:
    Code:
    receiving full stream of tank/[email protected] into tank/backup_raid/[email protected]
    cannot receive stmf_sbd_lu property on tank/backup_raidreceived 5.01GB stream in 209 seconds (24.5MB/sec)
    : permission denied
    So wie ich das sehe, hat der User backup alle Rechte, um ein Stream zu empfangen, aber nicht die Rechte, um die ZFS Properties zu setzen.

    Könnt Ihr mir da weiterhelfen. Ich möchte eigentlich ungern für ein zfs receive root verwenden.

    Grüße Ghandalf

  22. #2296
    Bootsmann
    Registriert seit
    22.08.2008
    Ort
    Berlin
    Beiträge
    529


    Standard

    Hallo Ihr,

    kein spezielles ZFS-Problem, aber OI zickt aktuell bei mir auf bestimmter Hardware rum. Möchte einen zweiten Backupserver hochziehen mit OI 1.51a5 BareMetal auf einen ASUS P5Q. Problem bereitet das RUnterfahren des Rechners. Die letzen Meldungen vom OI besagen, das die Platten gesynct werden, anschließend schaltet der Rechner aber nicht ab. Gibt es besondere Anforderungen an APM und ACPI oder besondere EInstellungen im OI, die das Abschalten ermöglichen?

    Gruß Millenniumpilot
    ESX1: Supermicro X9SRL-F, Xeon E5-1620, 64GB reg ECC, 3x IBM M1015 IT, 10G-NIC, ESXi5 mit OmniOS (Gea's AllInOne),
    Inter-Tech IPC 4U-4324L (aka Norco RPC-4224), 16x Hitachi/Samsung 2x 8 RaidZ2, 2x 900GB SAS Mirror, napp-it "complete Extensions Home use"

    ESX2: Supermicro X8SIL-F, Xeon X3440, 32GB reg ECC, 1x Intel SASUC8I IT, 10GB-NIC, ESXi5 mit OmniOS (Gea's AllInOne), napp-it "complete Extensions Home use"

  23. #2297
    Kapitänleutnant Avatar von hominidae
    Registriert seit
    23.10.2011
    Beiträge
    1.954


    Standard

    Zitat Zitat von millenniumpilot Beitrag anzeigen
    Problem bereitet das RUnterfahren des Rechners. Die letzen Meldungen vom OI besagen, das die Platten gesynct werden, anschließend schaltet der Rechner aber nicht ab.
    ...würde mich auch interessietren.
    Habe das gleiche Problem hier mit einem SuperMicro X7SPA-HF und Einsatz von OI 1.51a5 UND von SO11.
    Damit die Intel NICs stabil liefen musste ich APM im BIOS deaktivieren..das Shutdown Problem hatte ich aber schon davor.

  24. #2298
    Leutnant zur See
    Registriert seit
    25.09.2005
    Beiträge
    1.068


    Standard

    Moin,

    hat schon jemand einen LSI SAS 3082E-R / BR10i mit ZFS ausprobiert?
    Laufen die zuverlässig mit OI?

    über die Suche habe ich nichts gefunden.

    Gruß

  25. #2299
    Kapitänleutnant Avatar von hominidae
    Registriert seit
    23.10.2011
    Beiträge
    1.954



  26. #2300
    Gefreiter
    Registriert seit
    30.07.2012
    Ort
    Berlin
    Beiträge
    51


    Standard

    Zitat Zitat von Ghandalf Beitrag anzeigen
    Hi,

    ich habe da ein kleines Problem mit zfs send und receive.
    Ich möchte einen User erstellen, mit dem ich zfs send und receive auf beiden Servern ausführen kann.

    Einen User habe ich schon angelegt mit:
    Code:
    useradd -m -d /home/backup -s /bin/bash backup
    Danach habe ich noch diese ZFS Rechte vergeben:
    Code:
    zfs allow backup create,snapshot,receive,send,destroy,mount tank
    Mit passwd habe dem User ein Passwort vergeben.

    Soweit so gut. Ich möchte mit zfs send und receive hauptsächlich COMSTAR iSCSI devices sichern und dafür muss ich sicherstellen dass die zfs properties mitkopiert werden.

    Wenn ich jetzt den Befehl ausführe:
    Code:
    zfs send -R tank/[email protected] | ssh [email protected] "/usr/sbin/zfs receive -Fduv tank/backup_raid"
    Wir der Snapshot problemlos gesendet, aber ich bekomme eine Fehlermeldung:
    Code:
    receiving full stream of tank/[email protected] into tank/backup_raid/[email protected]
    cannot receive stmf_sbd_lu property on tank/backup_raidreceived 5.01GB stream in 209 seconds (24.5MB/sec)
    : permission denied
    So wie ich das sehe, hat der User backup alle Rechte, um ein Stream zu empfangen, aber nicht die Rechte, um die ZFS Properties zu setzen.

    Könnt Ihr mir da weiterhelfen. Ich möchte eigentlich ungern für ein zfs receive root verwenden.

    Grüße Ghandalf
    Hallo,

    vieleicht hilft das weiter:

    Ubiquitous Talk » Provisioning Disaster Recovery with ZFS, iSCSI and VMware

    ...
    Note the parameter -P ‘ZFS File System Management’, This will grant the account an RBAC profile association to administratively manage our ZFS file system unlike root which is much too powerful and is all to often used by many of us.
    ...

    und falls man es mal braucht, das Backup, vielleicht das im Hinterkopf behalten:

    ZFS Volumes - Oracle Solaris ZFS Administration Guide
    ...
    A ZFS volume as an iSCSI target is managed just like any other ZFS dataset except that you cannot rename the dataset, rollback a volume snapshot, or export the pool while the ZFS volumes are shared as iSCSI LUNs.
    ...

    wenn es denn die richtige Dokumentation ist.

Seite 92 von 368 ErsteErste ... 42 82 88 89 90 91 92 93 94 95 96 102 142 192 ... LetzteLetzte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •