Suchergebnisse

  1. R

    [Sammelthread] ZFS Stammtisch

    Neihein, ich leider auch! :heul: Ist aber diesmal eine andere Maschine und damals half dann ein import -o readonly -f -m (war damals ein brandneues Feature und komischerweise klappte es nur mit readonly) Den damaligen Pool habe ich inzwischen x-mal ex- und importiert, no problem. Alles auch...
  2. R

    [Sammelthread] ZFS Stammtisch

    Hallo Gea, habe mir gerade mal OmniOS heruntergeladen und versucht den zpool zu importieren, aber leider ebenfalls ohne Erfolg. Vielen Dank.
  3. R

    [Sammelthread] ZFS Stammtisch

    Hallo Gea, ich habe die Kiste inzwischen min. 20 Mal neu gebootet (warm und kalt). zpool import -f -m -d /dev/disk/by-id tank0 macht keinen Unterschied. Wobei ja schon einige Disks seit ein paar Monaten per WWN angemeldet sind (durch Tausch nach Diskfehler).
  4. R

    [Sammelthread] ZFS Stammtisch

    Hallo Gea, kann es sein, dass der mirror die Nr. 1 ist, da vielleicht alle vdev durchnummeriert werden (früher hatte der zpool mal ein l2arc und der könnte auch die Nr. 1 gehabt haben, das 2. raidz2 habe ich später angefügt). Vielen Dank Ron
  5. R

    [Sammelthread] ZFS Stammtisch

    Hallo, ich brauche nochmal eure Hilfe. Ich habe einen SSD-Pool aus 2x raidz2 je 6x SSDs je 450GB (Consumer-Qualität) mit compression on und dedup off an einem Linux-System über ZFSonLinux seit 2 Jahren in Betrieb. Zu Performancetestzwecken habe ich einen slog-mirror hinzugefügt. Da keine...
  6. R

    [Sammelthread] ZFS Stammtisch

    denkste! nicht ein einziger Snapshot aktiv. Trotzdem vielen Dank.
  7. R

    [Sammelthread] ZFS Stammtisch

    TRIM- bzw. nichtTRIM-Problem in einem SSDonly-ZPOOL Hallo, ich habe einen SSD-Pool aus 2x raidz2 6x SSDs je 450GB (Consumer-Qualität) mit compression on und dedup off an einem Linux-System über ZFSonLinux seit 2 Jahren in Betrieb. Nun musste ich den Pool kurzzeitig zu über 95% füllen und habe...
  8. R

    [Sammelthread] ZFS Stammtisch

    ist das aktuellste OpenIndiana 151a8 dedup ist logischerweise DER Performancekiller, aber bei einem dedupratio=5,83 (fast nur VMs) geht das nicht anders und sollte bei 128 GB RAM die DDTs im ARC halten können, Kompression ist die stärkste (gzip-9), aber bei 16 Cores langweilen sich die...
  9. R

    [Sammelthread] ZFS Stammtisch

    Hallo zusammen, ich habe ein kleines Problem mit meinem Backup-Server. Dies ist ein ausrangierter Virtualisierungsserver mit 4 QC, 128 GB RAM und 21x WD green 2TB in einem Pool zu 3x raidz3 unter OpenIndiana. Im Pool ist dedup und compression gesetzt, primary- und secondarycache auf metadata...
  10. R

    [Sammelthread] ZFS Stammtisch

    Ich benutze für das OS immer die langsamste HDD oder USB ohne RAID (aber als ZFS), weil eine Neuinstallation max. 45 min. dauert. Wenn also das Ding abraucht, kein Problem! Ich sichere nur die Config-Dateien (meist auf dem Datenpool) - macht die Neuinstallation bequemer.
  11. R

    [Sammelthread] ZFS Stammtisch

    Stimmt die Groß- und Kleinschreibung und das Leerzeichen zwischen Tank und 1? Dann das ganze in Anführungszeichen setzen. (Deshalb verwende ich in Datei- und Ordnernamen nie Leerzeichen, sondern Unterstriche)
  12. R

    [Sammelthread] ZFS Stammtisch

    ... na ganz einfach mit Redundanz, wäre der Pool als mirror oder raidz angelegt worden, kann das ZFS den Fehler alleine reparieren. ZFS erspart dir NIE ein funktionierendes Backup/Restore.
  13. R

    [Sammelthread] ZFS Stammtisch

    Die Formulierung impliziert, dass Dedup mal eingeschaltet war. Wenn man Dedup ausschaltet bedeutet das ja nicht, dass alle Daten dann sofort wieder dupliziert werden (also wieder im Original gespeichert werden), sondern nur alle zukünftig gespeicherten. Selbst die Ausgabe des Dedupratios von...
  14. R

    [Sammelthread] ZFS Stammtisch

    DAS war genau mein erster Zug, gefolgt von einem Absturz mit automatischem Reboot. Danach habe ich das Livesystem nochmals gestartet und es nochmals ohne Erfolg versucht, der von mir dann ausprobierte Parameter soll die max. RAM-Reservierung für den Swap verringern, damit mehr für ARC...
  15. R

    [Sammelthread] ZFS Stammtisch

    Tja, ein beherztes echo swapfs_minfree/W0t2621 | mdb -kw hat den Zustand / die Ausgabe von echo "::arc" |pfexec mdb -k und damit die Geschwindigkeit auch nicht nennenswert verbessert.
  16. R

    [Sammelthread] ZFS Stammtisch

    arc_meta_limit = 16 MB sehr eigenartig! Ist aber wie gesagt das LiveSystem (boot von der CD), also keine Änderung in den Systemeinstellungen. Ich würde natürlich gerne über 100 GB als ARC verwenden.
  17. R

    [Sammelthread] ZFS Stammtisch

    ... stimmt natürlich. Auszug: . . . p = 3839 MB C = 4095 MB c_min = 4095 MB c_max = 64 MB size = 4393 MB . . arc_meta_used = 4393 MB arc_meta_max = 4418 MB . Wenn ich das jetzt richtig interpretiere, werden 4 GB RAM als ARC genutzt.
  18. R

    [Sammelthread] ZFS Stammtisch

    .... also ich stehe jetzt zwar nicht vor dem Möhrchen, aber im Systemmonitor werden immer die verwendeten Resourcen (CPU, RAM) angezeigt, Swap steht auch auf 0 und die Graphen befinden sich nahe null.
  19. R

    [Sammelthread] ZFS Stammtisch

    Opneindiana Einstellung ARC bei LiveCD Moin, moin, ich habe eine OpenIndiana LiveCD mit einem importierten zpool (32 TB brutto, 10,8 TB netto mit dedup) zu Datensicherungszwecken laufen und festgestellt, dass der pool extrem langsam ist. Ein Blick in den Systemmonitor ergab, dass von den 128...
  20. R

    [Sammelthread] ZFS Stammtisch

    Sehe ich, wie schon gesagt, genauso. Das ist eine rein akademische Betrachtung.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh