Suchergebnisse

  1. R

    [Sammelthread] ZFS Stammtisch

    Hängt von deinem Grad an Paranoia ab. Ich würde IMMER eine HDD als spare verwenden. Wegen der IOPS sind bei mir, außer evtl. in einem ausgesprochenen Backup-Server, immer mirrors angesagt. Wenn du dir dann vor Augen hältst, dass du vielleicht erst nach einigen Tagen den Defekt bemerkst (ohne...
  2. R

    [Sammelthread] ZFS Stammtisch

    Das ist ein Storage für gleich 2 ESXi über Fibre Channel, und man setzt keine ESXi ein, wenn man nur einen kleinen Server virtualisiert, sondern schon ein wenig mehr. Dass das erste Gebot viele viele viele Spindeln heißt sollte sowieso klar sein, daraus dann möglichst viele vdev und wenn es geht...
  3. R

    [Sammelthread] ZFS Stammtisch

    Ich würde slog und L2ARC gut ausbalancieren, denn wenn wirklich häufiger auf die Platten zugegriffen wird (cache heißt ja einzig und alleine Lesecache, Schreibzugriffe landen direkt auf den Platten), dann würden nur 120 IOPS (bei SATA-Platten z.B.) im raidz zur Verfügung stehen und die teilen...
  4. R

    [Sammelthread] ZFS Stammtisch

    Na dann werfe ich hier auch noch einen interessanten Link ein: Things About ZFS That Nobody Told You | Nex7.com Da du 2 ESXi mit diversen VMs an diesem Storage betreibst, solltest du dir dringend die Summe aller benötigten IOPS und den benötigten Durchsatz ansehen. Je nach VMs (etwa Datenbanken)...
  5. R

    [Sammelthread] ZFS Stammtisch

    Der Spiegel für das slogs soll nicht nur gegen den SSD-Ausfall helfen, sondern auch den schnellen commit an die Anwendungen senden, auch wenn die Daten noch nicht komplett auf die "langsamen" HDDs geschrieben sind. Abgesehen davon hilft es auch bei einem Stromausfall, denn alle abgeschlossenen...
  6. R

    [Sammelthread] ZFS Stammtisch

    Hallo, ein slog (ZIL) würde ich NUR als mirror einsetzen, sonst droht Datenverlust. Ich würde auf eine 20GB Partition der 120GB SSD das System installieren, 2x2GB Partitionen (je 1x auf 120GB und 60GB SSD) als slog-Spiegel und den Rest der beiden SSDs als cache (nicht als mirror) verwenden. Bei...
  7. R

    [Sammelthread] ZFS Stammtisch

    Hallo, ich würde erst einmal keinen neuen Controller kaufen, sondern die 4x500GB + 2x1TB als 3xMirror (zusammen 2TB) in einem zpool zusammenfassen.
  8. R

    [Sammelthread] ZFS Stammtisch

    Wenn du den RAM prüfen willst, nimm nach Möglichkeit nicht Memtest, sondern Primzahlenberechnungen a la Prime95, memtest gibt dir bei modernen Maschinen falsche Angaben. Gruß Ron
  9. R

    [Sammelthread] ZFS Stammtisch

    Hallo, geh' einfach 10 Posts nach oben, da hat Gea ein paar Links eingestellt. Gruß Ron
  10. R

    [Sammelthread] ZFS Stammtisch

    Nach vielen Versuchen habe ich es nun doch geschafft. Hier ein Auszug: linux-061x:~ # zpool replace tank0 /dev/disk/by-id/ata-SAMSUNG_SP1614C_S01XJ10Y252418 /dev/sdh zfsfuse_ioctl_read_loop(): file descriptor closed cannot replace /dev/disk/by-id/ata-SAMSUNG_SP1614C_S01XJ10Y252418 with...
  11. R

    [Sammelthread] ZFS Stammtisch

    Ja, stimmt! Die erste Seite des Mirrors war bei mir auch ein SoftRAID0 (Linux md0) und kein ZFS-zpool. Gruß Ron ---------- Beitrag hinzugefügt um 16:44 ---------- Vorheriger Beitrag war um 13:25 ---------- .... und da habe ich hier gleich noch einmal eine Frage: Ich habe mir auf einem...
  12. R

    [Sammelthread] ZFS Stammtisch

    >>>Macht es was aus wenn die anderen 4 Festplatten verschiedene Größen haben?<<< Du könntest diese 4 HDDs zu einem basic-vdevs addieren (z.B. mit insgesamt 2 TB) und später eine 2TB HDD als mirror dazubauen. Gruß Ron
  13. R

    [Sammelthread] ZFS Stammtisch

    Die Daten werden blockweise auf alle verfügbaren HDDs verteilt, fällt eine aus, sind alle Daten futsch! Deine Idee mit dem gemeinsamen Pool ist gar keine gute Lösung. Weiterhin lässt sich eine HDD nicht wieder aus dem Pool entfernen, nur gegen eine andere, mindestens gleich große, ersetzen. Es...
  14. R

    [Sammelthread] ZFS Stammtisch

    Wenn die Summe der freien Bereiche aller jetzigen HDDs größer als eine HDD ist, könntest Du ein ZFS (zpool) aus Dateien, verteilt auf die restlichen HDDs, anlegen. Dann diese eine HDD in den zpool aus Dateien leerschaufeln und ein neues ZFS (zpool) auf dieser anlegen. Nachdem die Daten dann auf...
  15. R

    [Sammelthread] ZFS Stammtisch

    Habe vor einem Jahr mal Nexentastor mit wöchtl. Replication und Dedup bei jemandem eingerichtet und den ersten Replikationdurchlauf gemacht, da ich nichts mehr von ihm gehört habe, wird das wohl ohne Probleme laufen (bei Problemen klingelt sonst immer nach 0,1 Pikosekunden mein Handy). Gruß Ron
  16. R

    [Sammelthread] ZFS Stammtisch

    Vielen Dank für die Info und Hilfe, Daten werden gerade kopiert. http://www.hardwareluxx.de/community/images/smilies/banana.gif "Jabajabadu!"
  17. R

    [Sammelthread] ZFS Stammtisch

    Importversuch eines unvollständigen zpools Hallo, ich verzweifelte vor einiger Zeit an einem Problem mit meinem OpenSolaris-BackupServer bzw. einem zpool, das ich bis jetzt auf Eis gelegt habe (zpool ausgebaut, auf OpenIndiana umgestellt und neue HDDs eingebaut sowie neues Datengrab...
  18. R

    [Sammelthread] ZFS Stammtisch

    Es werden alle Daten blockweise auf alle vdevs verteilt und nicht ein Datenstrom auf den einen und ein zweiter Datenstrom auf den anderen Mirror geschrieben. Es ist ja gerade der Vorteil vom ZFS, dass alle IOs auf die vdevs verteilt werden, so kann Performance und Speicherplatz, die von einem...
  19. R

    [Sammelthread] ZFS Stammtisch

    Die Daten werden immer gleichmäßig auf alle Mirrors verteilt, deshalb ergibt sich auch bei nachträglichem Einfügen eines Mirrors durch COW nach einiger Zeit eine gleichmäßige Verteilung aller Daten. Bei Ausfall eines kompletten Mirrors sind allerdings alle Daten futsch. Gruß Ronny
  20. R

    [Sammelthread] ZFS Stammtisch

    Hier noch einige Tipps zur Performanceverbesserung des ZFS: Oracle Solaris ZFS Performance: 10 Easy Tips Viele Grüße
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh