[Sammelthread] ZFS Stammtisch

Hallo Leute,

ich bräuchte mal etwas Hilfe, es geht um ZFS-Umzug.

Aktuell:
Ein ZFS-Pool mit einem Filesystem drin. Die LUN kommt von einem zentralen Storage, es ist eine SAN.

Zukunft:
Ein ZFS-Pool mit einem Filesystem drin. Die LUN kommt von einem anderen zentralen Storage, es ist eine SAN.

Sprich es geht um die Migration von einer SAN zu einer anderen.

Hat jemand eine Idee, wie ich das am einfachsten anstellen kann? Die eine Idee wäre mit der neuen LUN einen zweiten ZPool zu erstellen und das Zeug umzukopieren, aber das heißt off-line Zeiten. Das ist blöd.

Eine andere Idee wäre ein zMirror zu erstellen, beiden LUNs zu syncen und dann den Mirror zu brechen.

Sonstige Ideen?

Danke Euch.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Leider muss man bei OmniOS das Netzwerk von Hand konfigurieren. Anleitungen z.B.
Changing to Static IP - OpenIndiana - OpenIndiana Wiki
IT From All Angles » Solaris 11: Network Configuration Basics

lediglich bei den Anleitungen zu Solaris 11 darauf achten dass es bei Illumos

# ipadm create-if bge0
# ipadm delete-if bge0

heißt, bei Solaris 11 aber

# ipadm create-ip bge0
# ipadm delete-ip bge0

zu Nexenta Illumian
Das ist seit einem Jahr unverändert. Es steht zwar 1.0 dran, ist aber eine relativ alter Illumos Stand der bisher nicht upgedatet wurde. Nach den Erfahrungen mit NexentaCore 3, das Updates von NexentaStor immer verspätet oder gar nicht erhielt bin ich etwas skeptisch mit dem OpenSource Angebot von Nexenta. OpenIndiana oder OmniOS sind da viel aktueller.

Ah super jetzt gehts mit dem Internet, besten Dank :) Aber bei napp-it kommt immer das:

7XQel9W9RFEU.jpg


Ein neu ausführen des Installers führt zum selben Fehler.


Btw. ich habe nun automatisch eine 30 Tage Pro Version von napp-it 0.9p1 (bei Illumian). Nach den 30 Tagen ist es dann wieder die normale Version ohne Extensions, oder muss ich dann einen Key mir kaufen? Hatte sonst immer von Haus aus, die einfache kostenfreie Version.
 
Zuletzt bearbeitet:
Ah super jetzt gehts mit dem Internet, besten Dank :) Aber bei napp-it kommt immer das:

Ein neu ausführen des Installers führt zum selben Fehler.


Btw. ich habe nun automatisch eine 30 Tage Pro Version von napp-it 0.9p1 (bei Illumian). Nach den 30 Tagen ist es dann wieder die normale Version ohne Extensions, oder muss ich dann einen Key mir kaufen? Hatte sonst immer von Haus aus, die einfache kostenfreie Version.

Ich muss eventuell den Text ändern. Das ist kein Fehler sondern nur der Hinweis, dass es einen System-snapshot für diese Version bereits gibt (passiert normalerweise nicht, da das nächste Update einen anderen Namen hat).

Nach 30 Tagen ist es eine normale free Version (Das bleibt auch so).
Man kann jedoch jetzt nach der Erstinstallation alles testen ohne extra einen Key zu beantragen.

---------- Post added at 21:56 ---------- Previous post was at 21:02 ----------

Eine andere Idee wäre ein zMirror zu erstellen, beiden LUNs zu syncen und dann den Mirror zu brechen.

Danke Euch.

Da der eigentliche Storage ein "SAN" ist (was auch immer) geht wohl nur die mirror Variante.
Ist das "SAN" ein ZFS System ginge noch Replizieren mit zfs send.
 
Hi,

kurze Frage. Habe seit kurzem das RM 420 -Pro Gehäuse von X-Case. Darin betreibe ich einen M1015 mit aktueller Firmware (P15) und einem Intel Expander RES2SV240 (Firmware 13). An dem Expander scheint der Staggered Spin-Up nicht zu funktionieren (obwohl er so beworben wird). Beim Einschalten werden alle 20 Platten auf einmal gestartet. Bei direkt angebundenen Platten am Controller funktioniert der Staggered Spin-Up. Hat da einer ein paar Tipps zu?
 
Hallo gea, hab nun auch napp-it 0.9 auf OmniOS installiert. Ich gebe zu beim ersten mal habe ich nicht aufgepasst, aber er war mit dem Installationsskript sehr schnell fertig und hat entsprechend wenig gemacht. Versuch 2 lief dann besser durch, hätte aber zuerst gcc-dev von Hand installieren sollen, weil er im Skript zuerst versucht hat die smartmontools zu builden und später erst gcc installiert hat. Aber einfach ein drittes mal das Skript gestartet und mir sind keine Fehler mehr aufgefallen, außer vielleicht warnings wegen schon vorhandener symlinks - logisch. Jetzt hat aber die Installation irgendwie ein Perlversionsproblem. Installiert ist 5.14.2 und ein Teil deiner Skripte verlangen wohl >= 5.16. Liegt es daran, dass ich nicht das bloody, sondern "stable" OmniOS installiert habe?

Code:
Perl API version v5.16.0 of IO::Tty does not match v5.14.0 at /usr/perl5/5.14.2/lib/i86pc-solaris-thread-multi-64int/DynaLoader.pm line 213.
Compilation failed in require at /var/web-gui/data/napp-it/CGI/IO/Pty.pm line 7.
BEGIN failed--compilation aborted at /var/web-gui/data/napp-it/CGI/IO/Pty.pm line 7.
Compilation failed in require at /var/web-gui/data/napp-it/CGI/Expect.pm line 22.
BEGIN failed--compilation aborted at /var/web-gui/data/napp-it/CGI/Expect.pm line 22.
Compilation failed in require at /var/web-gui/data/napp-it/zfsos/_lib/zfslib.pl line 1665.
BEGIN failed--compilation aborted at /var/web-gui/data/napp-it/zfsos/_lib/zfslib.pl line 1665.

Lieder ist das tty-Modul recht essentiell, aber dafür hab ich Gelegenheit mich an die wichtigsten Kommandos und Vorgänge in der Solariswelt zu gewöhnen ;)
 
Da der eigentliche Storage ein "SAN" ist (was auch immer) geht wohl nur die mirror Variante.
Ist das "SAN" ein ZFS System ginge noch Replizieren mit zfs send.

Eine SAN ist ein Storage Area Network. Von der bekomme ich eine LUN präsentiert, auf der ich meine Daten über ZFS ablege.

Es gibt eine Option "replace" beim zpool, die genau das macht, was ich will:

zpool replace testpool_resizing /testfiles/smalldisk1 /testfiles/bigdisk1
 
Hallo Zusammen, nach einem stromausfall haben wir folgendes bild.

die ssd für die log/ cache dateien scheint einen weg zu haben. ist es sinnvoll die nochmal zu reaktivieren und wenn ja wie am besten. oder sollten wir die ssd weglassen und cache und log wieder auf festplatten verteilen?

und müssten nicht die spares einspringen?

pool: esxi
state: DEGRADED
status: One or more devices could not be used because the label is missing or
invalid. Sufficient replicas exist for the pool to continue
functioning in a degraded state.
action: Replace the device using 'zpool replace'.
see: ZFS-8000-4J
scan: resilvered 266G in 2h42m with 0 errors on Sun Oct 28 19:54:14 2012
config:

NAME STATE READ WRITE CKSUM CAP Product
esxi DEGRADED 0 0 0
mirror-0 ONLINE 0 0 0
c4t0d0 ONLINE 0 0 0 500.11 GB WDC WD5000AAKS-0
c4t1d0 ONLINE 0 0 0 500.11 GB WDC WD5000AAKS-0
mirror-1 ONLINE 0 0 0
c4t7d0 ONLINE 0 0 0 500.11 GB WDC WD5000AAKS-0
c4t3d0 ONLINE 0 0 0 500.11 GB ST3500418AS
mirror-2 ONLINE 0 0 0
c2t1d0 ONLINE 0 0 0 500.11 GB ST3500418AS
c4t5d0 ONLINE 0 0 0 500.11 GB Hitachi HDS72105
logs
c2t0d0p3 UNAVAIL 0 0 0 corrupted data
c2t0d0p1 UNAVAIL 0 0 0 corrupted data
cache
c2t0d0p0 ONLINE 0 0 0 60.02 GB INTEL SSDSC2CT06
c2t0d0p2 FAULTED 0 0 0 corrupted data
spares
c4t2d0 AVAIL 320.07 GB WDC WD3200AAKS-0
c4t6d0 AVAIL 320.07 GB WDC WD3200AAKS-0


Ciao,
david
 
Zuletzt bearbeitet:
Eine SAN ist ein Storage Area Network. Von der bekomme ich eine LUN präsentiert, auf der ich meine Daten über ZFS ablege.

Es gibt eine Option "replace" beim zpool, die genau das macht, was ich will:

"zpool replace" ist dazu gedacht z.B. eine defekte Festplatte in einem vdev gegen eine neue zu ersetzten. Das funktioniert ohne Datenverlust nur, wenn das vdev redundant ist, also mind. ein Mirror aus zwei Platten ist, bei dem zumindest noch eine Platte heil ist. "kleine" LUN durch "größere" LUN ersetzen macht auch nur Sinn, wenn Dein Pool auf autoexpand=on gesetzt ist.
Ich würde die neue größere LUN als weiteren Pool einrichten und dann zwischen den beiden Pools einen Datenabgleich machen. Z.B. mit zfs send / receive oder rsync. Anschließend den alten Pool abmelden und den neuen Pool unter den alten Pfad verfügbar machen. Um eine kurze Zeit der Nicht-verfügbarkeit kommst Du wohl nicht herum, wenn Du die Daten ohne Verlust synchronisieren möchtest.
 
Hallo gea, hab nun auch napp-it 0.9 auf OmniOS installiert. Ich gebe zu beim ersten mal habe ich nicht aufgepasst, aber er war mit dem Installationsskript sehr schnell fertig und hat entsprechend wenig gemacht. Versuch 2 lief dann besser durch, hätte aber zuerst gcc-dev von Hand installieren sollen, weil er im Skript zuerst versucht hat die smartmontools zu builden und später erst gcc installiert hat. Aber einfach ein drittes mal das Skript gestartet und mir sind keine Fehler mehr aufgefallen, außer vielleicht warnings wegen schon vorhandener symlinks - logisch. Jetzt hat aber die Installation irgendwie ein Perlversionsproblem. Installiert ist 5.14.2 und ein Teil deiner Skripte verlangen wohl >= 5.16. Liegt es daran, dass ich nicht das bloody, sondern "stable" OmniOS installiert habe?

Danke für die Info.

Problem scheint zu sein, dass das vorkompilierte Perl Modul Expect aus OmniOS bloody nicht mit OmniOS stable läuft, wohl aber umgekehrt. Ich habe den Installer angepasst, so dass napp-it das beachtet und der Fehler bei mir weder bei der bloody noch bei der stable auftritt. Also bitte nochmal den wget 09 installer laufen lassen.

Ansonsten: Der Installer ist für OI und noch nicht an OmniOS angepasst und er bringt auch Fehler über OI Module, die bei OmniOS noch nicht verfügbar sind.
 
Hallo Zusammen, nach einem stromausfall haben wir folgendes bild.

die ssd für die log/ cache dateien scheint einen weg zu haben. ist es sinnvoll die nochmal zu reaktivieren und wenn ja wie am besten. oder sollten wir die ssd weglassen und cache und log wieder auf festplatten verteilen?

und müssten nicht die spares einspringen?




Ciao,
david

Für was / wen sollten denn die Spares einspringen? Cache und Log? Da bin ich mir nicht mal sicher, ob man das konfigurieren kann. Und als Ersatz für die normalen Datenplatten sind sie auch nicht geeignet, da nicht gleich groß. Wie soll denn eine 320 GB Platte eine mit 500 GB ersetzen, wenn diese mehr als 320 GB Daten beherbergt? Was passiert denn mit den "überzähligen" Daten? Als Hotspares sind nur Platten geeignet die mind. genau so groß wie die Datenplatten sind.

Wenn ich das richtig sehe, hast Du zwar vier Partitionen auf Deiner SSD, aber zumindest die Logs (ZIL) sind nicht gespiegelt. Beim Cache (ARC) geht das auch gar nicht. Einen echten Performance-Gewinn kann ich mir da nicht vorstellen. Zwei Partitionen, eine für ZIL und eine für ARC, hätten auch gereicht. Besser wäre eine zweite oder sogar dritte SSD, wenn Du den ZIL unbedingt spiegeln musst, die Du nicht partitionierst, sondern komplett (raw) einbindest. Dann nutzt ZFS auch den SSD internen Cache, sofern die SSD einen hat.

Für Dein aktuelles Problem solltest Du ZIL und ARC aus dem Pool heraus konfigurieren und prüfen, ob die SSD durch den Stromausfall etwas abbekommen hat. Wenn nicht, neu formatieren und wieder in den Pool konfigurieren.

Grüße

A.
 
[...]Also bitte nochmal den wget 09 installer laufen lassen.

Ansonsten: Der Installer ist für OI und noch nicht an OmniOS angepasst und er bringt auch Fehler über OI Module, die bei OmniOS noch nicht verfügbar sind.

Ja, das ist mir bewusst, daher umso größeren Dank, dass es wieder ein Problem weniger gibt ;)
 
Eine Frage - ich habe 8x3TB Festplatten. 2 davon sind jetzt voll. 6 sind leer. Ich möchte mir einen ZFS-Pool aus 8 Festplatten erstellen. Wie mache ich es am besten? Ich habe Open Indiana und napp-it installiert. Aber napp-it sieht nur die Festplatten. Meine Gedanke war - ich mache aus 6 physischen Festplatten 8 logische indem ich 2 physische in 4 Partitionen aufteile. Und wenn ich die Daten rüberkopiert habe, dann ersetze ich die logischen Festplatten durch die physischen, die jetzt frei sind. Aber das klappt leider nicht, weil napp-it nur die Festplatten sieht und nicht die Partition.
Bitte um Hilfe :)
 
Eine Frage - ich habe 8x3TB Festplatten. 2 davon sind jetzt voll. 6 sind leer. Ich möchte mir einen ZFS-Pool aus 8 Festplatten erstellen. Wie mache ich es am besten? Ich habe Open Indiana und napp-it installiert. Aber napp-it sieht nur die Festplatten. Meine Gedanke war - ich mache aus 6 physischen Festplatten 8 logische indem ich 2 physische in 4 Partitionen aufteile. Und wenn ich die Daten rüberkopiert habe, dann ersetze ich die logischen Festplatten durch die physischen, die jetzt frei sind. Aber das klappt leider nicht, weil napp-it nur die Festplatten sieht und nicht die Partition.
Bitte um Hilfe :)

Korrigiert mich wenn ich falsch liege, aber ich vermute OpenIndiana will bzw. kann deine Partitionen garnicht lesen, weil Solaris mit fast allen Dateisystemen aus Windows und Linux nichts anfangen kann. Generell kannst du vdevs über Partitionen erzeugen und die dann in einen Pool einbinden.
Was willst du denn für einen Pool machen?
- Ohne Redundanz könntest du glaub mit 6 anfangen, die Daten über einen anderen Rechner kopieren und dann um zwei Platten erweitern.
- Mit Mirrors geht's auch, also je 2 spiegeln, dann fängst du mit 2x3 an und erweiterst um ein Paar.
- bei RaidZ kann man nicht um Anzahl an vdevs erweitern, hier bräuchtest du erstmal zusätzliche Platten zum rumkopieren. Oder: du machst ein RAIDZ1 oder RAIDZ2 aus 6x3 TB, wären Brutto 12 oder 15TB und nimmst die anderen beiden als zusätzliches Backup der wichtigsten Daten und/oder als Spares.
 
Eine Frage - ich habe 8x3TB Festplatten. 2 davon sind jetzt voll. 6 sind leer. Ich möchte mir einen ZFS-Pool aus 8 Festplatten erstellen. Wie mache ich es am besten? Ich habe Open Indiana und napp-it installiert. Aber napp-it sieht nur die Festplatten. Meine Gedanke war - ich mache aus 6 physischen Festplatten 8 logische indem ich 2 physische in 4 Partitionen aufteile. Und wenn ich die Daten rüberkopiert habe, dann ersetze ich die logischen Festplatten durch die physischen, die jetzt frei sind. Aber das klappt leider nicht, weil napp-it nur die Festplatten sieht und nicht die Partition.
Bitte um Hilfe :)

klingt zwar etwas abstrus, wäre aber mit napp-it 0.9 vermutlich möglich.
Damit kann man eine Platte in bis zu 4 Partitionen aufteilen und die dann einzeln z.B. für ein Raid-Z2 nutzen.
Dann die Daten auf den Raid-Z2 aus 8 Partitionen umkopieren um dann jede Partition durch eine Platte ersetzen.

ABER
wenn da eine Platte = 4 Partitionen futsch geht ist alles weg ???
Würde ich ohne Backup daher nicht machen - dann lieber einen schnellen Pool aus 3x2 fach Mirrors oder 6 x Raid-Z2 und die zwei freien Platten als hotfix/backup oder als Anfangsinvestition in ein weiteres künftiges Raid-Z2
 
klingt zwar etwas abstrus, wäre aber mit napp-it 0.9 vermutlich möglich.
Damit kann man eine Platte in bis zu 4 Partitionen aufteilen und die dann einzeln z.B. für ein Raid-Z2 nutzen.
Dann die Daten auf den Raid-Z2 aus 8 Partitionen umkopieren um dann jede Partition durch eine Platte ersetzen.

ABER
wenn da eine Platte = 4 Partitionen futsch geht ist alles weg ???
Würde ich ohne Backup daher nicht machen - dann lieber einen schnellen Pool aus 3x2 fach Mirrors oder 6 x Raid-Z2 und die zwei freien Platten als hotfix/backup oder als Anfangsinvestition in ein weiteres künftiges Raid-Z2

Hallo gea,

ich habe jetzt die Version 0.9 installiert. Wenn ich jetzt auf Pool > Create Z-Pool klicke, dann wird mit nur "processing, please wait" angezeigt. Ich habe schon ca. 20-30 gewartet, aber passiert immer noch nichts. Kannst du mir vllt. sagen was ich falsch mache? :)
 
Ich habe versucht eine Disk aus einem RaidZ vdev, bestehend aus 5*1TB SAS HDD, zu ersetzen,
mit
Code:
zpool replace <poolname> <disk gui>
.
Dabei erhielt ich folgende Meldung.
Code:
/dev/dsk/c15t5000C50026130F47d0s0 is part of active ZFS pool test0
Natürlich habe ich vorher die Disk offline geschaltet, danach die Ersatz Disk eingebaut und dann einen replace versucht.
Dann habe ich um den Fehler einzugrenzen das vdev zerstört und einen Mirror aufgebaut. Dort funktioniert ein
detach und attach einwandfrei. Es ist wichtig, dass der "replace" ohne Spare Drive funktioniert. Zumindest
laut der Solaris Dokumentation hätte es auf diesem Weg funktionieren sollen.
 
Hallo gea,

ich habe jetzt die Version 0.9 installiert. Wenn ich jetzt auf Pool > Create Z-Pool klicke, dann wird mit nur "processing, please wait" angezeigt. Ich habe schon ca. 20-30 gewartet, aber passiert immer noch nichts. Kannst du mir vllt. sagen was ich falsch mache? :)

Werden denn unter Menü disks und disks - details die Platten angezeigt ?
Dann bräuchte ich natürlich Infos zum OS und zum verwendeten Controller.

Zum debuggen:
Top-Menü Edit aktivieren, dann erscheint der Menüpunkt Log.

Jetzt Menü Pools aufrufen, warten und dann auf Log klicken
dann wird gezeigt was im Hintergrund passierte und bei welchem Befehl es hängt

---------- Post added at 09:25 ---------- Previous post was at 09:21 ----------

Ich habe versucht eine Disk aus einem RaidZ vdev, bestehend aus 5*1TB SAS HDD, zu ersetzen,
mit
Code:
zpool replace <poolname> <disk gui>
.
Dabei erhielt ich folgende Meldung.
Code:
/dev/dsk/c15t5000C50026130F47d0s0 is part of active ZFS pool test0
Natürlich habe ich vorher die Disk offline geschaltet, danach die Ersatz Disk eingebaut und dann einen replace versucht.
Dann habe ich um den Fehler einzugrenzen das vdev zerstört und einen Mirror aufgebaut. Dort funktioniert ein
detach und attach einwandfrei. Es ist wichtig, dass der "replace" ohne Spare Drive funktioniert. Zumindest
laut der Solaris Dokumentation hätte es auf diesem Weg funktionieren sollen.

Das funktioniert auch, wenn die Platte anhand des Controller-Ports identifiziert wird (z.B. c0t1d0)
Bei SAS2 werden die Platten aber anhand einer eindeutigen Platten-WWN Kennung identifiziert (c15t5000C50026130F47d0)
Ein replace in diesem Fall kann nur mit der id der neuen Platte erfolgen also zpool replace pool alte_WWN neue_WWN
 
Also alte Platte offline schalten -> alte Platte entfernen -> neue Platte einbauen -> nach neuer Platte scannen -> zpool replace <pool> <alte wmn> <neue wmn> , das sollte der korrekte Ablauf sein oder ?


edit : und auf resilver warten.
 
Also alte Platte offline schalten -> alte Platte entfernen -> neue Platte einbauen -> nach neuer Platte scannen -> zpool replace <pool> <alte wmn> <neue wmn> , das sollte der korrekte Ablauf sein oder ?

edit : und auf resilver warten.


viel einfacher:
Neue Platte einstecken und disk replace alt -> neu aufrufen -> resilver startet
alte Platte abziehen (offline schalten ist eigentlich unnötig, kann man aber machen um sie korrekt abzumelden)

SAS2 ist da sehr unkritisch. Lediglich wenn die Hardware kein Hotplug kann, wird es kritisch. Dann ist aber eh meist ein Neustart angesagt.
 
gea,

nein, die Platten werden da nicht angezeigt :( Wenn ich den Server starte, dann sehe ich auch dass der Controller-Bios (M1015 mit IT-Firmware, passthrough) die Festplatten auch erkannt hat.


Im Anhang sind die logs.

Hier sind die Komponenten des Servers aufgelistet.

ESXí 5.1 mit OpenIndiana
 

Anhänge

  • logs.txt
    7,5 KB · Aufrufe: 107
gea,

nein, die Platten werden da nicht angezeigt :( Wenn ich den Server starte, dann sehe ich auch dass der Controller-Bios (M1015 mit IT-Firmware, passthrough) die Festplatten auch erkannt hat.


Im Anhang sind die logs.

Hier sind die Komponenten des Servers aufgelistet.

ESXí 5.1 mit OpenIndiana

Der entscheidende Satz im Log ist:
Disk (sd3) is limited to 2 TB due to VTOC label. To use the full capacity of the disk, use format(1M) to relabel the disk with EFI/GPT label.

Also erstmal die Platten partitionieren, entweder per CLI und z.B.
format (um die id zu finden), dann
fdisk -B c0t0d1p0

oder per napp-it 0.9 unter disk-partitions (auf 100% falls die Partition erkannt wird)

als Log benötige ich ansonst die Ausgabe, die man erhält, wenn man im napp-it Top-Menü edit einschaltet,
Menü Disk aufruft und dann im TopMenü auf log klickt. Dann erscheint ein Protololl aller napp-it Aktionen.
 
Zuletzt bearbeitet:
Ich hab da auch mal ne Frage zu Raid-Z1... Ich habe hier 4*3TB unter FreeNAS laufen und kriege eine Größe von 7,8TB angezeigt. Nach meiner Theorie müssten das doch 8,2TB sein?! Wo sind die 400GB hin ;)
 
5% root reservation? Würde rechnerisch hinkommen. Was sagt denn df genau?
 
Guten Morgen,
lese schon länger diesen tollen thread, habe mich aber erst jetzt angemeldet und gleich eine Frage. Aufgrund der tollen Beiträge will ich mir auch einen Server auf Xeon-Basis bauen. Bisher habe ich einen i5 2500k und 16 GB RAM mit ESX 5.1.

Neu soll es das häufig genannte Supermicro X9SCM-F werden, da ich nur eine physikalische CPU möchte und 2x SATA3 (6Gbps) recht nützlich finde.
Als CPU wird häufig die Xeaon 1230v2 erwähnt. Würde auch die Intel Xeon E3-1265LV2, 4x 2.50GHz, Sockel-1155 funktionieren?
An RAM dachte ich an den Kingston Kingston ValueRAM DIMM Kit 32GB PC3-12800R reg ECC CL11 (DDR3-1600) (KVR16R11D4K4/32) Preisvergleich | Geizhals Deutschland. Wäre DDR3-1600 und ECC.

Was haltet ihr davon, wäre das möglich?
 
Tipp: Schau dir preislich auch den HP ML110 G7 an. ;)
 
permanent errors

Hallo,

ich lasse gerade auf einem Backup-System scrub durchlaufen und habe folgenden Fehler bekommen:

#zpool status -v tank1
pool: tank1
state: ONLINE
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see: http://www.sun.com/msg/ZFS-8000-8A
scan: scrub in progress since Tue Dec 18 16:13:19 2012
838G scanned out of 3.61T at 13.3M/s, 61h2m to go
0K repaired, 22.68% done
config:

NAME STATE READ WRITE CKSUM
tank1 ONLINE 0 0 1
mirror-0 ONLINE 0 0 0
c7t1d0 ONLINE 0 0 0
c14t0d0 ONLINE 0 0 0
mirror-1 ONLINE 0 0 2
c7t3d0 ONLINE 0 0 2
c14t2d0 ONLINE 0 0 2
mirror-2 ONLINE 0 0 0
c7t7d0 ONLINE 0 0 0
c14t6d0 ONLINE 0 0 0
mirror-3 ONLINE 0 0 0
c13t2d0 ONLINE 0 0 0
c13t0d0 ONLINE 0 0 0
cache
c13t3d0 ONLINE 0 0 0

errors: Permanent errors have been detected in the following files:

<metadata>:<0x0>

Dabei handelt es sich ja um keine Nutzdaten, sondern um die Metadaten, die ich natürlich schlecht aus einem Backup wiederherstellen kann.
Wie würdet ihr jetzt weiter verfahren?
Ich werde in den nächsten Tagen noch einen Backup-Pool anlegen und eine Kopie des Pools tank1 erstellen. Kann man sonst noch irgend etwas machen?
Vielen Dank für eure Hilfe.
 
Ich habe heute versucht iometer-dynamo auf nexentasor 3.1.3.5 zum Laufen zu kriegen, leider ohne Erfolg ? Hat hier schon
jemand Erfahrungen damit gemacht und eine Lösung parat ? Vielleicht sollte ich lieber OmniOS probieren. Habe 5 verschiedene
Releases von iometer geteset und bei jeder kam es zu Fehlern beim Kompilieren, trotz Workaround.
Code:
# Add the -DNOMINMAX to the CFLAGS in Makefile to avoid errors while compiling dynamo. IOMeter Version - IOMeter-2006_07_27.
CFLAGS= -DNOMINMAX
 
Mal ne ketzerische aber ernst gemeinte Frage: wie deinstalliere ich napp-it wieder?
Ich bin eben in den frühesten BE namens "solaris" gebootet, der pre_napp-it BE ist erst 1h später, und dann wiederum 30 minuten später der napp-it BE etc.
Trotzdem ist der napp-it webserver und alles aktiv??
Für jeden Hinweis dankbar.
 
Hallo hotzen,

über das geiche Problem bin ich auch schon gestoßen und habe vermutet, das ich die Wirkunsweise der BEs oder dessen Bennenung missverstanden habe. Würde mich daher genauso über Hinweise freuen.
 
Mal ne ketzerische aber ernst gemeinte Frage: wie deinstalliere ich napp-it wieder?
Ich bin eben in den frühesten BE namens "solaris" gebootet, der pre_napp-it BE ist erst 1h später, und dann wiederum 30 minuten später der napp-it BE etc.
Trotzdem ist der napp-it webserver und alles aktiv??
Für jeden Hinweis dankbar.

ganz einfach:

autostart verhindern:
/etc/rc3.d/S99napp-it löschen

anhalten: /etc/init.d/napp-it stop
starten: /etc/init.d/napp-it start

löschen:
Ordner /var/web-gui löschen - da ist alles drin was zu napp-it gehört
/etc/init.d/napp-it kann man löschen, ist aber nicht nötig, da der startende webserver in /var/web-gui lag

wenn mans ganz genau nimmt:
alles deinstallieren, was der napp-it installer installiert
user napp-it löschen und die ganzen Tools wie smartmontools, netatalk, netcat, bonnie etc deinstallieren
SMB Dienste und Comstar deinstallieren/ Konfiguration zurücknehmen, user napp-it aus /etc/sudoer löschen

oder den ersten pre-napp-it BE aktivieren und neu booten
oder neu installieren, ist ja normalerweise nichts wichtiges im System (mit pool import)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh