Server primär als NAS Ersatz (VMware oder Proxmox)

Ist die Replikation lokal oder zwischen zwei Servern?
Im zweiten Fall müssen die beiden Server eine Appliance Group bilden.

Ob die Gruppe funktioniert kann man im Menü Extension > Appliance Group testen wenn man z.B. bei einem Remote-Server auf ZFS klickt. Man müsste dann eine Liste der Dateisysteme auf dem Remote System erhalten.

Bei einer ersten Replikation wird ein komplettes Dateisystem aus einem Snapshot übertragen und auf dem Zielsystem neu angelegt. Bei den folgenden Replikationen wird ein neuer Snap erstellt und die geänderten Daten übertragen. Wurden auf dem Quellsystem zwischenzeitlich weitere Snaps erstellt, werden diese ignoriert. Die Option -I erhält diese Zwischen-Snaps auf dem Zielsystem. Diese Funktion wird normalerweise nicht genutzr sondern man verwendet die Default-Einstellung -i.

Wenn man eine Replikation anlegt, so

- bildet man als erstes eine Gruppe zwischen den beteiligten Servern

- legt einen Replikationsjob an: (wählt ein Quelldateisystem und ein Ziel)
Auf dem Ziel darf es noch kein Dateisystem mit dem Namen geben

- Rekursive stellt man üblicherweise auf aus und incremental auf -i

- Dann startet man die Replikation mit einem Zeitplan, bis herunter jede Minute

Sonstige Autosnaps kann man auf dem Quellsystem beliebig erstellen, das ist unabhängig
Wenn man zusätzliche Snaps auf dem Ziel erhalten möchte, geht das per keep, z.B. hours:24,days:32,months:3,years:0
Das hält für die letzten 24 Stunden je einen Snap, für die letzten 32 Tage je einen und so weiter.
Keep geht aber nicht bei rekursiven Replikationen. Das macht immer einen exakten Sync der Snaps vom Quellsystem.

Sending and Receiving ZFS Data - Oracle Solaris ZFS Administration Guide
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich repliziere nicht auf einen externen Server sondern auf ein Pool auf einer anderen HDD.

Wenn ich richtig verstehe, liegt der Fehler in der Option -I, ich werde daher auf -i umstellen. Die Idee meines Backups ist folgende - ich muss vorausschicken, dass sich die Daten am Server nicht allzu oft ändern:

- automatischer Snapshot des gesamten Pools einmal am Tag
- automatische Replikationen ausgewählter Shares einmal pro Woche

Danke das ist ganz sinnvoll so?!

Bei der Gelegenheit möchte ich mich für den tollen und geduldigen Support hier im Forum bedanken, das habe ich in dieser professionellen Fomr noch nicht erlebt.

@gea: Von napp-it bin ich absolut begeistert, eine wirklich tolle Arbeit. Und ich finde das Linzenzangebot für sehr fair!
 
Zuletzt bearbeitet:
Wenn ich richtig verstehe, liegt der Fehler in der Option -I, ich werde daher auf -i umstellen.

Eher nicht.

Ist die Replikation Rekursive (kann derartige Probleme bereiten wenn nach der ersten Replikation ein Sub-Dateisystem erstellt/ gelöscht wird).

Dann eine neue Replikation nur für ein Dateisysten anlegen (ohne recursive Einstellung) und nochmal starten.
 
Dann verstehe ich den Unterschied zwischen -i und -I nicht ganz. -I sichert alle Snapshots mit?

Ist das die Replikation überhaupt sinnvoll als Datensicherung oder wäre rsync dann nicht besser geeignet?
 
Mit rsync kann man zwei beliebige Ordner syncronisieren, mit ZFS Replikation zwei ZFS Dateisysteme. Man könnte also beides benutzen. Rsync hätte sogar den Vorteil, dass man es jederzeit für zwei Ordner aufrufen kann.

Rsync basiert auf einem Vergleich aller Dateien zwischen Quelle und Ziel. Es erzeugt dadurch erhebliche Last und ein rsync Lauf bei größeren Datenmengen kann sehr lange laufen. Auch kann es direkt keine offenen Dateien bearbeiten und es übernimmt auch keine NFS4 ACL aus Solaris (Windows ntfs alike)

ZFS send hat mehr Ähnlichkeit mit einer Radioübertragung wo man am Zielsystem die Sendung aufnimmt. Bei einer inkrementellen Replikation muss daher zu Beginn der Übertragung auf beiden Seiten der gleiche Stand vorliegen. ZFS macht das indem das Zielsystem einen identischen Snapshot hält wie das Quellsystem. Auf dem Quellsystem wird dann ein Snapshot erstellt der alle Änderungen beinhaltet und lediglich diese Datenblöcke als Stream übertragen. Das Verfahren ist so ausgelegt dass ein Hochlastserver im Petabyte Bereich im Minutentakt syncronisieren kann was mit rsync schlicht unmöglich wäre. Mit Replikation muss man daher immer auf beiden Seiten die Basissnaps erhalten, ist dann aber um Welten leistungsfähiger als rsync.

-i vs -I
Normalerweise nutzt man immer -i. Dabei wird ein Snapshot z.B. snap11 auf dem Quellsystem erstellt, auf dem Ziel das Dateisystem auf den gemeinsamen Basisstand snap10 zurückgesetzt und die im neuen Snapshot 11 enthaltenen geänderten Daten übertragen und anschliessend auf dem Ziel ein neuer gemeinsamer Basisnap 11 erstellt.

-I bräuchte man nur wenn man auf dem Quellsystem neben dem gemeinsamen Basisnap z.B. snap10 weitere snaps snap11..15 hätte und dann alle Änderungen von snap11..15 auf einmal übertragen möchte - also normalerweise nie.
 
Zuletzt bearbeitet:
Hab mir mal die "Error Details" angesehen und finde das ...

Code:
Apr 02 2018 09:40:02.039878119 ereport.io.scsi.cmd.disk.dev.rqs.derr
nvlist version: 0
	class = ereport.io.scsi.cmd.disk.dev.rqs.derr
	ena = 0x41b6bffef00001
	detector = (embedded nvlist)
	nvlist version: 0
		version = 0x0
		scheme = dev
		device-path = /pci@0,0/pci15ad,1976@10/sd@0,0
		devid = id1,sd@n6000c29751dac80f378b6ff155f3ff73
	(end detector)

	devid = id1,sd@n6000c29751dac80f378b6ff155f3ff73
	driver-assessment = fail
	op-code = 0x1a
	cdb = 0x1a 0x0 0x48 0x0 0x20 0x0
	pkt-reason = 0x0
	pkt-state = 0x37
	pkt-stats = 0x0
	stat-code = 0x2
	key = 0x5
	asc = 0x24
	ascq = 0x0
	sense-data = 0x70 0x0 0x5 0x0 0x0 0x0 0x0 0xa 0x0 0x0 0x0 0x0 0x24 0x0 0x0 0xc0 0x0 0x2 0x0 0x0
	__ttl = 0x1
	__tod = 0x5ac1de52 0x2607de7

Was hat es damit auf sich?

Darüber hinaus habe ich eine Reihe von "alten" Fehlern gefunden. Wie kann ich diese löschen?
 
Zuletzt bearbeitet:
1.
Das sind eher Informationen für Entwickler

2.
Logfiles rotieren/ löschen normalerweise automatisch
 
Ich finde im Log immer wieder folgenden Eintag:

Code:
Apr 15 19:23:48 Storage smbsrv: [ID 138215 kern.notice] NOTICE: smbd[STORAGE\Thomas]: .sync share not found
Apr 15 19:23:48 Storage last message repeated 9 times

Ich kann mir nicht erklären woher dieser Zugiff stammt. Wie finde ich heraus werd der Verursacher ist?
 
Eine SMB Client, z.B. ein Windows Rechner versucht unter dem Account Thomas auf ein nicht existierendes Share \\STORAGE\.sync zuzugreifen. Finden kann man den Verursacher nur an der Quelle, also dem Windows Rechner. Solaris hat neben dem fehlgeschlagenen Zugriffsversuch keine weiteren Infos.
 
Ja, auf einem Windows Notebook läuft Resilio. Danke! Da hätteich auch selbst darauf kommen können...

Werde mich am Notebook auf de Suche machen!
 
Noch was ...

Die Pro-Monitor Anzeige zeigt "Disk" häufig "orange" an, die anderen Symbole sind immer "grün". Was hat es damit auf sich. Grund zur Beunruhigung?

mon.jpg
 
Nö. Zeigt nur die aktuelle Last an. Hoover mal mit der Maus drüber, dann siehst du in Prozent die Last auf den einzelnen Disks.
 
Danke, ds beruhigt schon mal. Wie interpretiere ich die Werte, bzw. was bedeuten die einzelnen Wert? "read" und "write" kann ich noch interpretieren, ab w% und b%?

napp-it.jpg
 
Ich habe folgende - für mich unverständliche Log-Einträge gefunden - Google brachte auch nicht ...

Code:
May  4 00:07:24 storage pcplusmp: [ID 805372 kern.info] pcplusmp: lp (ecpp) instance 0 irq 0x7 vector 0x44 ioapic 0x2 intin 0x7 is bound to cpu 0
May  4 00:07:24 storage isa: [ID 202937 kern.info] ISA-device: ecpp0
May  4 00:07:24 storage genunix: [ID 936769 kern.info] ecpp0 is /pci@0,0/isa@7/lp@1,378
May  4 00:07:24 storage pcplusmp: [ID 805372 kern.info] pcplusmp: asy (asy) instance 1 irq 0x3 vector 0xb0 ioapic 0x2 intin 0x3 is bound to cpu 1
May  4 00:07:24 storage isa: [ID 202937 kern.info] ISA-device: asy1
May  4 00:07:24 storage genunix: [ID 936769 kern.info] asy1 is /pci@0,0/isa@7/asy@1,2f8
May  4 00:07:24 storage pcplusmp: [ID 805372 kern.info] pcplusmp: asy (asy) instance 0 irq 0x4 vector 0xb1 ioapic 0x2 intin 0x4 is bound to cpu 0
May  4 00:07:24 storage isa: [ID 202937 kern.info] ISA-device: asy0
May  4 00:07:24 storage genunix: [ID 936769 kern.info] asy0 is /pci@0,0/isa@7/asy@1,3f8
May  4 00:07:24 storage pseudo: [ID 129642 kern.info] pseudo-device: ucode0
May  4 00:07:24 storage genunix: [ID 936769 kern.info] ucode0 is /pseudo/ucode@0
May  4 00:07:24 storage pseudo: [ID 129642 kern.info] pseudo-device: devinfo0
May  4 00:07:24 storage genunix: [ID 936769 kern.info] devinfo0 is /pseudo/devinfo@0
May  4 00:07:24 storage scsi: [ID 583861 kern.info] mpt_sas7 at mpt_sas0: scsi-iport v0
May  4 00:07:24 storage pcplusmp: [ID 805372 kern.info] pcplusmp: ide (ata) instance 0 irq 0xe vector 0x46 ioapic 0x2 intin 0xe is bound to cpu 1
May  4 00:07:24 storage genunix: [ID 936769 kern.info] mpt_sas7 is /pci@0,0/pci15ad,7a0@16/pci15d9,808@0/iport@v0
May  4 00:07:24 storage genunix: [ID 408114 kern.info] /pci@0,0/pci15ad,7a0@16/pci15d9,808@0/iport@v0 (mpt_sas7) online
May  4 00:07:24 storage pseudo: [ID 129642 kern.info] pseudo-device: pseudo1
May  4 00:07:24 storage genunix: [ID 936769 kern.info] pseudo1 is /pseudo/zconsnex@1
May  4 00:07:24 storage pseudo: [ID 129642 kern.info] pseudo-device: pseudo2
May  4 00:07:24 storage genunix: [ID 936769 kern.info] pseudo2 is /pseudo/zfdnex@2
May  4 00:07:24 storage isa: [ID 202937 kern.info] ISA-device: pit_beep0
May  4 00:07:24 storage genunix: [ID 936769 kern.info] pit_beep0 is /pci@0,0/isa@7/pit_beep
May  4 00:07:24 storage pseudo: [ID 129642 kern.info] pseudo-device: dcpc0
May  4 00:07:24 storage genunix: [ID 936769 kern.info] dcpc0 is /pseudo/dcpc@0
May  4 00:07:24 storage pseudo: [ID 129642 kern.info] pseudo-device: fasttrap0
May  4 00:07:24 storage genunix: [ID 936769 kern.info] fasttrap0 is /pseudo/fasttrap@0
May  4 00:07:24 storage pseudo: [ID 129642 kern.info] pseudo-device: fbt0
May  4 00:07:24 storage genunix: [ID 936769 kern.info] fbt0 is /pseudo/fbt@0
May  4 00:07:24 storage pseudo: [ID 129642 kern.info] pseudo-device: fcp0
May  4 00:07:24 storage genunix: [ID 936769 kern.info] fcp0 is /pseudo/fcp@0
May  4 00:07:24 storage pseudo: [ID 129642 kern.info] pseudo-device: fcsm0
May  4 00:07:24 storage genunix: [ID 936769 kern.info] fcsm0 is /pseudo/fcsm@0
May  4 00:07:24 storage pseudo: [ID 129642 kern.info] pseudo-device: fct0
May  4 00:07:24 storage genunix: [ID 936769 kern.info] fct0 is /pseudo/fct@0
May  4 00:07:24 storage pseudo: [ID 129642 kern.info] pseudo-device: kvm0
May  4 00:07:24 storage genunix: [ID 936769 kern.info] kvm0 is /pseudo/kvm@0
May  4 00:07:24 storage pseudo: [ID 129642 kern.info] pseudo-device: llc10
May  4 00:07:24 storage genunix: [ID 936769 kern.info] llc10 is /pseudo/llc1@0
May  4 00:07:24 storage pseudo: [ID 129642 kern.info] pseudo-device: lockstat0
May  4 00:07:24 storage genunix: [ID 936769 kern.info] lockstat0 is /pseudo/lockstat@0
May  4 00:07:24 storage pseudo: [ID 129642 kern.info] pseudo-device: lofi0
May  4 00:07:24 storage genunix: [ID 936769 kern.info] lofi0 is /pseudo/lofi@0
May  4 00:07:24 storage pseudo: [ID 129642 kern.info] pseudo-device: profile0
May  4 00:07:24 storage genunix: [ID 936769 kern.info] profile0 is /pseudo/profile@0
May  4 00:07:24 storage pseudo: [ID 129642 kern.info] pseudo-device: ramdisk1024
May  4 00:07:24 storage genunix: [ID 936769 kern.info] ramdisk1024 is /pseudo/ramdisk@1024
May  4 00:07:24 storage pseudo: [ID 129642 kern.info] pseudo-device: sdt0
May  4 00:07:24 storage genunix: [ID 936769 kern.info] sdt0 is /pseudo/sdt@0
May  4 00:07:24 storage pseudo: [ID 129642 kern.info] pseudo-device: stmf0
May  4 00:07:24 storage genunix: [ID 936769 kern.info] stmf0 is /pseudo/stmf@0
May  4 00:07:24 storage pseudo: [ID 129642 kern.info] pseudo-device: systrace0
May  4 00:07:24 storage genunix: [ID 936769 kern.info] systrace0 is /pseudo/systrace@0
May  4 00:07:24 storage pseudo: [ID 129642 kern.info] pseudo-device: bpf0
May  4 00:07:24 storage genunix: [ID 936769 kern.info] bpf0 is /pseudo/bpf@0
May  4 00:07:24 storage pseudo: [ID 129642 kern.info] pseudo-device: fssnap0
May  4 00:07:24 storage genunix: [ID 936769 kern.info] fssnap0 is /pseudo/fssnap@0
May  4 00:07:24 storage pseudo: [ID 129642 kern.info] pseudo-device: inotify0
May  4 00:07:24 storage genunix: [ID 936769 kern.info] inotify0 is /pseudo/inotify@0
May  4 00:07:24 storage ipf: [ID 774698 kern.info] IP Filter: v4.1.9, running.
May  4 00:07:24 storage pseudo: [ID 129642 kern.info] pseudo-device: lx_systrace0
May  4 00:07:24 storage genunix: [ID 936769 kern.info] lx_systrace0 is /pseudo/lx_systrace@0
May  4 00:07:24 storage pseudo: [ID 129642 kern.info] pseudo-device: nsmb0
May  4 00:07:24 storage genunix: [ID 936769 kern.info] nsmb0 is /pseudo/nsmb@0
May  4 00:07:24 storage pseudo: [ID 129642 kern.info] pseudo-device: pm0
May  4 00:07:24 storage genunix: [ID 936769 kern.info] pm0 is /pseudo/pm@0
May  4 00:07:24 storage pseudo: [ID 129642 kern.info] pseudo-device: signalfd0
May  4 00:07:24 storage genunix: [ID 936769 kern.info] signalfd0 is /pseudo/signalfd@0
May  4 00:07:24 storage pseudo: [ID 129642 kern.info] pseudo-device: timerfd0
May  4 00:07:24 storage genunix: [ID 936769 kern.info] timerfd0 is /pseudo/timerfd@0
May  4 00:07:24 storage pcplusmp: [ID 805372 kern.info] pcplusmp: ide (ata) instance 0 irq 0xe vector 0x46 ioapic 0x2 intin 0xe is bound to cpu 0

Ich hatte diese Einträge zu vor noch nie! Was hat es damit auf sich?

Danke vorab!
 
Ich sehe hier nichts beunruhigendes. das ist eher die normale "Geschwätzigkeit" des Systems.
Wenn das plötzlich zunimmt, dann meist wenn ein Dienst z.B. Firewall aktiviert wird.
 
Danke! Das beruhigt mich schon. Seltsam, ich habe nichts verändert, auch die FW nicht aktiviert.
 
Sorry, auch harmlos?

Code:
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:32 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:32 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
May  7 15:54:33 storage scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci15ad,7a0@16/pci15d9,808@0 (mpt_sas0):
May  7 15:54:33 storage 	FW Upload tce invalid!
 
Ja, gilt als harmlos
OS-4197: suspicious warnings from mpt_sas

Es handelt sich um eine Warnung des LSI Treibers bei LSI/Broadcom 3008 HBAs bei Aufruf von sas3ircu. Das ist ein LSI Tool um in einer Backplane die Alert LED einzuschalten oder den Slot in einer Backplane zu ermitteln.

BroadCom stellt das Tool für Solaris zur Verfügung. Ein ältere bzw gepatchte Version läuft unter Illumos, produziert aber diese Meldung.
 
Ich habe einige Backup Jobs definiert, die automatisch laufen sollten (gleicher Server, eigene HDD). Leider habe ich eben von allen Jobs folgende Fehlermeldung erhalten:

Code:
Active Job 1522774955 error:
error; time: 2018.05.08.08.15.03 line: 2113; my_log end 1551: error, source filesystem tank/Photos not found. 
Check filesystems and group membership, opt delete newest target snap if second new is available.

Ich habe auch alle Snapshot am Target gelöscht, trotzdem der Fehler.

Die Jobs haben schon funktioniert. Was muss ich machen?

In der Liste der Snapshots habe ich Einträge für Daily, Weekly und Monthly - diese habe ich selbst erstellt. Aber wie kommen die anderen Einträge zu Stande? Haben die mit dem Problem zu tun?

snapshots.jpg

Danke!
 
Zuletzt bearbeitet:
Für eine inkrementelle Replikation braucht man das Dateisystem auf beiden Seiten und die identischen letzten Snaps. Wenn man diese Snaps löscht kann die Repölikation nicht fortgesetzt werden.

Man kann dann nur das Zieldateisystem umbenennen und die Replikation neu starten (überträgt dann nochmal alles) und bei Erfolg das alte Zieldateisystem löschen.
 
Ich verstehe den Fehler trotzdem nicht.

Es werden folgende Snapshots für den Pool "tank" erstellt (ich habe versucht mich dabei an die Anleitung zu halten):

daily 04:30 Uhr, keep 7
weekly Tue 05:00 Uhr, keep 5
monthly 1st day 05:30 Uhr keep 24

Für den Pool "tank_backup" (Pool auf einer separaten HDD) habe ich keine Snapshot Aufgaben aktiviert.

Wöchtenlich repliziere incremental ich das Share "tank/Photos" nach "tank_backup/date/Photo (Parameter -i).

Das hat auch soweit funktioniert, aber eben heute nicht mehr.

Wo liegt der Fehler bzw. wie setze ich das richtig auf?
 
Zuletzt bearbeitet:
1.)
Mit einem Autosnap-Job kann man Snaps/Vorversionen anlegen und deren Haltedauer festlegen,
z.B. mache einen Snap pro Tag und behalte die letzten 30.

2.)
Ich nehme jetzt mal vorab an dass es sich um eine lokale Replikation (nicht zwischen zwei NAS Servern) zwischen den lokalen Pools tank und tank_backup handelt und beide Pools online sind.

Ein Replikationsjob legt dann unabhängig von den Autosnap-Jobs eigene Snaps an. Im Namen dieser Snaps befindet sich die job-id und ein _repli und jeder Snap hat eine fortlaufende Nummer. Auf dem Zielpool und dem Quellpool werden dann für eine fortlaufende Replikation neben dem Dateisystem identische Snap-paare mit der jeweils höchsten gleichen Nummer benötigt.

Beim Anlegen eines Replikationsjobs muss man lediglich das Quell-Dateisystem und das Zieldateisystem angeben unter dem das replizierte Dateisystem liegen soll. Die Verwaltung der Replikations-Snap-Paare geht automatisch. Man darf diese aber manuell nicht löschen da dann keine weitere Replikation mehr möglich ist (Dann muss das Ziel Dateisystem gelöscht/umbenannt werden damit eine neue erstmalige Replikation laufen kann). Auch müssen beide Pools online sein bzw bei Netzwerk-Replikation eine funktionierende Gruppe bilden.
 
Korrekt, es handelt sich um eine lokale Sicherung zwischen zwei Pools auf dem gleichen Server.

Ich denke, ich habe es genau so gemacht:

Snap-Jobs:
Code:
pool tank  keep 7   hold -  name daily    delzero no  prejob no  diesabe-rec  no  md5 
pool tank  keep 5   hold -  name weekly   delzero no  prejob no  diesabe-rec  no  md5 
pool tank  keep 24  hold -  name monthly  delzero no  prejob no  diesabe-rec  no  md5

Damit sollte - analog zur Anleitung auf napp-it - ein sinnvolles Snapshot Konzept haben. hold "blank" ist OK?

Die Replikationsjobs sind wie folgt angelegt:
Code:
host storage  hostip 127.0.0.1  transport nc  port 55482  send_i i  dest_... blank  keep hours:24,days:32,months:3,years:0  hold blank
...

Bei der Replikation ist mir der Unterschied zwischen "keep" und "hold" nicht klar.

Die Auto-snaps "_repli" wurden auch angelegt. Die Sicherung hat auch letzt Woche funktioniert - diese Woche die vorgenannte Fehlermeldung.

Ich habe jetzt auch alle Target Shares umbenannt, z. B. tank_backup/data/Photo > tank_backup/data/Photo und "_repli" Snaps gelöscht. Backup funktioniert nicht, ich bekomme sofort die Fehlermeldung:

Code:
my_log end 1551: error, source filesystem tank/Photos not found 
Check filesystems and group membership, opt delete newest target snap if second new is available.
 
Zuletzt bearbeitet:
Mache bitte Mal
zpool list -v
und
zfs list

Deine Fehlermeldung liest sich als ob es am zu sichernden Dateisystem hapert.
 
Code:
root@storage:~# zpool list -v
NAME                        SIZE  ALLOC   FREE  EXPANDSZ   FRAG    CAP  DEDUP  H               EALTH  ALTROOT
rpool                      39,8G  2,14G  37,6G         -    10%     5%  1.00x  ONLINE  -
  c2t0d0                   39,8G  2,14G  37,6G         -    10%     5%
tank                       21,8T  13,8T  7,93T         -     2%    63%  1.00x  ONLINE  -
  raidz2                   21,8T  13,8T  7,93T         -     2%    63%
    c0t5000C500A4D1390Ad0      -      -      -         -      -      -
    c0t5000C500A4D15D91d0      -      -      -         -      -      -
    c0t5000C500A4D15DC5d0      -      -      -         -      -      -
    c0t5000C500A4D1653Ad0      -      -      -         -      -      -
    c0t5000C500A4D16D14d0      -      -      -         -      -      -
    c0t5000C500AFC829E9d0      -      -      -         -      -      -
tank_backup                2,72T   659G  2,07T         -     1%    23%  1.00x  ONLINE  -
  c0t50014EE2B6BE5150d0    2,72T   659G  2,07T         -     1%    23%
root@storage:~#

Code:
root@storage:~# zfs list
NAME                                            USED  AVAIL  REFER  MOUNTPOINT
rpool                                          3,07G  35,4G  23,5K  /rpool
rpool/ROOT                                     1,03G  35,4G    23K  legacy
rpool/ROOT/omnios-1                            1,03G  35,4G   824M  /
rpool/ROOT/omnios.backup                         82K  35,4G   791M  /
rpool/ROOT/pre_activate_18.03pro_1522657284      65K  35,4G   823M  /
rpool/ROOT/pre_download_18.01free_1521399292     62K  35,4G   793M  /
rpool/ROOT/pre_download_18.03pro_1521962568     107K  35,4G   812M  /
rpool/ROOT/pre_proftpd_setup_proftpd-1.3.6rc4    56K  35,4G   792M  /
rpool/dump                                     1,00G  35,4G  1,00G  -
rpool/swap                                     1,03G  36,4G   113M  -
tank                                           10,6T  4,83T   264K  /tank
tank/Movies                                    4,91T  3,43T  4,89T  /tank/Movies
tank/Music                                     3,99T  3,43T  3,99T  /tank/Music
tank/Photos                                     125G  3,43T   125G  /tank/Photos
tank/Private                                   82,7G  3,43T  81,1G  /tank/Private
tank/Public                                    80,8M  3,43T  76,9M  /tank/Public
tank/Recordings                                4,77G   123G  2,72G  /tank/Recordings
tank/Regine                                    26,6G  3,43T  26,6G  /tank/Regine
tank/Setup                                     29,1G  3,43T  28,5G  /tank/Setup
tank/Shared                                     960M  3,43T   959M  /tank/Shared
tank/Sync                                      14,0G  3,43T  7,54G  /tank/Sync
tank/Thomas                                    26,2G  3,43T  26,2G  /tank/Thomas
tank_backup                                     697G  1,99T   229G  /tank_backup
tank_backup/backup_appliance                    112M  1,95T   112M  /tank_backup/backup_appliance
tank_backup/data                                215G  1,95T    96K  /tank_backup/data
tank_backup/data/Photos1                        125G  1,95T   125G  /tank_backup/data/Photos1
tank_backup/data/Public1                         88K  1,95T    88K  /tank_backup/data/Public1
tank_backup/data/Regine1                       26,5G  1,95T  26,5G  /tank_backup/data/Regine1
tank_backup/data/Setup1                        28,6G  1,95T  28,6G  /tank_backup/data/Setup1
tank_backup/data/Shared1                        949M  1,95T   949M  /tank_backup/data/Shared1
tank_backup/data/Sync1                         8,16G  1,95T  8,16G  /tank_backup/data/Sync1
tank_backup/data/Thomas                        26,2G  1,95T  26,2G  /tank_backup/data/Thomas
tank_backup/esxi                               1,31G  1,95T  1,31G  /tank_backup/esxi
tank_backup/extern                              214G  1,95T   214G  /tank_backup/extern
root@storage:~#
 
Wurde irgendwas in der vergangenen Woche geändert?
Wurde der Server z.B. umbenannt, dann findet er sein Quelldateisystem nicht mehr

Wenn man eine Replikation tank/Photo -> backup/data anlegt,
so wird darunter ein neues Dateisystem backup/data/Photo angelegt

backup/data dürfte man also nicht umbenennen sondern backup/data/Photo

wg keep/hold
Mit keep kan man die Historie festlegen, z.B.
keep days:32 bedeutet dass für die ketzten 32 Tage je ein Snap behalten wird.
Mit hold kann man die absolute maximale Anzahl oder Tage festlegen

Wird beides gesetzt wird beides beachtet
 
Eigenlich habe ich nicht gändert!

Ich habe jetzt die VM neu gestartet, jetzt funktionieren die Sync-Jobs wieder.
Irgendwas passt da nicht! Wie gehe ich der Sache auf den Grund?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh