Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Könntest Du darauf bitte noch einmal näher eingehen? „Sonstige“ Snaps sind dann solche Snaps, die nicht vom Replikationsjob erstellt werden? Davon habe ich durchaus einige. Wie spielt das zusammen mit Snaps, die durch einen Autosnap Job erstellt wurden? Szenario wäre ja: Autosnap erstellt häufig und viele Snaps, um versehentlich durchgeführte Veränderungen rückgängig machen zu können. Replikationsjobs für Backup werden hingegen in geringerer Frequenz durchgeführt, als die Autosnap Jobs. Führt das bei Replikationsjobs dann zu Problemen? Und wie ist das dann bei hold/keep in den Replikationsjobs? Wenn nur die letzten x pro Tag/Woche/Monat/Jahr gehalten werden - werden die ältesten dann mit der nächsten Replikation gelöscht? Und was würde mit den Snaps aus dem o.g. Autosnap Job passieren, die ggf. länger leben sollen? Verschwinden die mit dem entfernen eines Replikations-Snaps, der seine Halbwertszeit überschritten hat? Bzw. bleibt die Integrität der Snapshot-Kette dann noch erhalten, wenn ein solcher Snap gelöscht wurde? AlsoDas Übertragen "sonstiger" Snaps kann Probleme machen. Normalerweise erstellt man mit keep und hold auf dem Ziel eine eigene Snapshot retension policy z.B. je Tag 24 snaps, je woche/monat/jahr xx snaps oder behalte letzte 7 Tage oder letzte 20 Snaps.
Will ich nicht ausschließen. Hardware siehe System in meinem Profil - sollte gepflegt sein. 😉Du hastest ja im März schon so komische Effekte nach dem ausschalten denk ich, was ist denn da für ne Hardware drunter?
Also Mainboard, Controller etc?
Recursive Replikation überträgt alle datasets (auch tieferliegende Dateisysteme, Zvols, Snaps). Das kann manchmal Probleme bereiten wenn man nach der Erstreplikation erwas ändert. Replikations Snaps werden nach der Übertragung umbenannt (mit Hinweis auf die Regel um den Snap zu behalten)Könntest Du darauf bitte noch einmal näher eingehen? „Sonstige“ Snaps sind dann solche Snaps, die nicht vom Replikationsjob erstellt werden? Davon habe ich durchaus einige. Wie spielt das zusammen mit Snaps, die durch einen Autosnap Job erstellt wurden? Szenario wäre ja: Autosnap erstellt häufig und viele Snaps, um versehentlich durchgeführte Veränderungen rückgängig machen zu können. Replikationsjobs für Backup werden hingegen in geringerer Frequenz durchgeführt, als die Autosnap Jobs. Führt das bei Replikationsjobs dann zu Problemen? Und wie ist das dann bei hold/keep in den Replikationsjobs? Wenn nur die letzten x pro Tag/Woche/Monat/Jahr gehalten werden - werden die ältesten dann mit der nächsten Replikation gelöscht? Und was würde mit den Snaps aus dem o.g. Autosnap Job passieren, die ggf. länger leben sollen? Verschwinden die mit dem entfernen eines Replikations-Snaps, der seine Halbwertszeit überschritten hat? Bzw. bleibt die Integrität der Snapshot-Kette dann noch erhalten, wenn ein solcher Snap gelöscht wurde? Also
Das habe ich vor ein paar Jahren auch festgestellt, mit einem Freund, als wir OmniOS als Alternative zu Solaris getestet hatten als VM Filer....aber das war wirklich ein graus...Das erklärt meine miese Pool Performance unter OmniOS ziemlich gut, während unter TrueNAS Scale 25.04 alles flutscht.
ja, napp-it cs.Für mich ist OmniOS damit solange raus. Hab aber keine Lust wieder zurück zu Solaris zu gehen. Ich werde solange Truenas Scale nochmal eine Chance geben, auch wenn ich die UI für zu fancy und aufgeblasen finde.
@gea kann man napp-it auch für ein Plain FreeBSD Stable benutzen ?
nach reboot (arc cache leer):@gea Wie könnte ich denn lokal einmal unter Proxmox 8.4 die tatsächliche Leseleistung meines ZFS-Mirros benchen?
root@prox1:/tank0/media_root# dd if=/dev/zero of=groesse_4gb.img bs=1M count=4096
4096+0 records in
4096+0 records out
4294967296 bytes (4.3 GB, 4.0 GiB) copied, 1.4117 s, 3.0 GB/s
root@prox1:/tank0/media_root# pv groesse_4gb.img > /dev/null
4.00GiB 0:00:01 [3.00GiB/s] [======================================>] 100%
Hm, da dürfte schon der RAM arbeiten, auch wenn das kurz nach dem Reboot war, oder?So ungefähr?Code:root@prox1:/tank0/media_root# dd if=/dev/zero of=groesse_4gb.img bs=1M count=4096 4096+0 records in 4096+0 records out 4294967296 bytes (4.3 GB, 4.0 GiB) copied, 1.4117 s, 3.0 GB/s root@prox1:/tank0/media_root# pv groesse_4gb.img > /dev/null 4.00GiB 0:00:01 [3.00GiB/s] [======================================>] 100%
Hm, welche Controller hast du? Das bringt mich zum Nachdenken... mir fehlt da nämlich irgendwas bei meinem 9400er.beim crossflash unbedingt drauf achten das du auch nach der IT-FW das 'BIOS' der Karte auch noch flasht -> mptsas2.rom bei meinen Controllern
ohne das Controller BIOS kannst du davon nicht booten (der entsprechende Punkt im MB BIOS fehlt dann) soweit ich da im Thema bin - ich selber habe nur die IT Firmware bei mir installiert - booten vom Controller ist nicht nötig in meiner Konfig
Ich habe sowohl das BIOS als auch das UEFI hinterher geflashed, das geht angeblich parallel.beim crossflash unbedingt drauf achten das du auch nach der IT-FW das 'BIOS' der Karte auch noch flasht -> mptsas2.rom bei meinen Controllern
Vom HBA taucht halt immer eine bestimmte HDD im BIOS Boot Menü auf, vermutlich hast du Recht und ich muss echt nochmal schauen ob ich irgendwo ein Menü vom HBA übersehen habe wo ich auswählen kann welche der angeschlossenen Platten zu booten ist.Imho musst du dem Bios sagen, dass es vom HBA booten soll und dem HBA musst du dann sagen, von welcher HDD er booten soll.
M1015 - das sind LSI9220-8iHm, welche Controller hast du? Das bringt mich zum Nachdenken... mir fehlt da nämlich irgendwas bei meinem 9400er.
Das passt dann... ohne BIOS siehst du nix vom Controller beim booten. Die Platten tauchen in meinem FreeBSD dann erst im OS aufWährend des Bootvorgangs meldet sich der Controller auch und zeigt seine Platten an, also denke ich dass es prinzipiell funktioniert hat.
Jetzt kann ich mich mit der Einrichtung von TrueNAS selbst beschäftigen.
Die Kiste hat leider nur eine CPU und 32 GB RAM verbaut, soll in meiner Testumgebung aber auch vorwiegend für die zentrale Ablage von Dateien wie Doku, ISOs, ggf Backups der Proxmox Hosts und anderem performancetechnisch unkritischem Kram dienen und nicht vorwiegend zum Betrieb von VMs oder dem simultanen Zugriff durch mehrere User.
Die HDDs unterziehe ich jetzt erstmal einem ausführlichen SMART Test da ich davon ausgehen muss dass nicht mehr alle in Ordnung sind.