layerbreak
Enthusiast
- Mitglied seit
- 30.12.2010
- Beiträge
- 605
Danke, kannte ich gar nicht.@layerbreak Hier ist der Thread für deine Fragen.
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Danke, kannte ich gar nicht.@layerbreak Hier ist der Thread für deine Fragen.
Rocky Linux VM, direkt auf dem Host widerspricht ja dem Sinn des ganzen Proxmox Hosts vollständig und LXC ist auch nicht optimal. Bzw. hab ich noch einen LXC mit Altlasten, die Dienste sollen aber bald™ auf den VM Host umziehenAn die Docker-Nutzer, habt ihr Docker in eine VM (oder gar mehrere) ausgelagert oder "in" Proxmox direkt installiert?
kommt auf die Anzahl der VMs und isos an die man darauf ablegen möchteHier die eigentlichen Fragen:
Wie mach ich das am besten bei der Einrichtung?
- Wie groß macht man den Speicherplatz fürs Proxmox selbst?
die Wahl ext4Z/ZFS hat man nur für die Proxmos Systemplatte, TN ist ZFS only- Nimm ich ZFS oder vllt. doch Ext4? So aktuelle Backups brauch ich eigentlich nicht, die VM Sache selbst nicht nicht soo wichtig, wirklich wichtig ist eigentlich nur das NAS. Die Frage zielt etwas auf Write-Amplification ab, sollte bei der Heimanwendung ja nicht so das Thema sein, aber trotzdem... ich bin mir nicht sicher, ob in dem Fall ZFS so der wahnsinnge Vorteil ist, oder ob ext4/xfs nicht voll okay wäre.... hm.
Ein Slog schreibt Daten mit aktiviertem sync sofort nach einem commit damit man das nach einem Crash beim reboot wiederherstellen kann. Wenn man sync ohne slog aktiviert, macht man dieses logging auf den Pool. Der schreibt dann die im ram schreibache gesammelten daten zusätzlich mit Verzögerung. Ein Slog halbiert also die Schreiblast auf den Pool bei aktiviertem sync.- Eine Micron 7400pro mit PLP hätte ich noch, ggf. als SLOG fürs ZFS denkbar, wenn man damit die Schreiblast wirklich merklich reduzieren würde... bin da auch noch nicht zu 100% dahinter gekommen, wie sich nun ein Non-PLP-VDEV mit einem PLP SLOG verhält... das Ding verbraucht doch 7W, wenn sinnlos ist, bleibts draußen.
oder ZFS stattdessen- Für die VMs dann LVM-Thin?
Thin bedeutet dass der Platzverbrauch auf Platte dynamisch zugewiesen wird. Write Amplification hat damit nicts zu tun.Ich hab dabei noch immer nicht zu 100% verstanden, wie dieses LVM-Thin genau funktioniert, speziell hinsichtlich Write-Amplification, falls ein CoW-FS in den Guest kommt.
ZFS Snaps sind keine Kopien sondern der Datenstand vor der lethten Änderung. CoW bedeutet ja dass keine Daten überschrieben sondern immer neu geschrieben werden- Wohin speichern die Snapshots eigentlich? Zwecks Aufteilung des Mirrors...
Backup in ZFS basiert immer auf zfs send, egal welche SoftwareAn Diensten wäre folgendes geplant:
- Cloud (Nextcloud?), als TrueNAS App? Wahrscheinlich nicht ideal, diese Dienste in der Filer-VM laufen zu lassen, aber in dem Fall vllt. der bessere/einfachere Weg?
- Backup (Urbackup?), ebenso als TrueNAS App? Soll ausf Z1 schreiben... also insofern wsl. auch so?
Hintergrund ist halt ich habe derzeit 3 VM. 1x Debian auf dem kleinen 24/7 Prox mit verschiedenen Microservices die 24/7 nötig sind. Eine zweite Debian VM auf dem kleinen 24/7 mit eher on-demand-Geschichten, die aber nur Inhalte des kleinen SSD-Pools benötigen. Dann gibt es halt noch eine monothematische Ubuntu-VM auf dem großen System, wo halt die ARC310 und HDD-Pool gebraucht werden, aber gesamte Rechner ist halt selten an.Rocky Linux VM, direkt auf dem Host widerspricht ja dem Sinn des ganzen Proxmox Hosts vollständig und LXC ist auch nicht optimal. Bzw. hab ich noch einen LXC mit Altlasten, die Dienste sollen aber bald™ auf den VM Host umziehen
Ich mein das eher anders rum, wie viel soll für Proxmox (also das OS selbst) bei der Installation partitioniert werden?kommt auf die Anzahl der VMs und isos an die man darauf ablegen möchte
Auf das wars auch bezogen.die Wahl ext4Z/ZFS hat man nur für die Proxmos Systemplatte, TN ist ZFS only
Ja, aber mit ZFS drunter hab ich ja ne gewisse Write Amplification, die mitunter nicht ohne ist, mh?oder ZFS stattdessen
Das versteh ich schon.Thin bedeutet dass der Platzverbrauch auf Platte dynamisch zugewiesen wird. Write Amplification hat damit nicts zu tun.
Mhja, eh, schlecht formuliert. Der Verbrauch an Speicherplatz ist dann entsprechend größer, als "offensichtlich" drauf liegt.ZFS Snaps sind keine Kopien sondern der Datenstand vor der lethten Änderung. CoW bedeutet ja dass keine Daten überschrieben sondern immer neu geschrieben werden
Wie viel hat das System "gearbeitet"?Der SSD Wearout bei ZFS ist nicht ohne. Ich hatte auf einem System normale Consumer SSDs als ZFS-Raid1 für das PVE OS laufen, die waren nach 3 Jahren auf 12% runter.
Haja, nein, aber Faulheit und so.Die Frage wäre also: willst Du / brauchst Du zwingend Ausfallsicherheit ?
Das ist dann ohnehin ne eigene Geschichte.Als Backup wäre meine Empfehlung der Proxmox Backup Server.
Und nur die zu sichernde Einstellungen, aus /etc/pve/, dieser VM in das Verzeichnis worin die VM liegt, vorher rein kopieren.Möglicher Ablauf für ein rein ZFS basiertes backup/restore in Proxmox
- einen konsistenten Proxmox Snap anlegen (Proxmox gui oder cli)
- einen ZFS Snap anlegen der eine aktuelle /etc/pve/* enthält
Nur wenn man VMs auf verschiedene Orte verteilt, muss man darauf achten dass man beim Restore nur die Einstellungen der VMs aus dem Snap wiederherstellt. Besser ist es alle VMs auf ein ZFS Dateisystem zu legen. Dann ist ein Snap mit der /etc/pve/* Kopie für alle VMs im Snap gültig und man muss nichts beachten.Und nur die zu sichernde Einstellungen, aus /etc/pve/, dieser VM in das Verzeichnis worin die VM liegt, vorher rein kopieren.
So kann nix schief gehen bei einem Restore - wo dann die Einstellungen der anderen VMs eventuell überschrieben werden.
Dann habe ich dich vermutlich missverstanden.Nur wenn man VMs auf verschiedene Orte verteilt, muss man darauf achten dass man beim Restore nur die Einstellungen der VMs aus dem Snap wiederherstellt. Besser ist es alle VMs auf ein ZFS Dateisystem zu legen. Dann ist ein Snap mit der /etc/pve/* Kopie für alle VMs im Snap gültig und man muss nichts beachten.
Ich halte ja ESXi immer noch die Treue, überlege mir aber wie ich für einen Wechsel ESXi Funktionalitäten auf Proxmox abbilde, z.B mit VMs auf ZFS.
- einen konsistenten Proxmox Snap anlegen (Proxmox gui oder cli)
- einen ZFS Snap anlegen der eine aktuelle /etc/pve/* enthält
Das war doch die Ausgangslage.Ist mein Gednkengang ok?
In Proxmox und ZFS ist eine Platte einer VM ein zvol auf dem ZFS Pool. Für jede VM gibts extra eine Konfigurationsdate z.B. /etc/pve/nodes/pve/qemu-server/100.conf. Die entspricht in etwa der .vmx aus ESXi. Für ein restore brauchts da die zvols auf dem ZFS Pool und z.B. die /etc/pve/nodes/pve/qemu-server/100.conf
Quelle Gemini:
Du kannst VMs in einem ZFS-Dataset wie tank/data oder einem Pool anlegen, aber der Prozess ist etwas anders,
je nachdem, wie du diesen Datensatz in Proxmox konfigurierst. Proxmox unterstützt ZFS-Speicher auf zwei Hauptarten:
als ZFS-Pool oder als Verzeichnis (Directory).
ZFS-Pool (Block-Speicher)
Dies ist die empfohlene Methode für VMs.
Wenn du einen ZFS-Speicher in Proxmox erstellst, gibst du als pool den Pfad zum Dataset an, also tank/vms.
Proxmox erstellt dann direkt in diesem Dataset ZFS-Volumes (ZVOLs) für jede VM-Disk.
Die ZVOLs sind Block-Geräte.
Die Benennung der ZVOLs erfolgt weiterhin nach dem Schema tank/vm-101-disk-0, da Proxmox die Disks auf Poolebene verwaltet, auch wenn sie in einem untergeordneten Dataset liegen.
Verzeichnis (Datei-Speicher)
Du kannst das Dataset tank/vms auch als Verzeichnis-Speicher in Proxmox hinzufügen.
Proxmox speichert die VM-Disks dann als Dateien (z.B. .qcow2 oder .raw) in diesem Verzeichnis.
Der Pfad zu den VM-Dateien würde dann so aussehen: /tank/vms/images/101/vm-101-disk-0.qcow2.
Diese Methode hat den Vorteil, dass du verschiedene Dateiformate nutzen kannst,
verlierst aber die direkten ZFS-Vorteile wie Instant-Snapshots und Thin-Provisioning auf Block-Ebene.