[Sammelthread] Proxmox Stammtisch

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nein, es ist im Grunde nur für Spezialfälle. Man bindet sich damit an die Hardware => mit Virtualisierung will man sich streng genommen von der Hardware entkoppeln.
Wenn ich mir dein Argument - und auch meines von der Seite davor - anschaue haben wir beide in einem Punkt unrecht: Die Probleme auf die wir uns beziehen entstehen erst wenn man es auch tatsächlich nutzt. Die reine Möglichkeit dazu könnte per default an sein ohne das die von uns beschriebenen Themen auftauchen würden. Und wer in diese Probleme "rennt" (VMs können nicht migriert werden wegen virtualisierter Hardware, Device bootet nicht mehr weil Sata-Controller mit Bootdevice an VM durchgereicht, ...) steckt entweder tief drin und weiß (eigentlich) was er tut oder macht erste Erfahrungen.
Wenn ich so drüber nachdenke frage ich mich mittlerweile auch warum das nicht per default an ist...
 
Wenn ich mir dein Argument - und auch meines von der Seite davor - anschaue haben wir beide in einem Punkt unrecht: Die Probleme auf die wir uns beziehen entstehen erst wenn man es auch tatsächlich nutzt. Die reine Möglichkeit dazu könnte per default an sein ohne das die von uns beschriebenen Themen auftauchen würden. Und wer in diese Probleme "rennt" (VMs können nicht migriert werden wegen virtualisierter Hardware, Device bootet nicht mehr weil Sata-Controller mit Bootdevice an VM durchgereicht, ...) steckt entweder tief drin und weiß (eigentlich) was er tut oder macht erste Erfahrungen.
Wenn ich so drüber nachdenke frage ich mich mittlerweile auch warum das nicht per default an ist...

Die meisten Pentester stufen aktives IOMMU derzeit als "Risiko" ein. Umgekehrt bringt IOMMU ja auch diverse Schutzfunktionen und das Nichtvorhandensein dieser wird teils ebenfalls bemängelt. Kurzum, such es dir aus ob du dir links oder rechts in Knie schießen willst.
 
Einen schönen guten Tag, bin nicht 100% sicher ob ich hier im richtigen unterforum bin, wenn nicht verschiebt mich gerne. Ich bin dabei, von einem T20 auf einen selbsgebauten Homeserver zu wechseln und möchte Proxmox nutzen. Hierzu hätte ich ein paar Verständnisfragen und würde mich freuen wenn mir jemand weiterhelfen kann. Bisher habe ich den T20 als Fileserver genutzt, das möchte ich mit dem neuen wieder tun. Ich hatte Ubuntu Server und ein RAID5 mit 4 HDDs, habe fünf Freigaben genutzt die ich als Netzlaufwerk über smb in Windows eingebunden hatte (L:\ für Library, M:\ für Media, P:\ für Projects usw.).
Mein Plan ist, Proxmox als host zu nutzen und TrueNAS als VM laufen zu lassen (mit den 4 neuen HDD und ZFS). Im laufe der Zeit werden weitere VMs oder Docker hinzukommen, hab noch nicht ganz verstanden was LXC sind. Ich habe eine Testinstallation gemacht um mich schonmal ein bisschen damit ausseinander zu setzen und jetzt läuft gerade PVE 7.2-11 und TrueNAS VM, bin mir allerdings nicht ganz sicher ob ich das alles so korrekt gemacht habe.

Frage 1: installiere ich Proxmox auf einer SSD und die VMs auf einer anderen? Oder alles auf einer? Lieber auf die SATA oder die NVME SSD? Die "normalen" SSDs sind über Mainboard SATA angeschlossen

Frage 2: den ZFS Storage Pool mit den 2 (bald 4) Fileserver Festplatten habe ich in TrueNAS erstellt, unter 'Proxmox -> Disks' sehe ich diese somit gar nicht. passt das so? Die Platten hängen am LSI

Frage 3: kann ich einen der beiden Mainboard LAN Anschlüsse für die "Verwaltung" nehmen, um auf die Proxmox/Truenas GUI zuzugreifen, die Mellanox Karte dann für den Datenstransfer? Müsste wahrscheinlich die Netzlaufwerke unter Windows dann "einfach" mit der IP der Mellanox Karte einbinden oder?

Frage 4: Wie sieht ein korrektes Backup aus, damit wenn z.B. die OS-SSD abraucht, ich meine VMs nicht verliere bzw. leicht wieder herstellen kann? In der Truenas VM selbst würde ich Snapshots einstellen und diese auf einer der anderen SSDs speichern. Brauche ich Proxmox Backup Server (könnte ich auf der dritten SSD installieren)?

Frage 5: Welche Proxmox Version sollte ich nehmen? Habe probiert, die Mellanox Karte zum laufen zu bringen und bin kläglich gescheitert. Habe schon einen crossflash von HP auf Mellanox vorgenommen, allerdings scheint diese alte Karte den neuen Kernel noch nicht zu unterstützen.

Frage 6: Installiert Proxmox bei einer Neuinstallation die richtigen Treiber automatisch mit für die vorhandenen PCI Erweiterungskarten?

Frage 7: wie werde ich den lästigen Fehler los
e1000e 0000:00:19.0 eno1: Detected Hardware Unit Hang
e1000e 0000:00:19.0 eno1: Reset adapter unexpectedly
habe schon "apt install ethtool ethtool -K $eno1 tso off gso off gro off" probiert, das hat nichts gebracht.

Netzwerk sieht grob so aus: Router(Fritz!Box 7530) -> Mikrotik Switch -> ProxmoxServer (noch RJ45, sobald funktioniert hoffentlich SFP+ DAC) - Workstation1 (RJ45) - Workstation2 (RJ45)

Die Hardware ist folgende:
Netzwerk Switch: Mikrotik CRS305-1G-4S+IN mit 2 RJ45 Transceiver und 1 DAC Kabel
CPU: i7 5930k (wird getauscht gegen Xeon E5-2670v3)
Mobo: Asus X99-E WS USB3.1
RAM: 64GB RAM (wird noch gegegn ECC RAM getauscht)
PCI-karten: 9210-8i LSI, HP Mellanox ConnectX-3 Pro 546 sfp+ (MCX312B-XCCT)
GPU: GTX 1070Ti (wird noch gegen Radeon R5 230 gettauscht)
SSD: 1x Samsung NVME SSD 970 Evo, 1x SSD 850 PRO, 1x Crucial BX500, 1x Crucial MX500
HDD: 2x geshuckte WD white Label 14TB (wird noch um 2 weitere ergänzt)

Würde mich freuen, wenn jemand Zeit und Lust hat mir ein paar Tipps und Schubser in die richtige Richtung zu geben.
Viele Grüße
 
Frage 1: installiere ich Proxmox auf einer SSD und die VMs auf einer anderen? Oder alles auf einer? Lieber auf die SATA oder die NVME SSD? Die "normalen" SSDs sind über Mainboard SATA angeschlossen

Ich habe es so gelöst: zwei SSDs im ZFS Mirror als Host, wo Proxmox, ein paar kleine CTs drauf sind und die ganzen Templates. NVME würde ich für VMs nutzen, wo du den Speed auch merkst (z.B. Windows).
Sonst würde ich die SSDs auch immer per ZFS laufen lassen (Achtung, die Crucials unterstützen am LSI kein Trim).

Frage 2: den ZFS Storage Pool mit den 2 (bald 4) Fileserver Festplatten habe ich in TrueNAS erstellt, unter 'Proxmox -> Disks' sehe ich diese somit gar nicht. passt das so? Die Platten hängen am LSI
Hast du den LSI komplett per PCI-Passthrough an TrueNAS durchgereicht? Wenn ja, ist das so richtig.


Frage 3: kann ich einen der beiden Mainboard LAN Anschlüsse für die "Verwaltung" nehmen, um auf die Proxmox/Truenas GUI zuzugreifen, die Mellanox Karte dann für den Datenstransfer? Müsste wahrscheinlich die Netzlaufwerke unter Windows dann "einfach" mit der IP der Mellanox Karte einbinden oder?

Alle NICs die eine IP hinterlegt haben, funktionieren als GUI. Für den Traffic sucht sich Proxmox das selbst anhand von VLANs aus. Wenn du Samba und nur ein einziges VLAN nutzt, solltest du die Mellanox-NIC in der smb.conf eintragen.

Frage 4: Wie sieht ein korrektes Backup aus, damit wenn z.B. die OS-SSD abraucht, ich meine VMs nicht verliere bzw. leicht wieder herstellen kann? In der Truenas VM selbst würde ich Snapshots einstellen und diese auf einer der anderen SSDs speichern. Brauche ich Proxmox Backup Server (könnte ich auf der dritten SSD installieren)?
Wenn die VMs/CTs auf separaten SSDs liegen, reicht es, wenn du /etc/pve sicherst und wieder einspielst. Dennoch solltest du Backups erstellen. der Proxmox-Backup-Server wäre z.B. ideal um auf deinen alten T20 zu installieren.

Frage 5: Welche Proxmox Version sollte ich nehmen? Habe probiert, die Mellanox Karte zum laufen zu bringen und bin kläglich gescheitert. Habe schon einen crossflash von HP auf Mellanox vorgenommen, allerdings scheint diese alte Karte den neuen Kernel noch nicht zu unterstützen.
die neueste. Hast du ggf. pve-backport aktiviert? mein Proxmox hat meine ConnectX-2 ohne Probleme erkannt.

Frage 6: Installiert Proxmox bei einer Neuinstallation die richtigen Treiber automatisch mit für die vorhandenen PCI Erweiterungskarten?
Sollte eigentlich alles soweit dabei sein.

Frage 7: wie werde ich den lästigen Fehler los
e1000e 0000:00:19.0 eno1: Detected Hardware Unit Hang
e1000e 0000:00:19.0 eno1: Reset adapter unexpectedly
habe schon "apt install ethtool ethtool -K $eno1 tso off gso off gro off" probiert, das hat nichts gebracht.

Hast du "E1000" bei einer VM als NIC eingetragen? Wenn ja, wechsle auf jeden Fall auf virtio.



Wofür brauchst du TrueNAS? Für SMB-Freigaben kannst du einfach den smb-server von Linux nutzen
 
Zuletzt bearbeitet:
Sonst würde ich die SSDs auch immer per ZFS laufen lassen (Achtung, die Crucials unterstützen am LSI kein Trim).

Welchen Vorteil hat es denn, wenn ich die OS-SSD als ZFS anbinde? Die SSDs schließe ich ans Mainbioard an nicht an den LSI.

Hast du den LSI komplett per PCI-Passthrough an TrueNAS durchgereicht? Wenn ja, ist das so richtig.

Ich glaube schon dass der LSI komplett durchgereicht ist, sonst würde TrueNAS die platten ja nicht sehen oder?

Hast du ggf. pve-backport aktiviert? mein Proxmox hat meine ConnectX-2 ohne Probleme erkannt.
ich weiß nicht, wo sehe ich das denn? habe von selbst auf jeden fall nichts aktiviert.

Kann ich Hardware tauschen und Proxmox neu installieren, und danach meine vorhandene TrueNAS VM mitsamt storage pool ohne Datenverlust wieder "einhängen"?
 
Welchen Vorteil hat es denn, wenn ich die OS-SSD als ZFS anbinde? Die SSDs schließe ich ans Mainbioard an nicht an den LSI.

naja da erhöhst du ja die Verfügbarkeit vom OS. D.h. wenn eine SSD aussteigst, kannst du immernoch resilvern. Ob die SSDs am LSI oder Mainboard angeschlossen sind, ist dabei unerheblich.

Ich glaube schon dass der LSI komplett durchgereicht ist, sonst würde TrueNAS die platten ja nicht sehen oder?

Du musst doch wissen, was du gemacht hast :fresse2:

ich weiß nicht, wo sehe ich das denn? habe von selbst auf jeden fall nichts aktiviert.
ich meinte die headers:
Code:
apt install pve-headers-`uname -r` pve-headers

Kann ich Hardware tauschen und Proxmox neu installieren, und danach meine vorhandene TrueNAS VM mitsamt storage pool ohne Datenverlust wieder "einhängen"?

na klar.
 
Aber dennoch: Backup machen.

Wenn du /etc/pve/ vom alten Host einspielst, dann sollte es klappen
 
Alles klar :-) Ich frage nur, weil keine Reaktion auf meine Antwort in deinem Marktplatz-Thread erfolgte.
Ich wusste ja nicht, welche Frequenz der Speicher haben sollte, aber für den 2670V3 reicht ja 2133Mhz.
Samsung DDR4 M393A1
Wieviel Mhz hat jetzt der Speicher? Irgendwie fehlt da der Rest der Bezeichnung.
 
Alles klar :-) Ich frage nur, weil keine Reaktion auf meine Antwort in deinem Marktplatz-Thread erfolgte.
Ich wusste ja nicht, welche Frequenz der Speicher haben sollte, aber für den 2670V3 reicht ja 2133Mhz.

Wieviel Mhz hat jetzt der Speicher? Irgendwie fehlt da der Rest der Bezeichnung.
oh wow das hab ich komplett übersehen, sorry. hab keine Benachrichtigung dazu bekommen, wohl weil ich meinen eigenen Thread nicht abonniert hab. Tut mir leid! Der RAM müsste 2133MHz haben. Hat mich insgesamt 140€ gekostet, die CPU 25€. Kam noch nicht zum Einbau hab mich noch mit backups rumgeschlagen.


Aber dennoch: Backup machen.

Wenn du /etc/pve/ vom alten Host einspielst, dann sollte es klappen
1668874578955.png
habe ne externe SSD gemounted, /etc/pve/ auf die externe ssd gesichert und dann die TrueNAS VM gebackuped auf die SSD. Wenn ich jetzt alles platt mache, proxmox neu installiere und das VM backup wieder einspiele funktioniert alles wieder wie vorher inklusive meines Truenas storage pools und ohne Datenverlust, oder? Sorry dass ich da so oft nachfrage, hab nur keine Lust, 12TB an Daten neu aufs Truenas zu kopieren.
 
Das sollte so klappen, ja
vielen Dank für die Hilfestellung! das hat alles soweit funktioniert. Das Truenas backup hat funktioniert und durch die Neuinstallation von Proxmox ist nun auch die Mellanox 10GbE Karte sichtbar. allerdings noch nicht ganz mit der gewünschten Performance. Wenn ich ein 33GB großes Videofile per drag+drop vom truenas smb share auf den Desktop ziehe, kopiert er das mit konstanten 260-300MB/s rüber. Das ist schonmal weniger als möglich wäre. Wenn ich das file vom Desktop auf das sharefolder ziehe, startet er bei 990MB/s und droppt dann sofort auf 130-150 MB/s runter und bleibt da bis zum rest des kopiervorgangs.
Verbindung ist: Truenas (Mellanox CX3 Pro) ==DAC==> Mikrotik CRS 305 ==CAT7+RJ45Transceiver==> Windows 11 PC (Marvell FastLinQ Edge 10Gbit Network Adapter)
 
Hast du mal einen Test mit iperf gemacht, so das du das Netzwerk als "Schuldigen" ausschließen kannst? Wenn das klappt, per putty/ssh von Windows direkt auf den server und von da nen großes Testfile gezogen (z.B. via SCP), um die VM auszuschließen, und dann weiter Stück für Stück das bottleneck suchen.
 
Hast du mal einen Test mit iperf gemacht, so das du das Netzwerk als "Schuldigen" ausschließen kannst? Wenn das klappt, per putty/ssh von Windows direkt auf den server und von da nen großes Testfile gezogen (z.B. via SCP), um die VM auszuschließen, und dann weiter Stück für Stück das bottleneck suchen.
bin gerade dabei, lese mich gerade noch in die iperf kommandos ein um die standard TCP window size von 64kbyte zu erhöhen
 
Wenn ich ein 33GB großes Videofile per drag+drop vom truenas smb share auf den Desktop ziehe, kopiert er das mit konstanten 260-300MB/s rüber. Das ist schonmal weniger als möglich wäre.
Mit wie viel rechnest du denn? Von den Werten her ist das super, mein ZFS RAID-Z1 macht auch nur knapp 200 MB/s R/W, viel mehr wirst du aus den HDDs mit ZFS nicht entlocken können.
 
hier der iperf Test

iperf_Test.jpg


Beitrag automatisch zusammengeführt:

Mit wie viel rechnest du denn? Von den Werten her ist das super, mein ZFS RAID-Z1 macht auch nur knapp 200 MB/s R/W, viel mehr wirst du aus den HDDs mit ZFS nicht entlocken können.
oh liegt das an ZFS? ist das so langsam? hab schon mit mehr gerechnet, vor allem mit ner stabileren Verbindung. dann ist ja nämlich mein 10GbE Netzwerk mehr oder weniger für die Katz wenn das ganze weder stabil noch schnell läuft...
 

Anhänge

  • iperf_Test.jpg
    iperf_Test.jpg
    209,2 KB · Aufrufe: 36
oh liegt das an ZFS? ist das so langsam?
Jep, ZFS legt den Wert auf Datenintegrität und nicht auf maximale Performance. Wenn du maximale Performance willst nimm mdraid oder nen Hardware-RAID Controller.

10GbE Netzwerk mehr oder weniger für die Katz wenn das ganze weder stabil noch schnell läuft...
Um 10GBe mit ZFS auszulasten brauchst du entweder mehr HDDs (mehr vdevs) oder du setzt auf (Enterprise-)NVMe SSDs. Stabil ist es ja an sich, die starken Spikes kommen daher, dass die HDDs mit der schreiblast nicht hinterherkommen
 
ZFS ist nicht das schnellste Filesystem, aber trotzdem sehr performant. Beachte bitte, dass die Anzahl der Parityplatten bei Raidz1/2/3 nichts zur netto Lese-/Schreibleistung beiträgt.
Anders als beim Lesen von Mirror-vdevs. Dort hast Du bei einem Mirror aus 2 Platten in etwa die Schreibleistung einer Platte und bis zum zweifachen Durchsatz beim Lesen.

Mein Raidz2 aus 6x14TB HC530 liest und schreibt auf den Aussenspuren der Platten sequentiell um die 850 MB/s. Berücksichtigt man die Spurwechsel-/Suchzeiten zwischen Nutz und Metadaten, ist das fast das Maxmium an Durchsatz von 4 dieser HDDs; die anderen beiden sind ja Parity.

Beachte bitte, dass geshuckte Platten gegenüber den Enterprise-Versionen ggf. gebremst sind in Durchsatz und Zugriffsgeschwindigkeit.
 
Zuletzt bearbeitet:
Hm ok. hatte insgesamt eigentlich mit 4 dieser Platten geplant (die WD white Label sind ja im Prinzip auch HC530). Bisher sind erst 2 verbaut.

Jep, ZFS legt den Wert auf Datenintegrität und nicht auf maximale Performance. Wenn du maximale Performance willst nimm mdraid oder nen Hardware-RAID Controller.

Wäre ich mal wohl besser doch bei Ubuntu Server und Raid5 geblieben :P
NVME Raid im NAS wäre overkill und maximal zu teuer für meinen Anwendungsfall.

@Trambahner Wo hast du das gelesen das die gebremst sind?
 
Diejenigen Helium Reds, die als "5400 class" verkauft wurden, drehen mit 7200 und sind per Firmware auf die Datenübertragung von 5400er limitiert. Gibt hier im Forum diverse Berichte und Diskussionen dazu.
Dito werden die Arme der Schreiblese-Köpfe etwas weniger aggressiv angesteuert, als beider den Gold+HC5xx Versionen.
Ich hab 6x solche "5400 class" (gebremste 7200er) im Backupfiler. Führst Du während der Zugriffe einen Smartest durch, greift die Durchsatz-Bremse nicht mehr und steigt auf die der Enterprise-Versionen. Dieser Fall wurde in manchen dieser Helium Red-Firmwares vergessen oder ist ein Bug. :d Findest Du so auch im Internet.

Bei Whites könnte das auch so sein, da die eigentlich immer ähnlich den Red's waren. Aber genaues weiss man da ja nicht was man da bekommt, wenn man es nicht misst. Darum auch mein "ggf." (=gegebenenfalls).


Btw, ein Ubuntu Raid5 mit 4 Platten würde Dir auch keine 10GB-Bandbreite ausnutzen. Dein Pool ist zu klein dimensioniert dafür. ZFS ist da nicht das Bottleneck.
 
Zuletzt bearbeitet:
habe im proxmox host unter Netzwerk die Mellanox Ports auf MTU 9000 gesetzt, die vmbr1 und vmbr2 bridges auch, und im Netzwerkadapter in Windows Jumbo Packet aktiviert und auf 9014 Bytes gesetzt
 
habe im proxmox host unter Netzwerk die Mellanox Ports auf MTU 9000 gesetzt, die vmbr1 und vmbr2 bridges auch, und im Netzwerkadapter in Windows Jumbo Packet aktiviert und auf 9014 Bytes gesetzt
Und in den Switches?
 
hab ja nur eines, und da kann man das nicht einstellen (SwitchOS), das macht es scheinbar automatisch

btw kann man irgendwie die Temperatur vom onboardNIC vom mainboards auslesen? das verliert bei last oft die verbindung und ich vermute es könnte zu heiß werden
 
Zuletzt bearbeitet:
Habe jetzt Proxmox mal installiert, hätte vielleicht noch einige Fragen an die Experten.

Meine Hardware:
  • Fractal Design mini C
  • Pico PSU 150W
  • Fujitsu D3417-A2
  • Xeon E3 1225 gekühlt über 2 BeQuiet Silent Wings 3 PWM
  • 2x16GB ECC RAM
  • 2TB Samsung 980 Pro SSD
  • Dummy Plug für Display Port um Intel AMT mit MeshCommander nutzen zu können
  • Ventoy Multiboot USB Stick immer dran, falls mal was schief läuft (https://pilabor.com/blog/2022/01/the-ultimate-boot-stick/)

Am meisten hadere ich mit dem Thema "storage". Ich möchte gerne möglichst den vollen Umfang meiner 2TB SSD nutzen (statt sie in einer TrueNAS VM fest zu verdrahten), dabei die System-Snapshots (ZFS) unabhängig von den VM- und Data Snapshots halten und bestenfalls alles verschlüsseln, sprich:
  • Bei einem Proxmox-Fehler möchte ich schnell wieder zum letzten Stand zurückkehren, ohne Daten oder VMs zurück zu rollen
  • Bei einem Ransomware-Angriff innerhalb einer VM möchte ich die VM zum letzten "sicheren" Stand zurück rollen können
  • Bei einem Datenverlust / versehentlich gelöschten Fotos möchte ich einzelne Dateien via Snapshot clone wieder herstellen, ohne den kompletten Snapshot zurückzusetzen
  • Klaut mir einer den Server aus meiner Wohnung, soll er nicht an die Daten kommen (Verschlüsselung)

Meine Idee war nun:
  • Proxmox installieren, dann mit ROOT ZFS native encryption und passphrase verschlüsseln
    • data Partition wird mit Key aus Datei verschlüsselt, die auf der verschlüsselten root liegt
    • Remote-Unlock über dropbear ssh initramfs und zfsunlock
    • Hintergrund: Ich möchte beim Boot EINMAL das Passwort eingeben und LXC und VMs automatisch starten lassen, statt via verschlüsselten Datasets VMs nach jedem Reboot manuell zu starten. Das läuft auch alles, aber ist das sinnvoll?
  • Postinstall ausführen (tteck für allgemeine settings und xshock für zfs-auto-snapshot und weitere Tweaks)
  • Cluster-Tools deaktivieren, um SSD Wear zu reduzieren (systemctl disable --now pve-ha-lrm, pve-ha-crm, corosync.service)
  • Powertop und CPU Governor einrichten, um Stromverbrauch zu reduzieren
  • Unter Proxmox selbst Samba installieren und die benötigten User anlegen (Alternative wäre ein OpenMediaVault LXC für Klicki-Bunti-Shares)
  • Homeshare und gemeinsames Share (/tank0/homeshare/, /tank0/publicshare/) mit ZFS shadowing einrichten (siehe https://medium.com/@Dylan.Wang/how-...dows-shadow-copy-on-ubuntu-18-04-15001c9580fc, also so, dass man unter Windows die Versionen auch sehen kann)
  • Alle benötigten LXC Container einrichten (Navidrome, Photoprism, Jellyfin, Nextcloud, etc.)
    • Per bind mount das nötige /tank0/publicshare/ Verzeichnis in die LXC-Container einbinden die Zugriff brauchen (z.B. Navidrome für Musik via /etc/pve/lxc/402.conf - "mp0: /tank0/publicshare/audio/music/,mp=/music")
  • Backup einrichten (auf externe USB-Platte mit Zeischaltuhr)
Funktioniert soweit, allerdings sind noch einige Punkte offen:

Fragen:
  • /dev/pve/data via Key-File verschlüsseln ODER lvremove+lvresize /dev/pve/root
    • geht das mit lvremove und lvresize rood ZFS überhaupt?
    • Sind immernoch system-snapshots unabhängig von VM- bzw. Data-Snapshots möglich?
    • Welche Datasets / partitionen müsste ich anlegen, damit mein Wunschszenario klappt?
  • Samba auf Proxmox ODER OpenMediaVault LXC mit bind Mount?
    • Klicki-Bunti Samba config wäre schon nett, aber kann OMV ohne "echten" Storage arbeiten bzw wäre das empfehlenswert?
    • Ist ein Produktiv-SAMBA auf dem Proxmox Hauptsystem wirklich eine gute Idee? (Security, Performance)
  • Ubuntu Desktop VM vs LXC Container (jeweils mit xrdp)
    • Kann ich in einem LXC container ein vollvertiges Desktop Ubuntu mit xrdp laufen lassen oder wäre hier eine echte VM sinnvoller?
  • Hab ich was Entscheidendes vergessen?

Würde mich sehr über Feedback freuen.

P.S.: Falls es jemanden interessiert, wie ich die Verschlüsselung, das SSH remote unlock bzw. die anderen Dinge bewerkstelligt habe, gern einfach Rückfragen stellen, dann poste ich das gesondert.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh