[Sammelthread] Proxmox Stammtisch

Inwiefern das OS ZFS als solches beeinflussen kann (Voreinstellungen etc.) weiß ich nicht, das wäre etwas für @gea, allerdings wenn auch ständig Logs geschrieben werden durch Dienste etc … kann das schon einen Einfluss haben.

Richtig kritisch ist nur ein Basic ssd vdev (kein Raid) mit aktiviertes sync write weil damit jedes Write zweimal geschrieben wird, einmal als log nach einem commit und einmal ganz normal über den Schreibcache. Da sollte man eine SSD mit powerloss protection haben. Das gibt es nur bei Enterprise SSD und die haben normalerweise kein Problem mit höherer Schreiblast.

In einem SSD Pool mit Redundanz ist powerloss protection kein ganz so großes Problem. Ist der Pool ein hd Pool, sollte man mit sync unbedingt ein Slog haben, nicht wegen Datensicherheit sondern weil das sonst arg langsam ist. Das Slog sollte dann aber zumindest ordentliches Powerloss Verhalten haben. Das Slog braucht nicht groß zu sein, 10GB reichen. 16/32GB Optane gibt es dafür immer noch günstig gebraucht. Die sind zwar nicht besonders schnell und dauerhaft, aber ganz gut für zuhause im Proxmox hd Pool mit VMs für sync logging.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Welcher M.2 auf SATA3.0 Adapter im M2-Slot (an CPU angebunden) lässt sich in Proxmox gut an eine TrueNAS VM durchreichen.
Ist der ASM1166 Chip eine gute Wahl oder gibt es auch bei diesem Ausführungen mit Port-Multiplikatoren (die sollen Probleme machen)?
 
Ich habe gerade einen ASM1166 (PCIe) in mein Proxmox-System eingebaut. Völlig unauffällig bisher. Allerdings nicht an eine VM durchgereicht sondern direkt vom Hostsystem in Verwendung. Ich glaube, da tut's der billigste von Amazon oder Aliexpress. Ist meiner Meinung nach eh eine Art OEM-Design. PCB-Farbe ist verschieden, der Rest nahezu identisch.
 
Ich habe gerade einen ASM1166 (PCIe) in mein Proxmox-System eingebaut. Völlig unauffällig bisher.
Wieviele SATA Ports hat der dann? 6?

Und passend dann bei dir die SATA Stecker ohne weiteres unter den CPU Kühler.
Die M.2 Slots die mit der CPU verbunden sind, sind immer sehr nah an CPU/Kühler ... :)
 
Kabel gibts so "Kabelbäume" (so Breakout-Kabel mit mehreren SATA in einem Strang) mit so dünnen hellbau metallic aussehenden Kabeln, gibts von diversen SFF auf SATA
Du hast gute Ideen, muss ich mal sehen, ob es vielleicht auch direkt Adpater M.2 -> SFF gibt die man auch per Passthrough durchreichen kann. :)
Danke
 
"Kabelbäume" (so Breakout-Kabel mit mehreren SATA in einem Strang) mit so dünnen hellbau metallic aussehenden Kabeln,
Gibt's als 4er und 6er mit SATA an beiden Enden, so ein 6er habe ich gleich mitbestellt, da hängen jetzt 4 HDDs dran. Sind relativ starr, funktionieren aber.

@eehm
Ja, sind auch 6 Ports, Hersteller ist 10GTek. Also nicht gänzlich unbekannt. Aber wie gesagt, als PCIe-Erweiterungskarte, nicht als M.2. Ob's als M.2 unter den Kühler passt, hängt natürlich vom Board und Kühler ab. SFF wäre auf jeden fall eine gute Alternative, falls dir 4 Ports reichen. Sowas wie @pwnbert verlinkt hat.
 
Im TrueNAS Forum wird auch Realtek zerrissen sowie 2.5 Gbit im Allgemeinen und so...
Das TrueNAS Forum sollte man nicht zu ernst nehmen, speziell in Richtung Hardware.

Das ist so ne eigene Nische...
 
Ja, das habe ich oberflächlich natürlich auch verfolgt. Es gab Anfangs wohl Probleme auf den Intel 600er Chipsätzen, dafür gibt es aber ein Firmware-Update, was man bei Bedarf einspielen könnte.

Ich komme tatsächlich von einem LSI SAS3008 HBA und der Wechsel auf den ASM1166 spart mal eben 10W im Idle (gemessen!). Das finde ich ziemlich beachtlich. Und man darf nicht vergessen: Am Ende ist es NUR SATA, da werden ja keine exorbitanten Geschwindigkeiten oder IOPS erreicht, jedenfalls nicht nach heutigen Maßstäben, wenn man NVME als Vergleich hernimmt. Den wirklichen Vorteil, den ein HBA hat, ist meiner Meinung nach, es ist bewährte Enterprise-Hardware, die einfach funktioniert. Und eben kein "Consumer-Kram". Was in Richtung Energiesparfunktionen aber seine ganz eigenen Nachteile mitbringt, da ist das Consumerzeugs manchmal im Vorteil.

Ich würde das ebenfalls nicht überbewerten und lieber selbst testen. Und um den Bogen zu Realtek zu spannen: RTL8125/8126 sind aus eigener Erfahrung zuverlässiger als die Intel-Gegenstücke i225/i226 wobei Intel meines Wissens nach gar keinen 5G-Chipsatz hat. Wieviele Hardware-Revisionen des i225 waren nötig, bis es stabil lief? Drei? Das gab's bei Realtek in der jüngeren Vergangenheit jedenfalls nicht.
 
Ich komme tatsächlich von einem LSI SAS3008 HBA und der Wechsel auf den ASM1166 spart mal eben 10W im Idle (gemessen!).
So einen habe ich in meinem Master-TrueNAS auch drin.
Im Backup Gerät will ich jetzt stromsparender unterwegs sein, weil 10W hier, 10W da sind auf 24/7 ganz schön viel.
Dann werde ich den Versuch im Backup Gerät auch mal wagen! :)
Danke euch Zwei!
 
Ich bin gerade auch bei meinem „kleinen“ Server bei 41W mit eben ein paar VMs. Erst war ich bin so 28W best case, aber mit 41 ists zu den 75W meiner vorherigen Koste auch nicht mehr soooo weit…

Ich bin noch nicht wirklich da, wo ich hin will. So ein Grundsystem mit 10GBE, 64GB ECC RAM und unter 10W wäre mein Wunsch, aber ich bin leider nicht bereit dafür mehr als 500 Schleifen auszugeben. :)

Na mal schauen, was die nächsten Gens so bringen und kosten, die jetzt auf der CES vorgestellt wurden.
 
Aktuell verwende ich TrueNAS für meinen Heimserver, aber hier und da hakt es genug sd. ich überlege auf Proxmox zu wechseln. Auf der Arbeit konnte ich viel Erfahrung damit sammeln, leider nicht in Kombination mit ZFS. Letzteres ist mir ausgesprochen wichtig. Und hier sehe ich auch die Herausforderung. Nach meinem Eindruck erwartet Proxmox einen nutzbaren Storage, und hat standardmäßig kaum eigene Tools/Scripte um den Gesundheitszustand der Platten, allgemein und ZFS-spezifisch, zu bewerten. Aber vielleicht täusche ich mich? TrueNAS bringt hier einiges mit.

Ich möchte so ziemlich alles überwachen das irgendwie einen Hinweis auf Probleme mit den Platten hinweist: read/write/checksum Fehler, Änderungen im Pool State, SMART, HDD Temps, etc.. Gerne auch Zusatzinfos wie bspw. ein mögliches ZFS Feature Upgrade. Da nur dieser Server dauerhaft bei mir läuft, möchte ich das alles ohne Abhängigkeit zu einem separatem Monitoringsystem aufbauen. Das soll es zwar auch geben, aber mehr mit einem Fokus auf Softwarestatus.
Vermutlich kann ich hier mit extra Tools die Lücke schließen. Zuerst habe ich Cockpit + ZFS Plugins probiert, aber das wollte nicht funktionieren. Napp-it cs ist soweit vielversprechend, aber da möchte ich noch mehr Erfahrung auf einem Testsystem sammeln. Die Dokumentation ist leider ein wenig ... durcheinander. Könnte man napp-it cs eigentlich in einen (hochpriviligierten) LXC auslagern, oder ist das nicht vorgesehen?
Für SMART, Scrubs und Snapshots überlege ich mir eigene cronjobs zu bauen. Das Proxmox Wiki erwähnt noch den ZFS event daemon, dieser soll im Falle von ZFS Fehlern eigene Nachrichten verschicken. Das finde ich vielversprechend, hoffentlich klappt das. Weiß jemand was der alles überwacht?

Ebenso möchte ich für die Platten aus meinem Datenpool Spindown aktivieren, da gibt es nur wenige Zugriffe. Das sollte ja kein Problem via hdparm sein, nur habe ich noch nicht verstanden ob es reicht das Timeout einmalig zu konfigurieren. Oder muss man den Befehl regelmäßig ausführen?

Auf den Pools selber verwende ich bisher die ZFS native Verschlüsselung. Das funktioniert unter TrueNAS gut, ich möchte es beibehalten und die Pools migrieren. Dabei überlege ich noch einen Schritt weiter zu gehen und auch den Bootpool zu verschlüsseln.
Da scheint es zwei Methoden zu geben: die Datasets nach der Installation einzeln zu verschlüsseln und dann zu tauschen, oder direkt während der Installation den ganzen Pool zu verschlüsseln (https://forum.proxmox.com/threads/native-full-disk-encryption-with-zfs.140170/page-2#post-742082). Da PVE auf das ZFS Boot Menu setzt, scheint das gut zu funktionieren. In meinem Test funktionierte das wunderbar, nach einer Passworteingabe wäres des Bootvorgangs war alles direkt entschlüsselt und hat ganz normal funktioniert.
Welche Nachteile könnte ich hierdurch haben? Es wird ja einen Grund haben warum Proxmox das nicht nativ mitbringt. Ich glaube die Clusterfunktion wird hier massiv eingeschränkt, da man die Datasets nicht einfach synchronisieren kann. Das wäre mir egal, der Server wird Standalone betrieben.
Allgemein bei ZFS Replikation müsste man natürlich auch aufpassen, aber hier sehe ich auch keinen Anwendungsfall bei mir. Wird die ggf. irgendwo im Hintergrund verwendet?
Allgemeine Backups, bspw. auch via PBS, sollten ja nicht betroffen sein.

Zuletzt noch das Thema Dateifreigaben. TrueNAS stellt bei mir im Netzwerk ein paar Shares via SMB, NFS und rsync zur Verfügung. Aber nichts kompliziertes und vor allem langsam. Mein Netzwerk läuft primär via 2.5G. Mein Plan wäre ein dedizierter LXC mit den passenden Applikationen, die Shares werden via bind mount durchgereicht. Manche installieren ja die Tools direkt im PVE, ich möchte das lieber voneinander trennen. Am Ende soll es auch durch eine Ansible Rolle konfiguriert werden. Gibt es hier noch irgendwelche Fallstricke?

---

Der Post ist jetzt ziemlich lang geworden. Inhaltlich finde ich den Stammtisch dazu ganz passend, aber sagt Bescheid wenn ich das doch lieber ausgliedern soll.
 
Ich möchte so ziemlich alles überwachen das irgendwie einen Hinweis auf Probleme mit den Platten hinweist: read/write/checksum Fehler, Änderungen im Pool State, SMART, HDD Temps, etc.. Gerne auch Zusatzinfos wie bspw. ein mögliches ZFS Feature Upgrade. Da nur dieser Server dauerhaft bei mir läuft, möchte ich das alles ohne Abhängigkeit zu einem separatem Monitoringsystem aufbauen. Das soll es zwar auch geben, aber mehr mit einem Fokus auf Softwarestatus.

mit erweiterbaren napp-it alert und status jobs kann man sich status und alerts per mail zuschicken lassen

Vermutlich kann ich hier mit extra Tools die Lücke schließen. Zuerst habe ich Cockpit + ZFS Plugins probiert, aber das wollte nicht funktionieren. Napp-it cs ist soweit vielversprechend, aber da möchte ich noch mehr Erfahrung auf einem Testsystem sammeln. Die Dokumentation ist leider ein wenig ... durcheinander. Könnte man napp-it cs eigentlich in einen (hochpriviligierten) LXC auslagern, oder ist das nicht vorgesehen?

Napp-it cs besteht aus zwei Teilen.
Das napp-it cs frontend (webserver + web-gui) kann überall laufen, lokal, in einer VM oder Container oder remote auf einem anderen Rechner um einen Server oder eine Gruppe von Servern zu steuern. Es läuft als user nobody ohne spezielle Rechte und steuert den Backendservice auf dem lokalen oder remote Server. Das Backend mit den Diensten auto, monitor und server benötigt Admin Rechte und läuft lokal auf dem zu steuerndem Rechner.

Für SMART, Scrubs und Snapshots überlege ich mir eigene cronjobs zu bauen. Das Proxmox Wiki erwähnt noch den ZFS event daemon, dieser soll im Falle von ZFS Fehlern eigene Nachrichten verschicken. Das finde ich vielversprechend, hoffentlich klappt das. Weiß jemand was der alles überwacht?

Pool Status, Events, Scrub, Temp, Füllgrad

Ebenso möchte ich für die Platten aus meinem Datenpool Spindown aktivieren, da gibt es nur wenige Zugriffe. Das sollte ja kein Problem via hdparm sein, nur habe ich noch nicht verstanden ob es reicht das Timeout einmalig zu konfigurieren. Oder muss man den Befehl regelmäßig ausführen?

könnte Probleme machen wenn zed auch läuft.

Auf den Pools selber verwende ich bisher die ZFS native Verschlüsselung. Das funktioniert unter TrueNAS gut, ich möchte es beibehalten und die Pools migrieren. Dabei überlege ich noch einen Schritt weiter zu gehen und auch den Bootpool zu verschlüsseln.

Würde ich nicht empfehlen. Für VM Storage sollte man sync aktivieren. Sync+ Verschlüssellung ist wegen der kleinen log writes extrem ineffektiv/langsam. Besser das root Dateisystem nicht verschlüsseln und Daten Dateisysteme bei Bedarf. Zum Verschlüsseln gibt es neben prompt, file und https auch keysplit (3x oder 2x) in napp-it mit den Keyparts lokal und/oder auf zwei https Servern.
Zuletzt noch das Thema Dateifreigaben. TrueNAS stellt bei mir im Netzwerk ein paar Shares via SMB, NFS und rsync zur Verfügung. Aber nichts kompliziertes und vor allem langsam. Mein Netzwerk läuft primär via 2.5G. Mein Plan wäre ein dedizierter LXC mit den passenden Applikationen, die Shares werden via bind mount durchgereicht. Manche installieren ja die Tools direkt im PVE, ich möchte das lieber voneinander trennen. Am Ende soll es auch durch eine Ansible Rolle konfiguriert werden. Gibt es hier noch irgendwelche Fallstricke?

Die schnellste und einfachste Methode ist SAMBA (oder den schnelleren lsmbd) mit acl lokal zu installieren. Macht auch weniger Probleme mit ACL und Rechten. Ist ja bei Truenas oder anderen NAS Systemen genauso gelöst. In Proxmox könnte man das auf VMs oder Container auslagern, aber warum sollte man das wollen wenn man es nicht muss. Mehr Stabilität sehe ich nicht und Kompatibilitätsprobleme von SAMBA mit Proxmox Diensten ist mir nicht bekannt. Wird nur alles komplizierter und langsamer.
 
@TheTAZ
Ich glaube Du verwechselst grundlgende Dinge: Proxmox ist ein Hypervisor, kein Fileserver. Und ein HV macht vor allem eines: virtuelle Instanzen. TrueNAS ist ein Fileserver, wo im laufe der zeit noch div. andere Funktionen "drangebastelt" wurden (oder auch kaputtgebastelt). Alles was über die Kernfunktionalität hinasugeht, funktioniert mal besser und mal schlechter - siehe vurtualisierung in TrueNAS.

Von daher die Empfehlung: nutze Produkte nach Ihrer Kernfunktinalität - wenn Du virtualisierung machen willst, nehm Proxmox, und für Storage was anderes. Das kann gerne als separate Instanz virtualisiert sein, oder auch mit durchgereichten Platten arbeiten.
 
Naja, Proxmox hat ein Debian drunter und zeichnet sich wohl vor allem durch einen modifizierten Kernel und grafische Verwaltungstools für die Virtualisierung aus. Im Gegensatz zu ESXi oder anderen „hardcore reinen“ Virtualisierungshosts kann man da schon noch andere Dienste laufenlassen. Ist halt die Frage, ob man das „sollte“ - aber rudimentäre fileserver Dienste wie Samba/ksmbd oder NFS sind m.E. ok, gerade wenn man eh schon mit ZFS als Filesystem unterwegs ist.
 
Proxmox und TrueNAS sind beides Linux/Debian mit ZFS out of the box. Beide sind vorkonfiguriert für einen use case (Hypervisor bzw Storage) je mit einer web-gui für diese Hauptnutzung. Aber Proxmox kann genausogut ZFS Storage verwalten wie TrueNAS VMs bereitstellen kann. Beidesmal gibt es Dinge die man machen kann oder nicht machen sollte, Es ist sogar so dass TrueNAS oft mehr Einschränkungen hat als Proxmox. So soll man nichts außerhalb der TrueNAS gui z.B. auf der Console machen, was darin verwalter werden kann, z.B. ZFS, ACL und shares weil sonst Truenas das eventuell nicht mitbekommt oder anders regeln möchte.

Bei Proxmox sollte alles tabu sein, was mit VM Verwaltung einhergeht. Das sollte man nur in der Proxmox web-gui machen oder in einer full OS VM wie Docker. Samba, ksmbd, acl sind jedoch Dienste für die ich keinerlei Grund sehe, die nicht auf Proxmox laufen zu lassen. Ist viel schneller und einfacher als das in VMs oder Container auszulagern.

Von der Stabilität ist das auch nicht anders wie SAMBA auf TrueNAS oder jeder anderen Linux Distribution. Ein smb Server und acl Support ist nichts kritisches. Für einzelne unternehmenskritische Dienste mag das anders sein. Da ist ein reiner Hypervisor, egal ob ESXi oder Linux/Proxmox besser, schon allein um keine Lastverteilung mit Storage und Fileservices zu haben oder weniger mögliche Sicherheitsprobleme. Ist aber nicht so kritisch. SAMBA erlaubt keinen root Zugriff und SMB user sollten keine Shell haben (sich nicht an Console anmelden können).

Proxmox ist für mich das ideale All in One (Hypervisor+ZFS Filer), flexibler als TrueNAS, besseren VM Fähigkeiten und mit dem alternativen ksmbd auch schneller. Selbst bei hauptsächlicher ZFS NAS Nutzung macht Proxmox keine schlechte Figur. Ist halt schön wenn man mit einer Linux Distribution alles abdecken kann und nicht bei mehreren Servern/Anwendungen jeweils ein anderes Linux braucht und lernen muss.
 
Zuletzt bearbeitet:
Das „Proxmox Regulars' Table“ ist im Grunde die englische Bezeichnung für den Proxmox-Stammtisch.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh