[Übersicht] napp-it cs, Web-GUI für fast jeden ZFS Server oder Servergruppen

Gemini rät:

Der Fehler "Failed to find a Unix account for usr_smb" tritt auf, weil Samba versucht, das entsprechende Linux-Benutzerkonto zu finden, aber keines existiert.

Das smbpasswd-Tool und pdbedit sind so konzipiert, dass sie standardmäßig ein verknüpftes Linux-Benutzerkonto erwarten, da Samba traditionell auf Unix-Konten aufbaut. Obwohl der Samba-Benutzer usr_smb in der Samba-Datenbank existiert, gibt es auf dem zugrunde liegenden Betriebssystem (in diesem Fall Proxmox/Debian) kein passendes Linux-Konto mit dem gleichen Namen. Da die Verbindung nicht hergestellt werden kann, schlägt der Löschversuch fehl.

Lösung​

Um den Samba-Benutzer trotzdem zu löschen, musst du das Tool pdbedit mit der Option -x verwenden. Mit dieser Option kannst du das Samba-Konto direkt aus der Samba-Datenbank entfernen, ohne eine Überprüfung des Linux-Kontos durchzuführen.

Verwende den folgenden Befehl, um den Benutzer zu löschen:

Bash

pdbedit -x usr_smb
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
wie war das doch schön mit Solaris, da gibt es nur Unix user, auch für smb und smbpasswd setzt Unix und SMB Passwort
und Rechteverwaltung geht komplett remote von Windows
Ja, da gebe ich dir uneingeschränkt recht.
Mein Solarish, OmniOS lief jetzt über 10 Jahre problemlos. Einmal alles eingestellt und es rennt.
Muss jetzt beim Hardwareerneuern eine echt steile Lernkurve hinlegen - da das jetzt ein Mix aus Linux und ZFS ist.

Übrigens, ich versuche mich gerade mit den usershares und es scheint easy zu funktionieren.

Keine Ahnung, wie ich diese DatenLeiche wieder losbekomme. Denn wenn ich ihn in Debian nochmals anlege, wird er diese Nummer "4294967295" ganz sicher nicht zugewiesen bekommen.
Sodele - hier die Lösung:
Code:
root@superserver:~# adduser --no-create-home --home /nonexistent usr_smb
New password:
root@superserver:~# smbpasswd -a usr_smb
New SMB password:
root@superserver:~# pdbedit -L
usr_smb:1002:usr_smb
smbusr:1000:smbusr
root@superserver:~# smbpasswd -x usr_smb
Deleted user usr_smb.
root@superserver:~# pdbedit -L
smbusr:1000:smbusr
root@superserver:~# deluser usr_smb
 
Ja, da gebe ich dir uneingeschränkt recht.
Mein Solarish, OmniOS lief jetzt über 10 Jahre problemlos. Einmal alles eingestellt und es rennt.
Muss jetzt beim Hardwareerneuern eine echt steile Lernkurve hinlegen - da das jetzt ein Mix aus Linux und ZFS ist.

Übrigens, ich versuche mich gerade mit den usershares und es scheint easy zu funktionieren.
Ich hatte mal kurz überlegt, wie für ESXi eine vorkonfigurierte OmniOS Storage VM auch für Proxmox zu erstellen, habe mich aber dagegen entschieden. Für die meisten reichen die Linux/SAMBA/Posix Optionen in Proxmox aus und wer einen SMB Server mit echter Windows ntfs/ACL Kompatibilität braucht, nimmt eh besser gleich einen Barebone Windows oder OmniOS Fileserver statt einer Storage VM. Da man Proxmox (auch) für VMs möchte, sollte man dafür eh die schnelleren lokalen ZFS zvols nehmen statt einem langsameren Netzwerkshare.

Doppelte SAMBA/ksmbd + Linux Kontoverwaltung ist zwar etwas umständlich, man kann aber damit klarkommen, zumal wenn man das zusammen mit den Posix ACLs in der web-gui macht.

1758789849488.png
 
Zuletzt bearbeitet:
Ich hatte mal kurz überlegt, wie für ESXi eine vorkonfigurierte OmniOS Storage VM auch für Proxmox zu erstellen, habe mich aber dagegen entschieden. Für die meisten reichen die Linux/SAMBA/Posix Optionen in Proxmox aus und wer einen SMB Server mit echter Windows ntfs/ACL Kompatibilität braucht, nimmt eh besser gleich einen Barebone Windows oder OmniOS Fileserver statt einer Storage VM. Da man Proxmox (auch) für VMs möchte, sollte man dafür eh die schnelleren lokalen ZFS zvols nehmen statt einem langsameren Netzwerkshare.

Doppelte SAMBA/ksmbd + Linux Kontoverwaltung ist zwar etwas umständlich, man kann aber damit klarkommen, zumal wenn man das zusammen mit den Posix ACLs in der web-gui macht.
Ja, so wie dein AIO bei ESXi wäre es auch sehr, sehr chic gewesen für Proxmox.
Dann wären aber immer noch die Probleme, die anscheinend Proxmox immer wieder hat, dass das passthrough nach einem Update nicht mehr geht. Passthrough wird aber zwingend bei AIO für die HBA-Karte benötigt. Daher jetzt direkt in Debian/Proxmox mit openzfs.
Da ich mir meine neue, dieses Mal eine gebrauchte Hardware, vorher gekauft hatte, kommt wieder ein dezidierter Fileserver nicht in Frage. Jetzt MUSS ALLES in einen rein, dazu werde ich auch das Proxmox Backup auf einen extra pool backupen und danach den pool exportieren.

Ich bin jetzt fest bei Samba, da ksmbd leider die Usershares nicht kann. Dazu mehr, wenn ich den Umzug geschafft habe, vielleicht ist das auch was für dein napp-it.
 
Ich bin jetzt fest bei Samba, da ksmbd leider die Usershares nicht kann. Dazu mehr, wenn ich den Umzug geschafft habe, vielleicht ist das auch was für dein napp-it.


Ich lege SMB user ohne shell an. Usershares sind dann nicht möglich.
Ich halte SAMBA eh für kompliziert genug, auch ohne dieses Extra mit zusätzlichen user editierbaren config files.
 
Hi Gea,
bleibt es bei den bisherigen Features von napp-it cs für Proxmox, oder denkst du auch über eine Verwaltung für iSCSI/iSER nach?
Ich nutze gerade Truenas und mounte mir über libvirt iSER Luns an meine Windows VMs.
TrueNas ist als Appliance leider sehr eingeschränkt, daher denke ich schon lange darüber nach, Proxmox mit ksmbd und iSER zu benutzen.
Mein letzter Anlauf war mit Version 8, da war ksmbd aber noch nicht zu gebrauchen.
Bei der Vorbereitung für den nächsten Versuch mit Proxmox 9, bin ich über napp-it cs gestolpert.
Stellt sich die Frage, kommt da was mit iSER in schön, oder ist selber machen angesagt?
 
napp-it kann sehr einfach um Menüs erweitert werden, auch private Menüs die update unabhängig sind. Dazu einfach einen Menüordner unter csweb-gui/my/menues anlegen und da ein action.pl Script mit den Menüaktionen reinlegen. Ein Beispielmenü liegt bei

Insgesamt versuche ich die Funktionen so zu halten dass sie auf Free-BSD, Illumos, Linux, OSX und Window funktionieren.

Für eine Windows VM gäbe es als zero config Alternative noch filebasierte .vhdx virtual harddisks die auch über SMB arbeiten. Im Falle von SMB Direct/rdma sogar unerreicht schnell. Deren Verwaltung ist in napp-it enthaltem.
 
Zuletzt bearbeitet:
Hi gea,

ich bin zuzeit dran einen Proxmox aio Server zu planen. Dazu teste ich auf einem Q-System die Samba Einstellungen.
Ziel ist SMB user Shares unter linux zu nutzen. Diese via mount.cifs einzubinden mit der Option posix.
Nach vielen Versuchen bin ich mir nicht mehr sicher ob das mit der aktuellen Samba Version auf Debian trixie funktioniert. (Samba 4.22.4-Debian..)
Gemäss Samba Release Notes Version 4.23 wurden die SMB3 Unix extensions (Posix semantics) neu implementiert.

Die Testuser auf client und Server sind identisch. Gleiche uid,gid (1000,100)
Ein ZFS FS wurde mit den napp-it_cs Tools und den default settings erstellt (qdata-zfs/office,)
Samba Server settings
Code:
[global]
    ..
    ..
    smb3 unix extensions = yes
   
[office]
    path = /qdata-zfs/office
    ; enable either guest ok or valid users (groupmembers)
    valid users = @users
    inherit acls = yes
    guest ok = no
    read only = no

Mount auf dem client via mount.cifs. Hier mit SMB Protokollversion 3.1.1. Wird keine Version angeben nimmt der mount die max. ver. 3_11. Dann funkioniert der mount nicht mehr (posix - unkown option). Die mount Werte sind dann auf nounix oder noposix gesetzt)
Code:
mount -t cifs //vpmoxqual.meinedomain.net/office /smb/we --verbose -o user=clientuser,vers=3.1.1,posix,mfsymlinks

Der Zugriff auf dem Client funktioniert soweit (read,write,delete). Die Gruppe ist korrekt jedoch der User stimmt nicht.
Code:
[clientuser]@clientsystem we]$ ls -l
insgesamt 0
drwxrwxr-x 2 root users 0 27. Sep 11:32 weiterer-user
drwxrwxr-x 2 root users 0 27. Sep 11:12 clientuser

Erfolgt der mount.cifs mit uid,gid entsprechend gesetzt ist das mapping korrekt. Nur sollte das doch auch ohne diese settings laufen. Mit der Gruppe stimmt es ja!
Und durch diese Optionen gehören dann alle Objekte dem User mit derselben id.
Code:
mount -t cifs //vpmoxqual.meinedomain.net/office /smb/we --verbose -o user=clientuser,uid=1000,gid=100,vers=3.1.1,posix,mfsymlinks
[clientuser@clientsystem we]$ ll
insgesamt 0
drwxrwxr-x 2 clientuser users 0 27. Sep 11:32 weiterer-user
drwxrwxr-x 2 clientuser users 0 27. Sep 11:12 clientuser

Ist das eventuell noch ein Bug im Samba Server 4.22 mit SMB Protokollversion 3.1.1? Mit der neuen Samba Version 4.23 kann ich ja nicht testen da in trixie nicht verfügbar.
Vielleicht hast du da eine Idee?
 
Am Besten warten bis SAMBA 4.23 in pve9 verfügbar ist.
Man könnte ansonst sid unstable versuchen um das zu testen, eventuell in einer Debian VM.
 
Das ist schon wieder alles Mist!
Frisch Proxmox 9 auf einem Testsystem installiert, Freigabe mit ksmbd erstellt und mit Kubuntu 25.10 über Dolphin ein 15GB Archiv auf den Server kopiert.
Quelle ist eine Kingston DC3000me (14GB/s), Netzwerk sind zwei Mellanox CX-5 100Gb direkt verbunden und das Ziel ein Intel DC P4618 ZFS stripe.
Die beiden Mellanox Karten sind bei den PCIe Lanes etwas eingeschränkt.
Die eine hat PCIe4 x8 und die Karte im Server (Xeon 6150 Gold) nur PCIe3 x8, mit iperf3 kommen so ca. 45Gb/s zustande.

Ergebnis sind 1,5GB/s!

Das schafft unter Truenas mein Raidz mit normalen HDDs
Naja, ist schon früh, morgen mal schauen woran das liegt.

 
Die mit 45Gb/s möglichen ca 5GB/s werden ohne RDMA nicht funktionieren. Der ksmbd kann zwar SMB Direct/rdma aber die Berichte sind eher so, dass es zumindest mit Windows Clients keinen Erfolgsbericht bisher gibt.

Mit SMB over ip ist 1.5 GB/s also ca 12Gbit/s nicht so schlecht. In den Tests zu ksmbd war das 20-30% schneller als unter SAMBA
 
Die mit 45Gb/s möglichen ca 5GB/s werden ohne RDMA nicht funktionieren.

Das RDMA nicht funktioniert, dachte ich auch zuerst, scheint aber nicht der Fall zu sein.
Ich habe es mit ksmbd.control mal kurz deaktiviert, dadurch fällt die Übertragungsrate auf 1 GB/s.
Ich habe dann Quelle und Ziel ersetzt, die DC P4618 durch ein 4x PCIe3 NVME Stripe und als Quelle eine Firecuda 530.
Das Ergebnis bleibt wie angenagelt 1,5 GB/s.
Allein "mitigations=off" beim Xeon hat bisher das Ergebnis etwas verbessert, seit das gesetzt ist, sind es immerhin 1,65 GB/s.
Ich habe zum Vergleich Truenas auf eine zweite SSD installiert, mit derselben Freigabe schafft Truenas 1GB/s.
Seltsam, so ca. 2.5GB/s hätte ich dem Xeon 6150 mit ksmbd schon zugetraut.
Mal schauen was über die TCP/IP Einstellungen noch zu holen ist und wie viel mit iSER geht.
 
1 GB/s in TrueNAS und SAMBA vs 1.5 GB/s in Proxmox mit ksmbd ist das was zu erwarten ist.
SMB Direkt/RDMA mit ksmbd scheint nicht so einfach zu sein. Zumindest mit Windows auf der anderen Seite fehlt bisher eine Erfolgsmeldung.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh