[Sammelthread] ZNAS (ZFSNAS) Chezmoi

Hat Mal jemand nachgefragt, was das mit dem ZNAS+ auf sich hat?

Damals hieß es bei einem Issue wir bauen kein Docker oder ähnliches ein, da es schlank bleiben soll.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ob es hinter eine Bezahltüre verschwindet: Keine Ahnung. Aber die Idee hat der Entwickler in der Q2 Diskussion gerade ausführlich im Github beschrieben.

Das geht für mich in die falsche Richtung. Sieht auch nicht so aus, als ob es zwei Applikationen geben soll, sondern znas mit Schalter für PLUS?

 
Mir kommt es so vor, als wollten sie ein neues/weiteres/anderes TN stricken. Brauch ich net. 🤷‍♂️
 
Hört sich für mich an, als wäre es nur eine Zusatzfunktionen, die man nicht aktivieren muss:
The plan is to bring an optional feature (not everyone want this) to ZNAS for virtualization and container. When enabled (take 20sec to enable), the user see a ZNAS+ logo at the top left and the left tree section now has a top tab to switch from the storage view that you have today, to the computer or network view.
 
Wenn ich das richtig sehe, installieren die dann Incus. Bei plain Debian oder Ubuntu mag das OK sein.
Für mich auf PVE nicht ... :eek:
 
Hört sich für mich an, als wäre es nur eine Zusatzfunktionen, die man nicht aktivieren muss:
Das ändert null an meiner Ablehnung. TrueNAS Dockerkrams muss man auch nicht benutzen, aber es ist da und amcht das ganze Fett, lahm und scheisse :(
 
Für viele scheint gerade eine kostenpflichtige Version die Voraussetzung für Vertrauen zu sein: Wer würde einem Entwickler wie diesem vertrauen, ohne dass ein kostenpflichtiges Upgrade existiert, welches die Rechnung bezahlen soll/kann/darf.

Also es bleibt spannend, aber die Co-Nutzung mit Proxmox dürfte wirklich nur nebenbei abfallen, wenn sie denn überhaupt Bestand hat.
 
Ob es hinter eine Bezahltüre verschwindet: Keine Ahnung. Aber die Idee hat der Entwickler in der Q2 Diskussion gerade ausführlich im Github beschrieben.

Das geht für mich in die falsche Richtung. Sieht auch nicht so aus, als ob es zwei Applikationen geben soll, sondern znas mit Schalter für PLUS?

Habe auch meinen Senf dazu gegeben. Ich will keine Bloatware wie TrueNAS.
 
Wenn ich das richtig sehe, installieren die dann Incus. Bei plain Debian oder Ubuntu mag das OK sein.
Für mich auf PVE nicht ... :eek:

Naja, die Nutzung von PVE als NAS ist m.M. eh voll Banane ... PVE ist ein, wie der Name schon sagt "Virtual Environment".
Soweit ich weiss ist es best practice dass man entweder einen LXC installiert und dort dann das ZFS als Mountpoint setzt oder aber eine VM und den kompletten Storage Contoller durch gibt und den ganzen Share und User krams dann dort regelt ...

ABER JUST MY 2 CENTS ....

Nichts destotrotz, die Richtung die mit ZNAS+ genommen wird ist irgendwie falsch, alleine weil anfangs gegen TrueNAS gemotzt wurde dass die ganzen Funktionen nur unnötig aufblasen und bla bla bla ...
Stimmt ja auch, aber jetzt im Endeffekt den selben Weg zu gehen, auch wenns "nur" API Schnittstellen sind die dann andere, optionale Pakete steuern, find ich einfach falsch - vorallem durch die Aussagen die anfangs gegen TrueNAS geschossen wurden.

Und ... dass der Entwickler bisher immer noch nicht klar gestellt hat dass das Projekt (bin ich mir ziemlich sicher) zum Großteil von einer KI erstellt wurde finde ich auch nicht so toll ...
Ich hab nix gegen "Vibecoding" aber dann sollte man auch dazu stehen.
(siehe: https://github.com/skyfay/skysend > ganz unten "AI Development Transparency")
 
Naaaaja, ich mag halt die klassische Trennung :-D
Das ist genauso wie den Fileserver auf nem DC laufen zu lassen ...
Files haben auf auf nem "kritischen" System einfach nichts zu suchen - klar, HomeLab und so, aber auch da kann man sich an Regeln halten.
Aber wie gesagt, just my 2 cents
 
Naaaaja, ich mag halt die klassische Trennung :-D
Das ist genauso wie den Fileserver auf nem DC laufen zu lassen ...
Files haben auf auf nem "kritischen" System einfach nichts zu suchen - klar, HomeLab und so, aber auch da kann man sich an Regeln halten.
Aber wie gesagt, just my 2 cents

Proxmox ist ein prima NAS only System. Hat ZFS dabei und kann den schnelleren ksmbd statt SAMBA und ACL nutzen. Für VMs ist es eh Banane, die auf ein langsames NFS/SMB Share over ip einer VM zu legen statt auf ein schnelles lokales Zvol. Man muss auch nicht für jeden Service ein anderes Linux lernen.

AD ist was anderes und ein krisches VM System würde ich auch nicht als Ablage für IT Studierende nehmen. Direkter Zugriff auf VM Daten per SMB und NFS ist dagegen was feines - ganz ohne Storage VM.
 
Sieht so aus als wäre die Idee mit ZNAS+ nach hinten los gegangen, wenn man so die User-Kommentare liest. Eigentlich will das keiner haben.
 
Naaaaja, ich mag halt die klassische Trennung :-D
Das ist genauso wie den Fileserver auf nem DC laufen zu lassen ...
Naaaja:
oder aber eine VM und den kompletten Storage Contoller durchgibt
Das ist nun m.E. ein No-Go aufm Hypervisor, auch wenn's ab und zu mal funktioniert. Widerspricht halt dem Konzept einer Virtualisierung.
Aber wie gesagt, just my 2 cents
Dito. :sneaky:
Beitrag automatisch zusammengeführt:

Eigentlich will das keiner haben.
Ich denke allerdings, es kommt trotzdem. Sie machen das ja hauptsächlich für sich (oder der alleine, wie auch immer) und so wie ich das lese, haben sie es in ihrem Lab oder was auch immer bereits laufen und er fragt nun einfach: "Wollt Ihr da draußen auch"...? :eek:
 
Zuletzt bearbeitet:
Ich denke allerdings, es kommt trotzdem. Sie machen das ja hauptsächlich für sich (oder der alleine, wie auch immer) und so wie ich das lese, haben sie es in ihrem Lab oder was auch immer bereits laufen und er fragt nun einfach: "Wollt Ihr da draußen auch"...? :eek:

Genau. Und deswegen wünsche ich mir, dass sie das so machen, dass ich als NAS-Pur Benutzer nichts davon mitbekomme, wenn ich es nicht brauche. Wenn ich es, wie UPS, nicht einschalte und alles bleibt NAS only. So what. Ich bin im Zweifel dennoch dankbar dafür, dass sie es uns für umme zur Verfügung gestellt haben und dabei auf Bitten, Kritik, Hinweise super eingegangen sind.

Da können sich viele eine Scheibe von abschneiden.
 
Naaaja:

Das ist nun m.E. ein No-Go aufm Hypervisor, auch wenn's ab und zu mal funktioniert. Widerspricht halt dem Konzept einer Virtualisierung.

Dito. :sneaky:
Beitrag automatisch zusammengeführt:


Ich denke allerdings, es kommt trotzdem. Sie machen das ja hauptsächlich für sich (oder der alleine, wie auch immer) und so wie ich das lese, haben sie es in ihrem Lab oder was auch immer bereits laufen und er fragt nun einfach: "Wollt Ihr da draußen auch"...? :eek:
Was genau sollte da ein No-Go sein, den Storage-Controller für den Filer/NAS einer VM durchzugeben und wie kommst du auf "ab und zu mal"?
Ich habe bei es bei mir so am laufen, 2x 1TB M.2 SSD im ZFS Mirror für PVE und VMs und 5x 12TB SATA HDDs am onboard Controller der an die NAS VM durchgereicht ist ...
Und das ist so, soweit ich es kenne (bin kein allwissender und nur bei kleineren Firmen) gang und gebe, und das ist auch kein HomeLab gebastel.
(Klar, produktiv dann wohl eher mit HBA anstatt onboard SATA Controller)

Proxmox ist ein prima NAS only System. Hat ZFS dabei und kann den schnelleren ksmbd statt SAMBA und ACL nutzen. Für VMs ist es eh Banane, die auf ein langsames NFS/SMB Share over ip einer VM zu legen statt auf ein schnelles lokales Zvol. Man muss auch nicht für jeden Service ein anderes Linux lernen.

AD ist was anderes und ein krisches VM System würde ich auch nicht als Ablage für IT Studierende nehmen. Direkter Zugriff auf VM Daten per SMB und NFS ist dagegen was feines - ganz ohne Storage VM.

Wer redet den von VMs auf einem "lahmen NFS/SMB Share over IP"? 🙃
AD und Hypervisor sind so auf einer Ebene, meiner Meinung... den wo rennt den der DC meist? Physische Standalone DCs gibts doch im normalen Umfeld nicht mehr - klar, mehrere DCs, wenn die AD kritisch/produktiv ist, aber auch die "Backups" laufen nicht alleine auf einem physischen Blech sondern aufm Hypervisor in einer VM mit anderen VMs, d.h. wenn der Hypervisor durch den Fileserver oder anderen Diensten die auf dem Hypervisor nichts zu suchen haben (wie auch immer) gekillt wird, steht auch der DC ... Wenn die Fileserver VM geschrottet wird, ist die am Arsch aber der Rest läuft ...

Und wieso für jeden Dienst ein anderes Linux?
AD = Windows Server
Für den Rest nimmt man ein Linux das einem liegt, sei es Debian, Ubuntu (bei beiden ist im übrigen ksmbd auch verfügbar ....)
Proxmox ist auch nur ein Debian/Ubuntu Zwitter mit hübscher WebGUI und vorinstallierten Tools ;-)


Aber das ist wohl auch mal wieder so eine "der eine macht es so, der andere so" Geschichte, wie so vieles bei uns ITlern :-D soll ja sogar Leute geben die keine Backups vom AD haben, weil sind ja nur paar hundert Nutzer zum einrichten ... 🙃
 
Zuletzt bearbeitet:
Was genau sollte da ein No-Go sein, den Storage-Controller für den Filer/NAS einer VM durchzugeben ...
Virtualisierung bedeutet: Der Hypervisor hat die Hardware, die VMs bekommen alles virtualisiert. Daher der Name.
... und wie kommst du auf "ab und zu mal"?
Die Zahl der Threads mit "Hilfe mein PCI-Passthrough geht nach Update nicht mehr" ist Legion.
Es bietet im Fall von Storage auch m.E. keinerlei Vorteil. Bei GPU ist es halt leider so, daß praktisch kein Anbieter funktionierende Treiber hat. Das wäre ja echt mal was für KI. :alien:
 
Virtualisierung bedeutet: Der Hypervisor hat die Hardware, die VMs bekommen alles virtualisiert. Daher der Name.
Du ziehst aus dem Namen ein Dogma, das ist iwie... komisch. PCI-Passthrough ist ein ziemlich alter Hut und in sehr vielen Enterprise-Szenarios Realtität. Selbst die Hyperscaler machen das bei manchen Setups, und da ist wegwerfen eigentlich das Aund O. Gibt aber eben Sachen die du trotz VM hardware-nah ausführen willst, und das ist völlig usus. Sich hier an der "Lehre der reinen vErnunft" festhalten kann man zwar machen, das aber als allein allgemeingültig hinstellen geht an der Realität vorbei.
Die Zahl der Threads mit "Hilfe mein PCI-Passthrough geht nach Update nicht mehr" ist Legion.
Ja, adress-pinning und stage-testing sind im homelab halt eher nicht usus, aber das ist eben im homelab nicht darstellbar. Wo das im Enterprise-Umfeld legion ist würde ich gerne sehen - du schaust hier glaub ich arg aus unserer bubble...
Hier bringst du die Beispiele sogar selber:
Es bietet im Fall von Storage auch m.E. keinerlei Vorteil.
Doch, das bringt durchaus Vorteile, siehe ZFS. Ich finds voll geil das ich mein ZFS testen kann auf Chezmoi, TrueNAS, napp-it und co. - das "m.E." von dir ist eine Selbsteinschränkung - mir kommt es so vor als würdest du den Tellerrand aus Dogma meiden...
Bei GPU ist es halt leider so, daß praktisch kein Anbieter funktionierende Treiber hat. Das wäre ja echt mal was für KI. :alien:
Und hier ist dann das Beispiel das auch für die Hyperskalaren richtig ist. High-Speed-Networking (über 200Gig) gehört ebenso dazu wie bestimmte Storage-Szenarios (wo es auf Speed ankommt).
 
Teil-OT:
Die Zahl der Threads mit "Hilfe mein PCI-Passthrough geht nach Update nicht mehr" ist Legion.
Es bietet im Fall von Storage auch m.E. keinerlei Vorteil. Bei GPU ist es halt leider so, daß praktisch kein Anbieter funktionierende Treiber hat. Das wäre ja echt mal was für KI. :alien:
Doch.
- Wenn der HBA bzw. die PCIe SSDs per Passthrough an der Storage-VM sind, sind diese für den Rest nicht erreichbar/sichtbar, man kann keinen "Unsinn" damit machen, wenn man als root im PVE rumtippt. Für mich (...und das trifft bestimmt noch auf viele andere Leute zu, wenn vllt. auch nicht in dem Thread/Forum durchaus ein Vorteil... ich bin vielleicht ein VollDAU, arbeite aber nicht in der Branche und es ist nicht mein Haupthobby, gerade die Parxis wie Linux seine DEVs listet, was gea ja schon mal bemängelt hat bzw. diese Bemängelung auch sinnvoll begründet hat, ist da durchaus Raum für Hoppalas), Sicher eher ein Homelab Punkt.
- TrueNAS ist so flexibel, dass ich es sowohl als VM als auch als Blech-Version booten kann. Ein Umzug von Bare-Metal auf VM und umgekehrt ist überhaupt kein Problem. Been there, done that. HBA und PCIe SSDs passthrough, im der VM vom HBA von der OS-SSD gebootet und ist schon gelaufen (zugegeben, vom HBA aus booten ist mitunter nicht trivial), läuft ebenso direkt am Blech, TrueNAS bekommt das Treibermäßig wohl gut hin.
Ob man das braucht? Man sollte das OS wohl nicht aufm Datenträger laufen lassen sondern auf VM Speicher.

Imho ist die Sache so relativ übersichtlich gestaltet, für mich persönlich ein Pluspunkt.

PCIe Passthrough macht meiner (begrenzen, aber durchaus vorhandenen) Erfahrung nach mit "richtigen" HBAs, welche man ab 30€ (samt SATA Breakout Kabeln) bekommt (9207-8i z.B. von Inspur auf ebay), überhaupt keine Probleme (Lenovo 9400-16i samt Kabeln für ca. 100€ ist auch nice, speziell vom Verbrauch/Port interessant weil sehr sparsam).
Nur die Low-End-Consumer Dinger sind so ne Sache (die Micron JMB haben imho sowas wie den berühmten AMD iGPU "Reset Bug"), ASM1166 hab ich nie probiert.
M.2 SSD hatte ich bisher keine, die ein Problem gemacht hätte.
iGPU Passthrough bei AMD isn echtes Problem (zumindest AM4, wie es mittlererweile aussieht, gute Frage), Intel nie gemacht, die sollen sogar SR-IOV können (wenn auch etwas tricky).
Passthrough von Onboard-DEVs ist imho überhaupt so ein Thema, gerade bei Consumer-Boards.
USB-Passthrough geht gut und ist für NICs im Homelab imho sehr interessant.

Hat aber auch Nachteile, wie erwähnt die zusätzlich verbrauchten Ressourcen und so.


PVE mag zwar ein Virtual Environment sein... aber warum nicht als Basis verwenden? Debian based, breite Community, breiter Support, "seriös" (du darfst es auch kaufen), kann den ganzen Kram, den man will, hat ne schöne webGUI, kann ZFS... nunja... warum nicht?


=>
Die endgültige Lösung der Frage wäre wohl unter Proxmox ein Fileserver-Reiter, in dem man eine verbesserte/erweiterte ZFS und ACL GUI hat.
Ob die Proxmox Leute Lust auf sowas haben? Ob sie es für nötig halten? Ob es ihnen ihr "virtual environment" Konzept "stört"?


PS:
Ich verfolge das Treiben hier interessiert.
Momentan ist mein Nas ein TNS am Blech, mein Plan isses eigetnlich auf Prox + TNS-VM mit Passthrough umzusteigen.
Bin da momentan aber bissl auf hold, weil ich doch eine direkte Proxmox Lösung immer mehr in Betracht ziehe..
 
Zuletzt bearbeitet:
Wääk, da rollt's mir eh die Nägel hoch. :poop: Bloatware ... :sneaky:
Die endgültige Lösung der Frage wäre wohl unter Proxmox ein Fileserver-Reiter, in dem man eine verbesserte/erweiterte ZFS und ACL GUI hat.
Genau das macht ja ZNAS hier. Nur mit eigener GUI.
Ob die Proxmox Leute Lust auf sowas haben?
Ziemlich 100%ig nicht.
PVE mag zwar ein Virtual Environment sein... aber warum nicht als Basis verwenden? Debian based, breite Community, breiter Support, "seriös" (du darfst es auch kaufen), kann den ganzen Kram, den man will, hat ne schöne webGUI, kann ZFS... nunja... warum nicht?
Mach ich ja genau so. :bigok:
Nur ... mir wär halt das HBA-Gefrickel zu unflexibel. Ich hab 4 x 8 TB im ZFS-PVE-NAS mit xx GB ARC und 2 x 1 TB special vdev, das gibt richtig gute Performance. Der "NAS-Teil" sind dabei aktuell nur 3.6 TB. Könnte ich on-the-fly beliebig erweitern bis zur (nahezu) vollen Größe vom ZFS-Pool, einfach mit wenigen Klicks im PVE.
Die "NAS-Shares" kommen direkt vom PVE (eben via ZNAS NFS/SMB) ins LAN, intern hab ich sie aber in einem LXC als ZFS-Datasets (mpX). Das bietet one-click Snapshots oder auch Backup mittels PBS und dessen irrer Dedup, auf eine Platte im andern Host. Via PBS hat ich so auch Zugang zu allen Ordnern und Dateien des "NAS"-Backups gemäss der eingestellten Retention. Also 6m/4w/7d. Nicht, daß ich das schon mal gebraucht hätte, aber die Technik find ich geil. 8-)
Klar, ginge auch größtenteils mit 'ner ordinären File-Server-VM. Aber die würde unnötig RAM/CPU fressen und patchen müßt ich die auch noch. :cautious:

OT:
iGPU Passthrough bei AMD isn echtes Problem (zumindest AM4, wie es mittlererweile aussieht, gute Frage),
Ich hab jetzt die 780M vom Ryzen 7 255 via Vulkan im LXC. Aber Ollama crasht damit sofort. :hmm:
 
Zuletzt bearbeitet:
Wääk, da rollt's mir eh die Nägel hoch. :poop: Bloatware ... :sneaky:
So what, war vor 2,5 Jahren mein Anfang in dem Gebiet, hat sich brauchbar gehalten und läuft stabil.
Kann nicht meckern, frisst kein Heu und tut seinen Dienst.
Als V-Host braucht man den Kram nicht verwenden... insofern sind die allermeisten Funktionen unnötig.
Klar, ginge auch größtenteils mit 'ner ordinären File-Server-VM.
Filer ist Filer, VM ist VM.
Die VM kann gern ihren Speicher Totschreiben (na gut, bei den Preisen nervig), soll aber die SVDEVs von meinem 100TB Pool in Ruhe lassen. :fresse:
Aber die würde unnötig RAM/CPU fressen und patchen müßt ich die auch noch. :cautious:
Hab seinerzeit gut eingekauft, 2x a 2tb KC3000 um 119€, 2x 4tb Fury Renegade um a 239€... dazu ein 9400-16i für den SATA Kram und gut is. :hmm:
Achso, DDR4 ECC auch noch, den 32gb Riegel um 75-80€ in ausreichender Stückzahl.
Insofern... Feuer frei. :d
Ich hab jetzt die 780M vom Ryzen 7 255 via Vulkan im LXC. Aber Ollama crasht damit sofort. :hmm:
Der Host Crashed nicht? Auch wennst die VM wieder abdrehst?
Imho waren die VEGA da broken, wie RDNA ist? Hab das dann nie genau gegoogelt weils mich nicht betrifft (bin mit Cezanne / 5x50-Pros unterwegs).
 
Ja, gehöre auch zu der Fraktion mit virtualisierten Storages per PCIe Passstrough. Will nichts mehr anderes, zumindest auf den ESXi. Da macht das richtig viel Sinn. Hatte ewig lang die VMs auf VMFS, da bietet napp-it schon ganz klar Vorteile, wenn man sich zusätzlichen dedizierten Storage auf Blech nicht antun möchte. Und bin auch der Meinung, lieber weniger- als mehr von der Hardware an Gäste durchzureichen. Zumindest beim Storage auf vSphere macht das durchaus Sinn, gerade auch im Home Lab mit mehreren Servern und Standalone Lizenzen. Wüsste nicht, wie ich sonst so easy mal eine VM hin und her schubsen könnte. Von den ganzen ZFS Features, die ich ehrlich gesagt (noch) nicht so wirklich nutze, mal abgesehen.

Bei PVE lässt es sich darüber streiten, weil die Plattform von Haus aus ZFS bietet. Würde aber wahrscheinlich trotzdem einen dezidierten Filer (als Gast) vorziehen.
 
Zuletzt bearbeitet:
Gehe ich fehl in der Annahme, dass ich in ZFSNAS einen Owner nicht rein per UID ändern kann? Hab ein Issue/Feature dazu aufgemacht. Sollte ich als ewiglicher Linux-Noob aber was nicht verstanden haben, könnt ihr mich gerne auch hier darauf aufmerksam machen und ich ziehe das wieder zurück.
 
Ich habe die Fragen aller Fragen gestellt: "Wer sind eigentlich diese anderen Entwickler"
Er schreibt doch immer vom "Team". Das müssen ja nicht alle Entwickler sein, könnten auch Nutzer sein ähnlich uns. :sneaky:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh