proxmox cluster shared storage backend und netzwerkperformance

b.a.

Enthusiast
Thread Starter
Mitglied seit
11.03.2009
Beiträge
122
Ort
münchen
eigentlich … ja eigentlich habe ich mein homelab downgesized, um strom zu sparen.
ich war auch ziemlich erfolgreich und bin von 190w auf unter 100w gekommen.

aber es kommt ja bekanntlich immer anders und zweitens als mein denkt
ich muss meinen alten cluster wieder in betrieb nehmen, aber diesmal reicht mir ein zfs sync für die wichtigsten vms nicht aus.

und jetzt zu meinem problem: shared storage als cluster block storage
für ceph reicht vermutlich mein netzwerk nicht aus. ich hab zwar durchgängig 10gbit, aber was ich so gelesen habe, sollten es wohl besser 25 und mehr sein, damit das performant läuft.

ich habe einen spare server, auf dem könnte ich ein truenas baremetal mit full flash laufen lassen.
meine überlegung war das ganze über nvme over tcp mit multipath laufen zu lassen und im cluster über lvm die nvmes einzubinden ... doofer gedanke?
oder doch wieder traditionell mit iscsi und ebenfalls multipath.
das storage backend könnte ich mit 4x10g anbinden, alle hypervisor haben dual 10g.
aktuell sind die netzwerkkarten über lacp gebonded und als redundanz noch ein zweiter bond mit einer 1g onboard als backup konfiguriert. auf dem zweiten bond habe ich die vlans konfiguriert.
wenn ich jetzt über zwei weitere vlans den storage anbinde, beeinträchtigt es zwar die netzwerkperformance der laufenden vms, aber die redundanz bleibt erhalten.
reicht mir die performance mit 20g pro host und 40g im backend aus, um ca. 50 vms und lxcs laufen zu lassen (darunter ist auch leider ein micidoof sql server)?
oder seht ihr eine bessere/andere lösung?

dann wäre mir noch eure meinung wichtig, ob ich die nvmes „gedoppelt“ im „raid 1“ unter lvm laufen lassen sollte, oder sie als single verwenden soll?
ich habe 3 pbs im einsatz, somit sollte sicherung kein problem sein; die wichtigsten vms würde ich jede ½h stunde sichern.
außerdem ist das wear leveling meiner aktuellen nvmes -seit 1 jahr im dauerbetrieb- gerade mal bei 1%

von der dimensionierung habe ich folgendes zur verfügung:
3 proxmox mit 128gb ecc und ryzen 6 kern apus,
das backend 64gb ecc, eine 6 kern apu, 2x4tb nvme, 4x2tb nvme und 6x1TB ssd.
wenn mir die cpu leistung nicht reichen sollte, habe ich noch einen 10 kerner und zwei 8 kerner im schrank als „ersatz“ liegen.
nachdem der ram mittlerweile utopische preisregionen errreicht hat, bin ich da ausgereizt, ich könnte lediglich den cluster um meine aktuellen proxmox server mit je 96gb erweitern.

ich weiß einen menge fragen … aber für hilfe wäre ich dankbar
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
soweit ich weiß, ist das in der scale variante seit 25.10 enthalten. ich kann es aber auch über ein blankes debian als backend einrichten. ich hänge nicht an truenas
 
Als Gedankengang .... TrueNas (ehemalig) FreeNas ist bei Proxmox überflüssig. Proxmox kann von Haus aus selber ZFS und die Freigaben einfach (Host) direkt an die LXC - oder SMB share für das Netzwerk oder je nachdem was man möchte.

Bin selbst von Proxmox / Bare Metal TrueNAS Mix auf reines Proxmox (5 Node Cluster) umgezogen .... der ZFS ARC reserviert auf Prox auch nur noch in etwa 16 GiB ... kann man einstellen das er mehr nimmt das hat aber alles entscheidende Vorteile.

Du kannst dein ganzen ZFS Speicher auf dem Host direkt an LXC weiterreichen und nutzen ohne den Umweg über TrueNas zu gehen. DEUTLICH Hardware RSS schonender :)

Zu (Ceph) macht bei weniger als 3 Nodes auch keinen Sinn, 3 Replika sind für HA minimum und bei nur 2 wird bei Neustart oder Wartung / Ausfall eines Hosts sofort alles stehen da er kein Quorum mehr hat, 10 Gib Dedicated für only Ceph ist an sich mehr als genug, verwirf das aber solange du keine ENTERPRISE SSD oder NVME hast mit PLP - Power Loss Protection x3. Die Performance wäre mies ...... ganz zu schweigen vom verschleiß deiner Consumer Platten die würden kein halbes Jahr durchhalten bis Kaputt / Data Loss.


/// Edit ... Du hast 3 Nodes, aber bleib dabei Ceph nur bei Enterprise Grade SSD / NVME

Als 4 Noden TrueNas ist möglich .... würde aber als 4 Node ebenfalls Proxmox wählen und ihn in das Cluster eingliedern. Mit Quorum 0,5 oder einem Q-Device (Pi) für 5 Nodes. Falls der 4´t Node 4x SFP+ hat oder RJ45 ? 10 GiB ..... gib Node 1-3 einen Dedicated auf den Switch und verbinde die anderen 3 direkt an dein Storage, dann haben alle 3 COMPUTE Nodes ihre Dedicated 10 GiB uplink zum Storage Proxmox und die VM´s von 1 bis 3 ihren uplink nach außen.

So könnte man den Storage auch abkapseln damit ihn niemand direkt erreicht, falls darauf irgendwas läuft an Daten was nicht ins Netzwerk soll, hat aber die möglichkeit seine RSS / Hardware im Cluster zu verwenden für Tests oder bei einem Ausfall als sicherheit.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh