Ergebnis 1 bis 4 von 4
  1. #1
    Obergefreiter
    Registriert seit
    18.09.2008
    Beiträge
    79


    Standard Proxmox / Opnsense und Vlans

    moin,


    ich beschreibe mal mein Vorhaben:

    Ich habe eine Fritzbox 7590 mit der ich mit dem Internet verbunden bin.Diese soll später nur noch als Telefonanlage funktionieren, da wir in unserem Haus 1 DSL-anschluss mit meiner Oma teilen ( um Kosten zu senken ). Im Haus habe ich in allen wichtigen Räumen Cat 7 duplex gelegt um flexibel zu sein. Den Netzwerk-anschluss habe ich schon in meinem Schuppen verlegt und dort habe ich alle Cat-leitungen an einen TP-Link TL-SG1024DE aufgelegt. Der Smart Switch kann VLan und soll alle VLan welche ich in Opnsense eingestellt habe bedienen.


    Der weg ist also Fritzbox -> Server mit Proxmox -> VM mit Opnsense als Firewall und VLan Manager -> Switch -> alle Geräte

    Auf dem Server mit Proxmox sollen alle VM und Container auch über Opnsense laufen.

    Die Container sollen untereinander mit einem VLan laufen aber auch in die anderen VLans aufgeschaltet werden können.



    also ich habe das erst mal so:

    vmbr0 -> WAN Server


    vmbr1-> VLAN Opnsense

    vmbr2-> WAN Opnsense


    /etc/network/interfaces Von meinem HEIMSERVER


    Code:
    auto lo
    
    iface lo inet loopback
    
    
    auto eno1
    
    iface eno1 inet manual
    
    
    auto eno2
    
    iface eno2 inet manual
    
    
    auto eno3
    
    iface eno3 inet manual
    
    
    auto vmbr0
    
    iface vmbr0 inet static
    
            address  192.168.178.10
    
            netmask  24
    
            gateway  192.168.178.1
    
            bridge-ports eno1
    
            bridge-stp off
    
            bridge-fd 0
    
            bridge_std off
    
    #Server / WAN /Internet
    
    
    iface vmbr1 inet static
    
            address  192.168.178.11
    
            netmask  24
    
            gateway  192.168.178.1
    
            bridge-ports eno2
    
            bridge-stp off
    
            bridge-fd 0
    
            bridge-vlan-aware yes
    
            bridge-vids 2-4094
    
            bridge_std off
    
    #Firewall / LAN - VLAN / Heimnetz
    
    
    auto vmbr2
    
    iface vmbr2 inet manual
    
            bridge-ports eno3
    
            bridge-stp off
    
            bridge-fd 0
    
    #Firewall / WAN / Internet

    Ich habe einen hp dl 380p mit 4 Lan-ports , Lan 1 nur für den Server , Lan 2 für Opnsense zugang zum Internet, Lan 3 für den Switch später.


    Opnsense läuft

    wie gehts weiter wenn ich nun einen container in proxmox erstelle braucht er ja eine netzwerk karte .


    das wäre mein VLAN erzeugt in OPNSense


    Dienste: DHCPv4: [Virtuell]

    Subnetz 192.168.33.0

    Subnetzmaske 255.255.255.0

    Verfügbarer Bereich 192.168.33.1 - 192.168.33.254

    Bereich 192.168.33.10 - 192.168.33.250




    wenn ich jetzt eine netzwerk karte erstelle in dem container:

    bridge :vmbr1

    IPv4: 192.168.33.12/24

    gateway: 192.168.33.1


    läuft da nichts.

    Muss da nicht sowas gebaut werden ?


    Code:
    VLAN on the Host
    
    
    To allow host communication with an isolated network. It is possible to apply VLAN tags to any network device (NIC, Bond, Bridge). In general, you should configure the VLAN on the interface with the least abstraction layers between itself and the physical NIC.
    
    
    For example, in a default configuration where you want to place the host management address on a separate VLAN.
    
    Example: Use VLAN 5 for the Proxmox VE management IP with traditional Linux bridge
    
    
    auto lo
    
    iface lo inet loopback
    
    
    iface eno1 inet manual
    
    
    iface eno1.5 inet manual
    
    
    auto vmbr0v5
    
    iface vmbr0v5 inet static
    
            address  10.10.10.2
    
            netmask  255.255.255.0
    
            gateway  10.10.10.1
    
            bridge_ports eno1.5
    
            bridge_stp off
    
            bridge_fd 0
    
    
    auto vmbr0
    
    iface vmbr0 inet manual
    
            bridge_ports eno1
    
            bridge_stp off
    
            bridge_fd 0
    
    
    Example: Use VLAN 5 for the Proxmox VE management IP with VLAN aware Linux bridge
    
    
    auto lo
    
    iface lo inet loopback
    
    
    iface eno1 inet manual
    
    
    
    auto vmbr0.5
    
    iface vmbr0.5 inet static
    
            address  10.10.10.2
    
            netmask  255.255.255.0
    
            gateway  10.10.10.1
    
    
    auto vmbr0
    
    iface vmbr0 inet manual
    
            bridge_ports eno1
    
            bridge_stp off
    
            bridge_fd 0
    
            bridge_vlan_aware yes
    was muss ich machen um alle geräte in einzelne VLans zu bekommen ?

    eigene VLANS und DHCP habe ich schon erstellt.

    ich will das erst mal an der virtuell-VLan mit meinen eigenen vm und containern laufen haben und dann weiter aufräumen, da ich auch homematic-ip geräte habe und ein gäste WLAN bauen möchte.

  2. Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

  3. #2
    Matrose
    Registriert seit
    21.12.2018
    Beiträge
    9


    Standard

    Ich mach das so:

    auto vmbr0
    iface vmbr0 inet static
    pre-up ip addr flush dev eno1
    address 192.168.200.14
    netmask 255.255.255.0
    gateway 192.168.200.1
    bridge_ports eno1
    bridge_stp off
    bridge_fd 0
    bridge_vlan_aware yes

    Weitere VLANs einfach auf getaggt auf den Switch-Ports und dann dem Container/VM als TAG hinzufügen.

  4. #3
    Obergefreiter
    Registriert seit
    18.09.2008
    Beiträge
    79
    Themenstarter


    Standard

    mein server hat 4 netzwerk ports und mal eine generelle frage kann ich 2 für wan als BOND zusammen fassen wie unten ist aus meiner oberen configuration:


    auto br0
    iface br0 inet static
    address 192.168.178.11
    netmask 24
    gateway 192.168.178.1
    bridge_ports eno3 eno4
    bridge_fd 5
    bridge-vlan-aware yes
    bridge-vids 2-4094
    bridge_stp yes

    und 2 für das LAN als BRIDGE zum netzwerk entlasten

    auto bond0
    iface bond0 inet static
    address 192.168.178.10
    netmask 24
    network 192.168.178.000
    broadcast 192.168.178.255
    gateway 192.168.178.1
    dns-nameservers 192.168.178.1
    bond-slaves eno1 eno2
    bond-mode 0
    bond-miimon 100
    bond-updelay 200
    bond-downdelay 200

  5. #4
    Obergefreiter
    Registriert seit
    18.09.2008
    Beiträge
    79
    Themenstarter


    Standard

    habe das jetzt so gemacht alle ports zu 2 bounds



    source /etc/network/interfaces.d/*

    auto lo
    iface lo inet loopback

    auto eno1
    iface eno1 inet manual
    bond-master bond0
    bond-primary eno1

    auto eno2
    iface eno2 inet manual
    bond-master bond0

    auto eno3
    iface eno3 inet manual
    bond-master bond1
    bond-primary eno3

    auto eno4
    iface eno4 inet manual
    bond-master bond1
    auto bond0
    iface bond0 inet manual
    bond-slaves none
    bond-mode balance-rr
    bond-miimon 100
    bond-updelay 200
    bond-downdelay 200
    #Server / WAN / Internet

    auto bond1
    iface bond1 inet manual
    bond-slaves none
    bond-mode balance-rr
    bond-miimon 100
    bond-updelay 200
    bond-downdelay 200
    #Server / LAN / Heimnetz

    auto vmbr0
    iface vmbr0 inet static
    address 192.168.178.10
    netmask 24
    broadcast 192.168.178.255
    gateway 192.168.178.1
    dns-nameservers 192.168.178.1
    bridge-ports bond0
    bridge-stp off
    bridge-fd 0
    bridge-vlan-aware yes
    bridge-vids 2-4094
    bridge_std off
    #Server / WAN / Internet

    auto vmbr1
    iface vmbr1 inet static
    address 192.168.178.11
    netmask 24
    broadcast 192.168.178.255
    gateway 192.168.178.1
    dns-nameservers 192.168.178.1
    bridge-ports bond1
    auto vmbr2
    iface vmbr2 inet manual
    bridge-ports none
    bridge-stp off
    bridge-fd 0
    bridge-vlan-aware yes
    bridge-vids 2-4094
    #Firewall / VLAN / Virtuell

    bridge-stp off
    bridge-fd 0
    bridge-vlan-aware yes
    bridge-vids 2-4094
    bridge_std off
    #Firewall / LAN - VLAN / Heimnetz


    ich gehe davon aus das es richtig ist kann das jemand bestätigen.

    root@Server:~# mii-tool
    No interface specified
    usage: mii-tool [-VvRrwl] [-A media,... | -F media] [-p addr] <interface ...>
    -V, --version display version information
    -v, --verbose more verbose output
    -R, --reset reset MII to poweron state
    -r, --restart restart autonegotiation
    -w, --watch monitor for link status changes
    -l, --log with -w, write events to syslog
    -A, --advertise=media,... advertise only specified media
    -F, --force=media force specified media technology
    -p, --phy=addr set PHY (MII address) to report
    media: 1000baseTx-HD, 1000baseTx-FD,
    100baseT4, 100baseTx-FD, 100baseTx-HD,
    10baseT-FD, 10baseT-HD,
    (to advertise both HD and FD) 1000baseTx, 100baseTx, 10baseT
    root@Server:~#

    root@Server:~# find /lib/modules/`uname -r` -iname bonding*
    /lib/modules/5.0.21-1-pve/kernel/drivers/net/bonding
    /lib/modules/5.0.21-1-pve/kernel/drivers/net/bonding/bonding.ko
    root@Server:~#

    root@Server:~# cat /proc/net/bonding/bond0
    Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

    Bonding Mode: load balancing (round-robin)
    MII Status: up
    MII Polling Interval (ms): 100
    Up Delay (ms): 200
    Down Delay (ms): 200

    Slave Interface: eno1
    MII Status: up
    Speed: 1000 Mbps
    Duplex: full
    Link Failure Count: 1
    Permanent HW addr: 2c:44:fd:95:9f:1c
    Slave queue ID: 0

    Slave Interface: eno2
    MII Status: up
    Speed: 1000 Mbps
    Duplex: full
    Link Failure Count: 1
    Permanent HW addr: 2c:44:fd:95:9f:1d
    Slave queue ID: 0
    root@Server:~#

    root@Server:~# cat /proc/net/bonding/bond1
    Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

    Bonding Mode: load balancing (round-robin)
    MII Status: up
    MII Polling Interval (ms): 100
    Up Delay (ms): 200
    Down Delay (ms): 200

    Slave Interface: eno3
    MII Status: up
    Speed: 1000 Mbps
    Duplex: full
    Link Failure Count: 1
    Permanent HW addr: 2c:44:fd:95:9f:1e
    Slave queue ID: 0

    Slave Interface: eno4
    MII Status: up
    Speed: 1000 Mbps
    Duplex: full
    Link Failure Count: 1
    Permanent HW addr: 2c:44:fd:95:9f:1f
    Slave queue ID: 0
    root@Server:~#



    root@Server:~# tail -f /var/log/syslog
    Oct 13 17:49:52 Server kernel: [ 2718.891565] vmbr0: received packet on bond0 with own address as source address (addr:2c:44:fd:95:9f:1c, vlan:1)
    Oct 13 17:49:53 Server kernel: [ 2719.247527] vmbr1: received packet on bond1 with own address as source address (addr:2c:44:fd:95:9f:1e, vlan:0)
    Oct 13 17:50:00 Server systemd[1]: Starting Proxmox VE replication runner...
    Oct 13 17:50:01 Server systemd[1]: pvesr.service: Succeeded.
    Geändert von loaded (13.10.19 um 18:03 Uhr)

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •