Proxmox / Opnsense und Vlans

loaded

Enthusiast
Thread Starter
Mitglied seit
18.09.2008
Beiträge
143
moin,


ich beschreibe mal mein Vorhaben:

Ich habe eine Fritzbox 7590 mit der ich mit dem Internet verbunden bin.Diese soll später nur noch als Telefonanlage funktionieren, da wir in unserem Haus 1 DSL-anschluss mit meiner Oma teilen ( um Kosten zu senken ). Im Haus habe ich in allen wichtigen Räumen Cat 7 duplex gelegt um flexibel zu sein. Den Netzwerk-anschluss habe ich schon in meinem Schuppen verlegt und dort habe ich alle Cat-leitungen an einen TP-Link TL-SG1024DE aufgelegt. Der Smart Switch kann VLan und soll alle VLan welche ich in Opnsense eingestellt habe bedienen.


Der weg ist also Fritzbox -> Server mit Proxmox -> VM mit Opnsense als Firewall und VLan Manager -> Switch -> alle Geräte

Auf dem Server mit Proxmox sollen alle VM und Container auch über Opnsense laufen.

Die Container sollen untereinander mit einem VLan laufen aber auch in die anderen VLans aufgeschaltet werden können.



also ich habe das erst mal so:

vmbr0 -> WAN Server


vmbr1-> VLAN Opnsense

vmbr2-> WAN Opnsense


/etc/network/interfaces Von meinem HEIMSERVER


Code:
auto lo

iface lo inet loopback


auto eno1

iface eno1 inet manual


auto eno2

iface eno2 inet manual


auto eno3

iface eno3 inet manual


auto vmbr0

iface vmbr0 inet static

        address  192.168.178.10

        netmask  24

        gateway  192.168.178.1

        bridge-ports eno1

        bridge-stp off

        bridge-fd 0

        bridge_std off

#Server / WAN /Internet


iface vmbr1 inet static

        address  192.168.178.11

        netmask  24

        gateway  192.168.178.1

        bridge-ports eno2

        bridge-stp off

        bridge-fd 0

        bridge-vlan-aware yes

        bridge-vids 2-4094

        bridge_std off

#Firewall / LAN - VLAN / Heimnetz


auto vmbr2

iface vmbr2 inet manual

        bridge-ports eno3

        bridge-stp off

        bridge-fd 0

#Firewall / WAN / Internet


Ich habe einen hp dl 380p mit 4 Lan-ports , Lan 1 nur für den Server , Lan 2 für Opnsense zugang zum Internet, Lan 3 für den Switch später.


Opnsense läuft

wie gehts weiter wenn ich nun einen container in proxmox erstelle braucht er ja eine netzwerk karte .


das wäre mein VLAN erzeugt in OPNSense


Dienste: DHCPv4: [Virtuell]

Subnetz 192.168.33.0

Subnetzmaske 255.255.255.0

Verfügbarer Bereich 192.168.33.1 - 192.168.33.254

Bereich 192.168.33.10 - 192.168.33.250




wenn ich jetzt eine netzwerk karte erstelle in dem container:

bridge :vmbr1

IPv4: 192.168.33.12/24

gateway: 192.168.33.1


läuft da nichts.

Muss da nicht sowas gebaut werden ?


Code:
VLAN on the Host


To allow host communication with an isolated network. It is possible to apply VLAN tags to any network device (NIC, Bond, Bridge). In general, you should configure the VLAN on the interface with the least abstraction layers between itself and the physical NIC.


For example, in a default configuration where you want to place the host management address on a separate VLAN.

Example: Use VLAN 5 for the Proxmox VE management IP with traditional Linux bridge


auto lo

iface lo inet loopback


iface eno1 inet manual


iface eno1.5 inet manual


auto vmbr0v5

iface vmbr0v5 inet static

        address  10.10.10.2

        netmask  255.255.255.0

        gateway  10.10.10.1

        bridge_ports eno1.5

        bridge_stp off

        bridge_fd 0


auto vmbr0

iface vmbr0 inet manual

        bridge_ports eno1

        bridge_stp off

        bridge_fd 0


Example: Use VLAN 5 for the Proxmox VE management IP with VLAN aware Linux bridge


auto lo

iface lo inet loopback


iface eno1 inet manual



auto vmbr0.5

iface vmbr0.5 inet static

        address  10.10.10.2

        netmask  255.255.255.0

        gateway  10.10.10.1


auto vmbr0

iface vmbr0 inet manual

        bridge_ports eno1

        bridge_stp off

        bridge_fd 0

        bridge_vlan_aware yes

was muss ich machen um alle geräte in einzelne VLans zu bekommen ?

eigene VLANS und DHCP habe ich schon erstellt.

ich will das erst mal an der virtuell-VLan mit meinen eigenen vm und containern laufen haben und dann weiter aufräumen, da ich auch homematic-ip geräte habe und ein gäste WLAN bauen möchte.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich mach das so:

auto vmbr0
iface vmbr0 inet static
pre-up ip addr flush dev eno1
address 192.168.200.14
netmask 255.255.255.0
gateway 192.168.200.1
bridge_ports eno1
bridge_stp off
bridge_fd 0
bridge_vlan_aware yes

Weitere VLANs einfach auf getaggt auf den Switch-Ports und dann dem Container/VM als TAG hinzufügen.
 
mein server hat 4 netzwerk ports und mal eine generelle frage kann ich 2 für wan als BOND zusammen fassen wie unten ist aus meiner oberen configuration:


auto br0
iface br0 inet static
address 192.168.178.11
netmask 24
gateway 192.168.178.1
bridge_ports eno3 eno4
bridge_fd 5
bridge-vlan-aware yes
bridge-vids 2-4094
bridge_stp yes

und 2 für das LAN als BRIDGE zum netzwerk entlasten

auto bond0
iface bond0 inet static
address 192.168.178.10
netmask 24
network 192.168.178.000
broadcast 192.168.178.255
gateway 192.168.178.1
dns-nameservers 192.168.178.1
bond-slaves eno1 eno2
bond-mode 0
bond-miimon 100
bond-updelay 200
bond-downdelay 200
 
habe das jetzt so gemacht alle ports zu 2 bounds



source /etc/network/interfaces.d/*

auto lo
iface lo inet loopback

auto eno1
iface eno1 inet manual
bond-master bond0
bond-primary eno1

auto eno2
iface eno2 inet manual
bond-master bond0

auto eno3
iface eno3 inet manual
bond-master bond1
bond-primary eno3

auto eno4
iface eno4 inet manual
bond-master bond1
auto bond0
iface bond0 inet manual
bond-slaves none
bond-mode balance-rr
bond-miimon 100
bond-updelay 200
bond-downdelay 200
#Server / WAN / Internet

auto bond1
iface bond1 inet manual
bond-slaves none
bond-mode balance-rr
bond-miimon 100
bond-updelay 200
bond-downdelay 200
#Server / LAN / Heimnetz

auto vmbr0
iface vmbr0 inet static
address 192.168.178.10
netmask 24
broadcast 192.168.178.255
gateway 192.168.178.1
dns-nameservers 192.168.178.1
bridge-ports bond0
bridge-stp off
bridge-fd 0
bridge-vlan-aware yes
bridge-vids 2-4094
bridge_std off
#Server / WAN / Internet

auto vmbr1
iface vmbr1 inet static
address 192.168.178.11
netmask 24
broadcast 192.168.178.255
gateway 192.168.178.1
dns-nameservers 192.168.178.1
bridge-ports bond1
auto vmbr2
iface vmbr2 inet manual
bridge-ports none
bridge-stp off
bridge-fd 0
bridge-vlan-aware yes
bridge-vids 2-4094
#Firewall / VLAN / Virtuell

bridge-stp off
bridge-fd 0
bridge-vlan-aware yes
bridge-vids 2-4094
bridge_std off
#Firewall / LAN - VLAN / Heimnetz


ich gehe davon aus das es richtig ist kann das jemand bestätigen.

root@Server:~# mii-tool
No interface specified
usage: mii-tool [-VvRrwl] [-A media,... | -F media] [-p addr] <interface ...>
-V, --version display version information
-v, --verbose more verbose output
-R, --reset reset MII to poweron state
-r, --restart restart autonegotiation
-w, --watch monitor for link status changes
-l, --log with -w, write events to syslog
-A, --advertise=media,... advertise only specified media
-F, --force=media force specified media technology
-p, --phy=addr set PHY (MII address) to report
media: 1000baseTx-HD, 1000baseTx-FD,
100baseT4, 100baseTx-FD, 100baseTx-HD,
10baseT-FD, 10baseT-HD,
(to advertise both HD and FD) 1000baseTx, 100baseTx, 10baseT
root@Server:~#

root@Server:~# find /lib/modules/`uname -r` -iname bonding*
/lib/modules/5.0.21-1-pve/kernel/drivers/net/bonding
/lib/modules/5.0.21-1-pve/kernel/drivers/net/bonding/bonding.ko
root@Server:~#

root@Server:~# cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: load balancing (round-robin)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 200
Down Delay (ms): 200

Slave Interface: eno1
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 1
Permanent HW addr: 2c:44:fd:95:9f:1c
Slave queue ID: 0

Slave Interface: eno2
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 1
Permanent HW addr: 2c:44:fd:95:9f:1d
Slave queue ID: 0
root@Server:~#

root@Server:~# cat /proc/net/bonding/bond1
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: load balancing (round-robin)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 200
Down Delay (ms): 200

Slave Interface: eno3
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 1
Permanent HW addr: 2c:44:fd:95:9f:1e
Slave queue ID: 0

Slave Interface: eno4
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 1
Permanent HW addr: 2c:44:fd:95:9f:1f
Slave queue ID: 0
root@Server:~#



root@Server:~# tail -f /var/log/syslog
Oct 13 17:49:52 Server kernel: [ 2718.891565] vmbr0: received packet on bond0 with own address as source address (addr:2c:44:fd:95:9f:1c, vlan:1)
Oct 13 17:49:53 Server kernel: [ 2719.247527] vmbr1: received packet on bond1 with own address as source address (addr:2c:44:fd:95:9f:1e, vlan:0)
Oct 13 17:50:00 Server systemd[1]: Starting Proxmox VE replication runner...
Oct 13 17:50:01 Server systemd[1]: pvesr.service: Succeeded.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh