首页 > 其他分享 >LVS负载均衡集群——DR模式

LVS负载均衡集群——DR模式

时间:2022-11-25 18:56:27浏览次数:55  
标签:ARP 负载 LVS IP MAC 192.168 Server VIP DR

一、LVS-DR集群介绍

LVS-DR(Linux Virtual Server Director Server)工作模式,是生产环境中最常用的一 种工作模式。

1.1LVS-DR 工作原理

LVS-DR 模式,Director Server 作为群集的访问入口,不作为网关使用,节点 Director Server 与 Real Server 需要在同一个网络中,返回给客户端的数据不需要经过 Director Server。为了响应对整个群集的访问,Director Server 与 Real Server 都需要配置 VIP 地址。

1.2数据包流向分析

为方便进行原理分析,将Client与群集机器放在同一网络中,数据包流经的路线为 1-2-3-4 四步

  • 第一步:客户端发送请求到 Director Server (负载均衡器),请求的数据报文到达内核空间。

此时请求的数据报文
源 IP —— 客户端的 IP(CIP)
目标 IP —— VIP
源 MAC —— 客户端的 MAC
目的 MAC —— Director Server 的 MAC

  • 第二步:内核空间判断数据包的目标 IP 是本机 VIP,此时 IPVS(IP 虚拟服务器)比对数据包请求的服务是否是集群服务,是集群服务就重新封装数据包。然后将数据包发送给根据 负载均衡算法选择的 Real Server。(Director Server 和 Real Server 在同一个网络中,数据通过二层数据链路层来传输。)

此时请求的数据报文
源 IP —— 客户端的 IP
目标 IP —— VIP
源 MAC —— Director Server 的 MAC
目的 MAC —— Real Server 的 MAC

  • 第三步:到达 Real Server 的请求报文的 MAC 地址是自身的 MAC 地址,就接收此报文。数据包重新封装报文,将响应报文通过 lo 接口传送给物理网卡然后向外发出。

此时请求的数据报文
源 IP —— VIP
目标 IP —— 客户端的 IP(CIP)
源 MAC —— Real Server 的 MAC
目的 MAC —— 客户端的 MAC

第四步:通过交换机和路由器将响应报文传送到客户端。客户端收到回复报文,得到想要的服务,但是不会知道是哪台服务器处理的。

1.3LVS-DR 模式的特点

  • Director Server 和 Real Server 必须在同一个物理网络中。
  • Real Server 可以使用私有地址,也可以使用公网地址。如果使用公网地址,可以通过互联网对RIP进行直接访问。
  • 所有的请求报文经由 Director Server,但回复响应报文不能经过 Director Server。
  • Real Server 的网关不允许指向 Director Server IP,即不允许数据包经过 Director S erver。
  • Real Server 上的 lo 接口配置 VIP 的 IP 地址。

1.4LVS-DR中的ARP问题

(1)问题一

在LVS-DR负载均衡集群中,负载均衡器与节点服务器都要配置相同的VIP地址,在局域网中具有相同的IP地址。势必会造成各服务器ARP通信的紊乱
当ARP广播发送到LVS-DR集群时,因为负载均衡器和节点服务器都是连接到相同的网络上,它们都会接收到ARP广播
只有前端的负载均衡器进行响应,其他节点服务器不应该响应ARP广播

解决方法:
对节点服务器进行处理,使其不响应针对VIP的ARP请求
使用虚接口lo:0承载VIP地址
设置内核参数arp_ ignore=1: 系统只响应目的IP为本地IP的ARP请求

(2)问题二

问题说明:RealServer返回报文(源IP是VIP)经路由器转发,重新封装报文时,需要先获取路由器的MAC地址,发送ARP请求时,Linux默认使用IP包的源IP地址(即VIP)作为ARP请求包中的源IP地址,而不使用发送接口的IP地址,路由器收到ARP请求后,将更新ARP表项,原有的VIP对应Director的MAC地址会被更新为VIP对应RealServer的MAC地址。
路由器根据ARP表项,会将新来的请求报文转发给RealServer,导致Director的VIP失效

解决方法:
对节点服务器进行处理,设置内核参数arp_announce=2:系统不使用IP包的源地址来设置ARP请求的源地址,而选择发送接口的IP地址

二、构建LVS-DR集群的步骤

实验环境准备:

DR 服务器:192.168.10.10
Web 服务器1:192.168.10.20
Web 服务器2:192.168.10.30
NFS共享服务器:192.168.10.40
lvs_vip:192.168.10.50

2.1配置负载调度器(192.168.10.10)

systemctl stop firewalld.service
setenforce 0
modprobe ip_vs
cat /proc/net/ip_vs
yum -y install ipvsadm

(1)配置虚拟 IP 地址(VIP:192.168.10.50)

cd /etc/sysconfig/network-scripts/
cp ifcfg-ens33 ifcfg-ens33:0                #若隧道模式,复制为ifcfg-tunl0
vim ifcfg-ens33:0
DEVICE=ens33:0
ONBOOT=yes
IPADDR=192.168.10.50
NETMASK=255.255.255.255
 
ifup ens33:0
ifconfig ens33:0
route add -host 192.168.10.50 dev ens33:0 ###添加静态路由

(2)调整 proc 响应参数

由于 LVS 负载调度器和各节点需要共用 VIP 地址,应该关闭Linux 内核的重定向参数响应。
vim /etc/sysctl.conf
net.ipv4.ip_forward = 0
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0
 
sysctl -p

(3)配置负载分配策略

ipvsadm-save > /etc/sysconfig/ipvsadm
systemctl start ipvsadm
 
ipvsadm -C
ipvsadm -A -t 192.168.10.50:80 -s rr
ipvsadm -a -t 192.168.10.50:80 -r 192.168.10.20:80 -g            #若隧道模式,-g替换为-i
ipvsadm -a -t 192.168.10.50:80 -r 192.168.10.30:80 -g
ipvsadm
 
ipvsadm -ln             

2.2部署共享存储(NFS服务器:192.168.10.40)

systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0
 
yum install nfs-utils rpcbind -y
systemctl start nfs.service
systemctl start rpcbind.service
systemctl enable nfs.service
systemctl enable rpcbind.service
 
mkdir /opt/ly /opt/weq
chmod 777 /opt/ly /opt/weq
 
echo 'this is fzr web!' > /opt/fzr/index.html
echo 'this is zzj web!' > /opt/zzj/index.html
 
vim /etc/exports
/opt/fzr 192.168.10.0/24(rw,sync)
/opt/zzj 192.168.10.0/24(rw,sync)
 
--发布共享---[root@nfs ~]#exportfs -rv  

2.3配置节点服务器(192.168.2.20、192.168.10.30)

systemctl stop firewalld.service
setenforce 0

(1)配置虚拟 IP 地址(VIP:192.168.10.50)

此地址仅用作发送Web响应数据包的源地址,并不需要监听客户机的访问请求(改由调度器监听并分发)。因此使用虚接口lo:0来承载VIP地址,并为本机添加一条路由记录,将访问VIP的数据限制在本地,以避免通信紊乱。

yum install nfs-utils rpcbind httpd -y
cd /etc/sysconfig/network-scripts/
cp ifcfg-ens33 ifcfg-lo:0      
vim ifcfg-lo:0
DEVICE=lo:0
ONBOOT=yes
IPADDR=192.168.10.50                    #和VIP保持一致
NETMASK=255.255.255.255                     #注意:子网掩码必须全为 1
ifup lo:0
ifconfig lo:0
route add -host 192.168.10.50 dev lo:0        #添加VIP本地访问路由,将访问VIP的数据限制在本地,以避免通信紊乱
 
vim /etc/rc.local
/sbin/route add -host 192.168.10.50 dev lo:0
chmod +x /etc/rc.local

(2)调整内核的ARP响应参数以阻止更新VIP的MAC地址,避免发生冲突

vim /etc/sysctl.conf
......
net.ipv4.conf.lo.arp_ignore = 1         #系统只响应目的IP为本地IP的ARP请求
net.ipv4.conf.lo.arp_announce = 2       #系统不使用IP包的源地址来设置ARP请求的源地址,而选择发送接口的IP地址
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
 
sysctl -p
 
或者临时添加
 
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
 
sysctl -p
 
yum -y install nfs-utils rpcbind httpd
systemctl start rpcbind
systemctl start httpd  

(3)共享挂载目录

yum -y install nfs-utils rpcbind httpd
systemctl start rpcbind
systemctl start httpd
 
--192.168.10.20---
mount.nfs 192.168.10.40:/opt/fzr /var/www/html
 
--192.168.10.30---
mount.nfs 192.168.10.40:/opt/zzj /var/www/html

2.4测试 LVS 群集

在客户端使用浏览器访问 http://192.168.10.50

三、实例操作:构建LVS-DR集群

3.1配置负载调度器(192.168.10.10)

(1)配置虚拟 IP 地址(VIP:192.168.10.50)

(2)调整 proc 响应参数

(3)配置负载分配策略

3.2部署共享存储(NFS服务器:192.168.10.40)

3.3配置节点服务器(192.168.10.20、192.168.10.30)

(1)配置虚拟 IP 地址(VIP:192.168.10.50)

web1节点(192.168.10.20):

web2节点(192.168.10.30):

(2)调整内核的ARP响应参数以阻止更新VIP的MAC地址,避免发生冲突

web1节点:

web2节点:

(3)共享挂载目录

web1节点:

 web2节点:

3.4测试 LVS 群集

http://192.168.10.50(vip地址)

标签:ARP,负载,LVS,IP,MAC,192.168,Server,VIP,DR
From: https://www.cnblogs.com/feizirui/p/16925367.html

相关文章