首页 > 其他分享 >主从热备+负载均衡(LVS + keepalived)

主从热备+负载均衡(LVS + keepalived)

时间:2022-11-03 12:31:36浏览次数:79  
标签:热备 LVS keepalived 负载 192.168 server conf 服务器

前言

  淘宝架构师李智慧大牛的书籍《大型网站技术架构》以及旭龙兄的博客  --->​​【大型网站技术实践】初级篇:借助LVS+Keepalived实现负载均衡​​。

  从上参考而得来本文,本文旨在记录自己的学习过程,同时给大家参考,不对的地方欢迎大家拍砖,拍砖的同时也希望甚至恳请大家能写出原因,让大家都有所明白和收获!

  相关的概念我这里就不多讲了,可以从如上的书籍和旭龙兄的博客中去了解,那么下面直接开始我们的实践!

  路漫漫其修远兮,吾将上下而求索!

​https://github.com/youzhibing​

​https://gitee.com/youzhibing​

环境准备

  本机 + virtualBox + 4台centOs虚拟机,如下图

主从热备+负载均衡(LVS + keepalived)_lvs

  virtualBox安装以及CentOS安装这里就不再演示,大家自行搭建;本机在本次试验中扮演的角色就是客户端,起到一个发送请求的作用,两台CentOS做负载均衡服务器(一台为主机,一台为备机),另外两台作为真实的Web服务器(安装有tomcat)。

  本次实验基于DR负载均衡模式(直接路由,旭龙兄的博客有讲解),设置一个VIP(Virtual IP)为192.168.1.200,用户只需要访问这个IP地址即可获得网页服务。其中,负载均衡主机为192.168.1.114(master),备机为 192.168.1.112(brucelee)。Web服务器A为192.168.1.111(youzhibing),Web服务器B为192.168.1.115(youzhibing03),四台机器命名除了master外都不太规范,但不影响实验。四台CentOS的防火墙都需要关闭。利用Xshell链接CentOS,如下图

主从热备+负载均衡(LVS + keepalived)_主从热备_02

配置两台web服务器

  和本地部署web项目一样,将myWeb部署到tomcat中,开启tomcat,宿主机访问(​​virtualBox安装linux,并搭建tomcat请点这​​),如下图

主从热备+负载均衡(LVS + keepalived)_负载均衡_03

主从热备+负载均衡(LVS + keepalived)_linux_04

  将这两台web服务器都配置成lvs的real server,编辑realserver脚本文件,进入指定文件夹:cd /etc/init.d/,编辑脚本文件:vim realserver,如下图

主从热备+负载均衡(LVS + keepalived)_负载均衡_05

  /etc/init.d/realserver 内容如下

#vi /usr/local/sbin/realserver.sh
#!/bin/bash
# description: Config realserver lo and apply noarp
#Written by :NetSeek http://www.linuxtone.org

SNS_VIP=192.168.1.200

. /etc/rc.d/init.d/functions

case "$1" in
start)
ifconfig lo:0 $SNS_VIP netmask 255.255.255.255 broadcast $SNS_VIP
/sbin/route add -host $SNS_VIP dev lo:0
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
sysctl -p >/dev/null 2>&1
echo "RealServer Start OK"
;;
stop)
ifconfig lo:0 down
route del $SNS_VIP >/dev/null 2>&1
echo "0" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "0" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "0" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "0" >/proc/sys/net/ipv4/conf/all/arp_announce
echo "RealServer Stoped"
;;
*)
echo "Usage: $0 {start|stop}"
exit 1
esac

exit 0

  保存脚本文件后更改该文件权限:chmod 755 realserver,开启realserver服务:service realserver start;

  注意:配置real server是web服务器都需要配置的,有多少台就配置多少台!

配置负载服务器(master)

  安装Keepalived

yum install -y keepalived

  在CentOS下,通过yum install命令可以很方便地安装软件包,但是前提是你的虚拟机要联网,若没有联网则先从有网的地方下载压缩包,然后拷贝或者上传到linux系统,再进行安装;

  配置keepalived

    ①进入keepalived.conf所在目录:cd /etc/keepalived

    ②首先清除掉keepalived原有配置:> keepalived.conf

    ③重新编辑keepalived配置文件:vi keepalived.conf

    内容如下:

global_defs {
notification_email {
[email protected]
}
notification_email_from [email protected]
smtp_server 192.168.1.114
smtp_connection_timeout 30
router_id LVS_MASTER # 设置lvs的id,在一个网络应该是唯一的
}
vrrp_instance VI_1 {
state MASTER # 指定keepalived的角色,MASTER为主,BACKUP为备
interface eth0 # 当前进行vrrp通讯的网络接口卡(当前centos的网卡)
virtual_router_id 66 # 虚拟路由编号,主从要一直
priority 100 # 优先级,数值越大,获取处理请求的优先级越高
advert_int 1 # 检查间隔,默认为1s(vrrp组播周期秒数)
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.1.200 # 定义虚拟ip(VIP),可多设,每行一个
}
}
# 定义对外提供的LVS的VIP以及port
virtual_server 192.168.1.200 8080 {
delay_loop 6 # 设置健康检查时间,单位为秒
lb_algo wrr # 设置负载调度的算法为wrr
lb_kind DR # 设置lvs实现负载的机制,有NAT、TUN、DR三个模式
nat_mask 255.255.255.0
persistence_timeout 0 # 同一IP 0秒内的请求都发到同个real server
protocol TCP
real_server 192.168.1.111 8080 { # 指定real server1的ip地址
weight 3 # 配置节点权值,数值越大权重越高
TCP_CHECK {
connect_timeout 10
nb_get_retry 3
delay_before_retry 3
}
}
real_server 192.168.1.115 8080 {
weight 3
TCP_CHECK {
connect_timeout 10
nb_get_retry 3
delay_before_retry 3
}
}
}

配置负载服务器(slave)

  和主负载服务器一样,先安装keepalived,然后编辑keepalived.conf,内容如下,与主负载服务器有些许差别

global_defs {
notification_email {
[email protected]
}
notification_email_from [email protected]
smtp_server 192.168.1.112
smtp_connection_timeout 30
router_id LVS_BACKUP # 设置lvs的id,在一个网络应该是唯一的
}
vrrp_instance VI_1 {
state BACKUP # 指定keepalived的角色,MASTER为主,BACKUP为备
interface eth0 # 当前进行vrrp通讯的网络接口卡(当前进行vrrp通讯的网络接口卡)
virtual_router_id 66 # 虚拟路由编号,主从要一致
priority 99 # 优先级,数值越大,获取处理请求的优先级越高
advert_int 1 # 检查间隔,默认为1s(vrrp组播周期秒数)
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.1.200 # 定义虚拟ip(VIP),可多设,每行一个
}
}
# 定义对外提供的LVS的VIP以及port
virtual_server 192.168.1.200 8080 {
delay_loop 6 # 设置健康检查时间,单位为秒
lb_algo wrr # 设置负载调度的算法为wrr
lb_kind DR # 设置lvs实现负载的机制,有NAT、TUN、DR三个模式
nat_mask 255.255.255.0
persistence_timeout 0 # 同一IP 0秒内的请求都发到同个real server
protocol TCP
real_server 192.168.1.111 8080 { # 指定real server1的ip地址
weight 3 # 配置节点权值,数值越大权重越高
TCP_CHECK {
connect_timeout 10
nb_get_retry 3
delay_before_retry 3
}
}
real_server 192.168.1.115 8080 {
weight 3
TCP_CHECK {
connect_timeout 10
nb_get_retry 3
delay_before_retry 3
}
}
}

主从都要启动!

service keepalived start

效果展示

  负载均衡演示

主从热备+负载均衡(LVS + keepalived)_负载均衡_06

主从热备+负载均衡(LVS + keepalived)_keepalived_07

persistence_timeout 0,找了不少资料,还是没能解决!希望知道的朋友可以不吝赐教,在评论区进行留言,谢谢了!

    a.web服务器出现故障

      192.168.1.115发生故障,关闭115也就是youzhibing03的tomcat服务

主从热备+负载均衡(LVS + keepalived)_lvs_08

      那么宿主机与虚拟机上的结果都只有一个,都得到如下结果

主从热备+负载均衡(LVS + keepalived)_负载均衡_09

    b.web服务器修复,重新启动115的tomcat服务

主从热备+负载均衡(LVS + keepalived)_linux_10

      宿主机得到如下结果

主从热备+负载均衡(LVS + keepalived)_linux_11

      可虚拟机上显示的却还是192.168.111的结果

  主从热备演示

a.关闭主负载服务器的keepalived服务

主从热备+负载均衡(LVS + keepalived)_linux_12

      刷新页面,依然能得到如下结果

主从热备+负载均衡(LVS + keepalived)_主从热备_13

      那么也就说明从负载服务器(brucelee)接管了,我们来看下日志

主从热备+负载均衡(LVS + keepalived)_负载均衡_14

主从热备+负载均衡(LVS + keepalived)_lvs_15

      发现从负载服务器确实接管了主负载服务器的任务

    b.当之前的主负载服务器(master)修复后,日志文件如下

主从热备+负载均衡(LVS + keepalived)_keepalived_16

主从热备+负载均衡(LVS + keepalived)_keepalived_17

      主负载服务器恢复后,从负载服务器让出位置,回到最初的主从状态了!

总结

  总的来说,最终的效果还是符合标题的,虽然在负载均衡那一块有些许疑问,好像没有达到负载均衡的目的,但是也确实只是好像,因为总体而言还是有负载均衡效果的,比如宿主机的得到的是115的结果,而虚拟机上的得到的是111的结果;

  目前流行的LVS解决方案中,在Web服务器端也有采用了Nginx+Tomcat这样的搭配类型,静态文件和动态文件分开进行处理,也不失为一种有效的尝试。在以后的日子里,我会陆续进行实践,并分享给大家!

后话

  这篇博客其实周六就写好了,但是一直纠结负载均衡那个位置,迟迟没有发表出来,也是希望对自己和对大家负责吧;但是有好心不一定就有好的结果,查阅了不少资料,也进行了不少修改,可负载均衡的效果一直没有改变(不是没有哦!),离我预期的有些出入,虽然有出入,但我认为负载均衡的效果是存在的,只是与单个浏览器刷新而得到两个效果之间轮流切换有一些不同罢了!

  另外提一点,如果大家想亲手实践下的话,我建议大家的硬件不要太低了,我的i7处理器 + 4G内存,运行主机 +4台虚拟机有点卡,建议大家内存上大点,最好8G以上;

  最后强调一点:实践是检验真理的唯一标准! 有些许的冲动就赶快去实践!



标签:热备,LVS,keepalived,负载,192.168,server,conf,服务器
From: https://blog.51cto.com/u_13423706/5819406

相关文章

  • Haproxy&Keepalived实现高可用
    一、haproxy编译安装,并简述全局配置段各参数作用编译安装脚本安装#!/bin/bash#编译安装HAProxy./etc/init.d/functions#HAproxy版本HAProxy_version=haproxy-......
  • keepalived实现nginx高可用
    1、环境准备 IP主机名服务10.0.0.101keepalive1keepalived+nginx10.0.0.102keepalive2keepalived+nginx10.0.0.18web01nginx作为后端web服务10.......
  • keepalived高可用
    1、集群类型LB:LoadBalance负载均衡LVS/HAProxy/nginx(http/upstream,stream/upstream)HA:HighAvailability高可用集群数据库、Zookeeper、RedisKeepAlived通用的高可......
  • 一键部署keepalived脚本
    #!/bin/bashKEEPALIVED_VERSION=2.2.7#KEEPALIVED_VERSION=2.2.2#KEEPALIVED_VERSION=2.0.20KEEPALIVED_FILE=keepalived-${KEEPALIVED_VERSION}.tar.gzKEEPALIVED_INSTALL_......
  • linux LVS的DR模式多网段
    架构图:多网段:客户机位于192.168.10.x/24网段RS位于:10.0.0.x/24网段VIP:位于172.16.0.x/24网关通信过程:客户机(CIP)---->lvs(VIP)---->lvs(DIP)---->RS(RIP)-......
  • nginxkeepalived和tomcat整合
    最前面两台NGINX+keepalived可不可以同时承担WEB的高可用负载均衡和图片服务器并实现高可用?完全可以实现的nginx可以设置多个server,相互之间互不影响,用keepalived做负载的应......
  • linux LVS的DR模式实现
    架构图:环境:一台:客户端eth0:仅主机192.168.10.6/24GW:192.168.10.200一台:ROUTEReth0:NAT 10.0.0.200/24eth1:仅主机192.168.10.200/24启用IP_FORWARD一......
  • Linux LVS-NAT模式的实现
    结构图:环境准备lvs[root@lvs~]#cat/etc/sysconfig/network-scripts/ifcfg-eth0TYPE=EthernetBOOTPROTO=noneNAME=eth0DEVICE=eth0ONBOOT=yesIPADDR=10.0.0.8......
  • Linux 使用ipvsadm管理LVS
    lvs是内核里面的功能,在内核中叫做ipvs用户空间使用ipvsadm这个工具包提供的工具来管理内核中的ipvs功能ipvsadm命令ipvsadm核心功能:集群服务管理:增、删、改......
  • 部署haproxy+keepalived高可用负载均衡器
    尽管HAProxy非常稳定,但仍然无法规避操作系统故障、主机硬件故障、网络故障甚至断电带来的风险。所以必须对HAProxy实施高可用方案。下面将介绍利用Keepalived实现的HAProxy......