Cluster,集群,群集
由多台主机构成,但对外只表现为一个整体,只提供一个访问入口(域名或IP地址),相当于一台大型计算机。
负载均衡群集
高可用群集
高性能运算群集
2.1负载均衡群集(Load Balance Cluster)
提高应用系统的响应能力、尽可能处理更多的访问请求、减少延迟为目标,获得高并发、高负载(LB)的整体性能
LB的负载分配依赖于主节点的分流算法,将来自客户机的访问请求分担给多个服务器节点,从而缓解整个系统的负载压力。例如,“DNS轮询”“反向代理”等
2.2高可用群集(High Availiablity Cluster)
提高应用系统的可靠性、尽可能地减少中断时间为目标,确保服务的连续性,达到高可用(HA)的容错效果
HA的工作方式包括双工和主从两种模式,双工即所有节点同时在线;主从则只有主节点在线,但当出现故障时从节点能自动切换为主节点。例如,”故障切换” “双机热备” 等
2.3高性能运算群集(High Performance Computing Cluster)
提高应用系统的CPU运算速度、扩展硬件资源和分析能力为目标,获得相当于大型、超级计算机的高性能运算(HPC)能力
高性能依赖于“分布式运算”、“并行计算”,通过专用硬件和软件将多个服务器的CPU、内存等资源整合在一起,实现只有大型、超级计算机才具备的计算能力。例如“云计算”、“网格计算”
第一层,负载调度器(Load Balancer或Director)
访问整个群集系统的唯一入口,对外使用所有服务器共有的VIP地址,也称为群集IP地址。通常会配置主、备两台调度器实现热备份,当主调度器失效以后能够平滑替换至备用调度器,确保高可用性。负载均衡层
第二层,服务器池(Server Pool)
群集所提供的应用服务、由服务器池承担,其中每个节点具有独立的RIP地址(真实IP),只处理调度器分发过来的客户机请求。当某个节点暂时失效时,负载调度器的容错机制会将其隔离,等待错误排除以后再重新纳入服务器池。web应用层
第三层,共享存储(Share Storage)
为服务器池中的所有节点提供稳定、一致的文件存取服务,确保整个群集的统一性。共享存储可以使用NAS设备,或者提供NFS共享服务的专用服务器。
地址转换
IP隧道
直接路由
4.1地址转换
Network Address Translation,简称NAT模式
类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机的访问入口,也是各节点回应客户机的访问出口
服务器节点使用私有IP地址,与负载调度器位于同一个物理网络,安全性要优于其他两种方式
4.2IP隧道
IP Tunnel,简称TUN模式
采用开放式的网络结构,负载调度器仅作为客户机的访问入口,各节点通过各自的Internet连接直接回应客户机,而不再经过负载调度器
服务器节点分散在互联网中的不同位置,具有独立的公网IP地址,通过专用IP隧道与负载调度器相互通信
4.3直接路由
Direct Routing,简称DR模式
采用半开放式的网络结构,与TUN模式的结构类似,但各节点并不是分散在各地,而是与调度器位于同一个物理网络
负载调度器与各节点服务器通过本地网络连接,不需要建立专用的IP隧道
LVS 实际上相当于基于IP地址的虚拟化应用,为基于IP地址和内容请求分发的负载均衡提出了一种高效的解决方法
在centOS7系统中,可以手动添加ip_vs模块,并查看当前系统中ip_vs模块的版本信息
[root@localhost ~]# modprobe ip_vs [root@localhost ~]# cat /proc/net/ip_vs IP Virtual Server version 1.2.1 (size=4096) Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:Port Forward Weight ActiveConn InActConn
查看ip_vs算法模块
在/usr/lib/modules/3.10.0-693.el7.x86_64/kernel/net/netfilter/ipvs/路径下
[root@localhost ~]# cd /usr/lib/modules/3.10.0-693.el7.x86_64/kernel/net/netfilter/ipvs/ [root@localhost ipvs]# ls ip_vs_dh.ko.xz ip_vs.ko.xz ip_vs_lblcr.ko.xz ip_vs_nq.ko.xz ip_vs_rr.ko.xz ip_vs_sh.ko.xz ip_vs_wrr.ko.xz ip_vs_ftp.ko.xz ip_vs_lblc.ko.xz ip_vs_lc.ko.xz ip_vs_pe_sip.ko.xz ip_vs_sed.ko.xz ip_vs_wlc.ko.xz
固定调度算法
rr:轮询(Round Robin)将收到的访问请求安装顺序轮流分配给群集指定各节点(真实服务器),均等地对待每一台服务器,而不管服务器实际的连接数和系统负载。
wrr:加权轮询(Weighted Round Robin)依据不同RS的权值分配任务。权重值较高的RS将优先获得任务,并且分配到的连接数将比权值低的RS更多。相同权值的RS得到相同数目的连接数。
保证性能强的服务器承担更多的访问流量。
dh:目的地址哈希调度(destination hashing)以目的地址为关键字查找一个静态hash表来获得所需RS。
sh:源地址哈希调度(source hashing)以源地址为关键字查找--个静态hash表来获得需要的RS。
lc:最小连接数调度( Least Connections)
ipvs表存储了所有活动的连接。LB会比较将连接请求发送到当前连接最少的RS。
根据真实服务器已建立的连接数进行分配,将收到的访问请求优先分配给连接数最少的节点。
动态调度算法
wlc:加权最小连接数调度(Weighted Least Connections)假设各台RS的权值依次为Wi,当前tcp连接数依次为Ti,依次取Ti/Wi为最小的RS作为下一个分配的RS。
lblc:基于地址的最小连接数调度(locality-based least-connection)将来自同一个目的地址的请求分配给同一台RS,此时这台服务器是尚未满负荷的。否则就将这个请求分配给连接数最小的RS,并以它作为下一次分配的首先考虑。
选项 解释
-A 添加虚拟服务器
-D 删除整个虚拟服务器
-s 指定负载调度算法(轮询:rr、加权轮询:wrr、最少连接:lc、加权最少连接: wlc)
-a 表示添加真实服务器(节点服务器)
-d 删除某一个节点
-t 指定VIP地址及TCP端口
-r 指定RIP地址及TCP端口
-m 表示使用NAT群集模式
-g 表示使用DR模式
-i 表示使用TUN模式
-w 设置权重(权重为0时表示暂停节点)
-p 60 表示保持长连接60秒
-l 列表查看LVS虚拟服务器〔默认为查看所有)
-n 以数字形式显示地址、端口等信息,常与"-"选项组合使用。ipvsadm -ln
LVS调度器作为Web服务器池的网关,LVS两块网卡,分别连接内外网,使用轮询(rr)调度算法
NFS服务器192.168.111.20
关闭防火墙
[root@localhost ~]# systemctl stop firewalld.service [root@localhost ~]# setenforce 0 [root@localhost ~]# yum install nfs-utils rpcbind -y
[root@localhost ~]# cd /opt/ [root@localhost opt]# ls rh [root@localhost opt]# mkdir nfs [root@localhost opt]# cd nfs/ [root@localhost nfs]# mkdir my qyd [root@localhost nfs]# ls my qyd [root@localhost nfs]# echo "this is my" >my/index.html [root@localhost nfs]# echo "this is qyd" >qyd/index.html [root@localhost nfs]#
NFS192.168.111.22
设置权限
[root@localhost nfs]# chmod 777 * [root@localhost nfs]# ll
开启服务共享
[root@localhost nfs]# systemctl start rpcbind [root@localhost nfs]# systemctl start nfs [root@localhost nfs]# showmount -e Export list for localhost.localdomain: /opt/nginx/qyd 192.168.111.0/24 /opt/nginx/my 192.168.111.0/24
(由于截图最后截的,所以把后面步骤也显示了)
web1服务器 192.168.111.19
关闭防火墙
[root@localhost ~]# systemctl stop firewalld.service [root@localhost ~]# setenforce 0
挂载到nfs上
[root@localhost ~]#mount 192.168.111.22:/opt/nfs/my /var/www/html/ [root@localhost ~]# df -h 文件系统 容量 已用 可用 已用% 挂载点 /dev/mapper/centos-root 20G 3.7G 17G 19% / devtmpfs 473M 0 473M 0% /dev tmpfs 489M 0 489M 0% /dev/shm tmpfs 489M 7.2M 481M 2% /run tmpfs 489M 0 489M 0% /sys/fs/cgroup /dev/sda1 1014M 161M 854M 16% /boot tmpfs 98M 0 98M 0% /run/user/0 tmpfs 98M 12K 98M 1% /run/user/42 192.168.52.110:/opt/nfs/my 10G 3.7G 6.4G 37% /var/www/html [root@localhost ~]# cd /var/www/html/ [root@localhost html]# ls index.html [root@localhost html]# cat index.html this is my
重启并查看
web2与web1配置相同
配置调度服务器 192.168.111.20
先关闭防火墙然后添加一块网卡
配置ens33
配置ens36
全部内容
开发路由转发
[root@localhost network-scripts]# vim /etc/sysctl.conf -------------------------------------------------------- net.ipv4.ip_forward = 1 [root@localhost network-scripts]# sysctl -p net.ipv4.ip_forward = 1
防火墙策略
[root@localhost network-scripts]# iptables -nL #查看规则 Chain INPUT (policy ACCEPT) target prot opt source destination Chain FORWARD (policy ACCEPT) target prot opt source destination Chain OUTPUT (policy ACCEPT) target prot opt source destination [root@localhost network-scripts]# iptables -F #清空规则 [root@localhost network-scripts]# iptables -nL -t nat #查看规则 Chain PREROUTING (policy ACCEPT) target prot opt source destination Chain INPUT (policy ACCEPT) target prot opt source destination Chain OUTPUT (policy ACCEPT) target prot opt source destination Chain POSTROUTING (policy ACCEPT) target prot opt source destination [root@localhost network-scripts]# iptables -t nat -A POSTROUTING -s 192.168.52.0/24 -o ens36 -j SNAT --to 12.0.0.1 #添加规则 [root@localhost network-scripts]# iptables -nL -t nat Chain PREROUTING (policy ACCEPT) target prot opt source destination Chain INPUT (policy ACCEPT) target prot opt source destination Chain OUTPUT (policy ACCEPT) target prot opt source destination Chain POSTROUTING (policy ACCEPT) target prot opt source destination SNAT all -- 192.168.111.20/24 0.0.0.0/0 to:12.0.0.1
[root@localhost network-scripts]# modprobe ip_vs [root@localhost network-scripts]# cat /proc/net/ip_vs IP Virtual Server version 1.2.1 (size=4096) Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:Port Forward Weight ActiveConn InActConn
[root@localhost network-scripts]#ipvsadm-save >/etc/sysconfig/ipvsadm #保存负载分配策略 [root@localhost network-scripts]#systemctl start ipvsadm.service
加载,安装开启ip_vs
[root@localhost network-scripts]# ipvsadm -C #清空策略
[root@localhost network-scripts]# ipvsadm #开启服务 IP Virtual Server version 1.2.1 (size=4096) Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:Port Forward Weight ActiveConn InActConn TCP localhost.localdomain:http rr -> 192.168.52.120:http Masq 1 0 0 -> 192.168.52.130:http Masq 1 0 0 [root@localhost network-scripts]# ipvsadm -ln #查看策略 IP Virtual Server version 1.2.1 (size=4096) Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:Port Forward Weight ActiveConn InActConn TCP 12.0.0.1:80 rr -> 192.168.52.120:80 Masq 1 0 0 -> 192.168.52.130:80 Masq 1 0 0
[root@localhost network-scripts]# ipvsadm -A -t 12.0.0.1:80 -s rr -A添加虚拟服务器 -t VIP,虚拟IP所用外网网卡 -s算法 rr 轮询算法 #先指定虚拟服务器再添加真实服务器地址, [root@localhost network-scripts]# ipvsadm -a -t 12.0.0.1:80 -r 192.168.111.19:80 -m -a 真实服务器 -t:VIP -r:真实IP地址(节点服务器地址) -m:使用nat模式 [root@localhost network-scripts]# ipvsadm -a -t 12.0.0.1:80 -r 192.168.111.21:80 -m
先清空策略,再制定,开启并查看策略
客户机测试
标签:负载,LVS,群集,ip,vs,NAT,服务器,root,localhost From: https://www.cnblogs.com/123456789SI/p/16900095.html