首页 > 其他分享 >HMZK5【Zookeeper集群】

HMZK5【Zookeeper集群】

时间:2022-10-24 16:33:27浏览次数:48  
标签:bin zookeeper local Zookeeper cluster 集群 usr 服务器 HMZK5

1 ZK集群Leader选举

image-20221024095504320

Leader选举:

  • Serverid:服务器ID

    • 比如有三台服务器,编号分别是1,2,3。
    • 编号越大在选择算法中的权重越大。
  • Zxid:数据ID

    • 服务器中存放的最大数据ID.值越大说明数据 越新,
    • 在选举算法中数据越新权重越大。
  • 在Leader选举的过程中,如果某台ZooKeeper

    • 获得了超过半数的选票,
    • 则此ZooKeeper就可以成为Leader了。

2 ZK集群搭建

2.1 搭建要求

真实的集群是需要部署在不同的服务器上的,但是在我们测试时同时启动很多个虚拟机内存会吃不消,

所以我们通常会搭建伪集群,也就是把所有的服务都搭建在一台虚拟机上,用端口进行区分。

我们这里要求搭建一个三个节点的Zookeeper集群(伪集群)。

2.2 准备工作

  1. Zookeeper压缩包上传到服务器根目录并解压
tar -zxvf apache-zookeeper-3.5.6-bin.tar.gz

image-20221024113336484

image-20221024113502199

image-20221024113515209


  1. 建立/usr/local/zookeeper-cluster目录,将解压后的Zookeeper复制到以下三个目录
mkdir /usr/local/zookeeper-cluster

cp -r  ~/apache-zookeeper-3.5.6-bin /usr/local/zookeeper-cluster/zookeeper-1
cp -r  ~/apache-zookeeper-3.5.6-bin /usr/local/zookeeper-cluster/zookeeper-2
cp -r  ~/apache-zookeeper-3.5.6-bin /usr/local/zookeeper-cluster/zookeeper-3

image-20221024114039792

image-20221024114025663

image-20221024134050885


  1. 创建data目录 ,并且将 conf下zoo_sample.cfg 文件改名为 zoo.cfg
mkdir /usr/local/zookeeper-cluster/zookeeper-1/data
mkdir /usr/local/zookeeper-cluster/zookeeper-2/data
mkdir /usr/local/zookeeper-cluster/zookeeper-3/data

mv  /usr/local/zookeeper-cluster/zookeeper-1/conf/zoo_sample.cfg  /usr/local/zookeeper-cluster/zookeeper-1/conf/zoo.cfg
mv  /usr/local/zookeeper-cluster/zookeeper-2/conf/zoo_sample.cfg  /usr/local/zookeeper-cluster/zookeeper-2/conf/zoo.cfg
mv  /usr/local/zookeeper-cluster/zookeeper-3/conf/zoo_sample.cfg  /usr/local/zookeeper-cluster/zookeeper-3/conf/zoo.cfg

image-20221024134158498

image-20221024140942221


  1. 配置每一个Zookeeper 的dataDir 和 clientPort 分别为2181 2182 2183
vim /usr/local/zookeeper-cluster/zookeeper-1/conf/zoo.cfg

clientPort=2181
dataDir=/usr/local/zookeeper-cluster/zookeeper-1/data

vim /usr/local/zookeeper-cluster/zookeeper-2/conf/zoo.cfg

clientPort=2182
dataDir=/usr/local/zookeeper-cluster/zookeeper-2/data

vim /usr/local/zookeeper-cluster/zookeeper-3/conf/zoo.cfg

clientPort=2183
dataDir=/usr/local/zookeeper-cluster/zookeeper-3/data

image-20221024141255150

image-20221024141423115

image-20221024141518084

image-20221024141603015

2.3 配置集群

  1. 在每个zookeeper的 data 目录下创建一个 myid 文件,内容分别是1、2、3 。这个文件就是记录每个服务器的ID
echo 1 >/usr/local/zookeeper-cluster/zookeeper-1/data/myid
echo 2 >/usr/local/zookeeper-cluster/zookeeper-2/data/myid
echo 3 >/usr/local/zookeeper-cluster/zookeeper-3/data/myid

image-20221024143201497

  1. 在每一个zookeeper 的 zoo.cfg配置客户端访问端口(clientPort)和集群服务器IP列表
vim /usr/local/zookeeper-cluster/zookeeper-1/conf/zoo.cfg
vim /usr/local/zookeeper-cluster/zookeeper-2/conf/zoo.cfg
vim /usr/local/zookeeper-cluster/zookeeper-3/conf/zoo.cfg

# 每份文件中需要添加的内容:
server.1=101.43.128.227:2881:3881
server.2=101.43.128.227:2882:3882
server.3=101.43.128.227:2883:3883

# 解释:server.服务器ID=服务器IP地址:服务器之间通信端口:服务器之间投票选举端口
# 默认值:2881:3881
# 将来如果搭建真集群,则只是用默认的端口即可,只需修改IP为不同对应机器

image-20221024143732727

image-20221024143813757

image-20221024143905710

image-20221024143951037

2.4后记:服务器环境下,填写公网ip不好使,需要全部更换为localhost;可能本地虚拟机环境下填ip好使

image-20221024151719171

2.4 启动集群

  1. 启动集群就是依次分别启动每个实例
/usr/local/zookeeper-cluster/zookeeper-1/bin/zkServer.sh start

/usr/local/zookeeper-cluster/zookeeper-2/bin/zkServer.sh start

/usr/local/zookeeper-cluster/zookeeper-3/bin/zkServer.sh start

注意:先去把之前开的zookeeper先关了,再搞集群,不然第一个集群的zkServer打不开的

image-20221024145443571

image-20221024145618894

  1. 启动后分别依次查询一下每个实例的运行状态
/usr/local/zookeeper-cluster/zookeeper-1/bin/zkServer.sh status

/usr/local/zookeeper-cluster/zookeeper-2/bin/zkServer.sh status

/usr/local/zookeeper-cluster/zookeeper-3/bin/zkServer.sh status

image-20221024152111180

先查询第一个服务,Mode为follower表示是跟随者(从)

再查询第二个服务Mode为leader表示是领导者(主)

查询第三个为跟随者(从)

2.5 模拟集群异常

  1. 首先测试如果是从服务器挂掉,会咋

把3号服务器停掉,观察1号和2号,发现状态并没有变化

由此得出结论,3个节点的集群,从服务器挂掉,集群正常

/usr/local/zookeeper-cluster/zookeeper-3/bin/zkServer.sh stop

/usr/local/zookeeper-cluster/zookeeper-1/bin/zkServer.sh status
/usr/local/zookeeper-cluster/zookeeper-2/bin/zkServer.sh status

image-20221024154616003

  1. 再把1号服务器(从服务器)也停掉,查看2号(主服务器)的状态,发现已经停止运行了

由此得出结论,3个节点的集群,2个从服务器都挂掉,主服务器也无法运行。因为可运行的机器没有超过集群总数量的半数。

/usr/local/zookeeper-cluster/zookeeper-1/bin/zkServer.sh stop

/usr/local/zookeeper-cluster/zookeeper-2/bin/zkServer.sh status

image-20221024154829486

  1. 再次把1号服务器启动起来,发现2号服务器又开始正常工作了。而且依然是领导者
/usr/local/zookeeper-cluster/zookeeper-1/bin/zkServer.sh start

/usr/local/zookeeper-cluster/zookeeper-2/bin/zkServer.sh status
/usr/local/zookeeper-cluster/zookeeper-1/bin/zkServer.sh status

image-20221024155222250

  1. 把3号服务器也启动起来,把2号服务器停掉,停掉后观察1号和3号的状态

发现新的leader产生了~

由此我们得出结论,当集群中的主服务器挂了,集群中的其他服务器会自动进行选举状态,然后产生新得leader

/usr/local/zookeeper-cluster/zookeeper-3/bin/zkServer.sh start
/usr/local/zookeeper-cluster/zookeeper-2/bin/zkServer.sh stop

/usr/local/zookeeper-cluster/zookeeper-1/bin/zkServer.sh status
/usr/local/zookeeper-cluster/zookeeper-3/bin/zkServer.sh status

image-20221024155429140

  1. 再次测试,把2号服务器重新启动起来启动后,会发生什么?2号服务器会再次成为新的领导吗?

我们会发现,2号服务器启动后依然是跟随者(从服务器),

3号服务器依然是领导者(主服务器),没有撼动3号服务器的领导地位。

由此我们得出结论,当领导者产生后,再次有新服务器加入集群,不会影响到现任领导者。

/usr/local/zookeeper-cluster/zookeeper-2/bin/zkServer.sh start

/usr/local/zookeeper-cluster/zookeeper-2/bin/zkServer.sh status
/usr/local/zookeeper-cluster/zookeeper-3/bin/zkServer.sh status

image-20221024161513208

3 ZK集群角色

image-20221024095719351

在ZooKeeper集群服中务中有三个角色:

  • Leader 领导者 :

    • 处理事务请求
    • 集群内部各服务器的调度者
  • Follower 跟随者 :

    • 处理客户端非事务请求,转发事务请求给Leader服务器
    • 参与Leader选举投票
  • Observer 观察者:

    • 处理客户端非事务请求,转发事务请求给Leader服务器

标签:bin,zookeeper,local,Zookeeper,cluster,集群,usr,服务器,HMZK5
From: https://www.cnblogs.com/yppah/p/16815562.html

相关文章

  • 14.Linux下安装ZooKeeper
    1.解压解压安装包并将解压后的目录移动到/usr/local/zookeeper目录下。tar-zxvfzookeeper-3.4.10.tar.gzmvzookeeper-3.4.10/usr/local/zookeepercd/usr/local/zookee......
  • k8s之k8s集群版本升级
    一升级场景1.1小版本更新小版本更新侧重于稳定性更新。1.2大版本更新大版本更新侧重于功能更新,需要先在测试环境升级,更新后需要测试现有业务兼容性。测试通过后升级线上......
  • HMZK4【Zookeeper分布式锁】
    1分布式锁1.1概念1.2原理2案例:模拟12306售票2.1Curator实现分布式锁API在Curator中有五种锁方案:InterProcessSemaphoreMutex:分布式排它锁(非可重入锁)InterPr......
  • 使用 etcdadm 快速、弹性部署 etcd 集群
    Etcd是一个可靠的分布式键值存储,常用于分布式系统关键数据的存储;而etcdadm是一个用于操作etcd集群的命令行工具,它可以轻松创建集群、向现有集群添加成员、从现有集......
  • cometd源码阅读-oort集群初始化(十三)
    说明官方网文档:https://docs.cometd.org/current5/reference/#_java_oort原理就是,各个服务端,定义了一个客户端,伪装成正常连接与server建立websocket链接,并订阅指定......
  • 在k8s集群基于nfs共享存储部署jenkins单体服务
    一、准备jenkins镜像dockerpulljenkins/jenkins:2.374dockertagjenkins/jenkins:2.374harbor.magedu.net/magedu/jenkins:2.374dockerpushharbor.magedu.net/mage......
  • 在 AWS EKS 上部署 EMQX MQTT 集群
    云进入以「应用为中心」的云原生阶段,Operator模式的出现,则为Kubernetes中的自动化任务创建配置与管理提供了一套行之有效的标准规范。通过将运维知识固化成高级语言Go/J......
  • 尚硅谷k8s(五):搭建k8s集群—平台规划和部署方式介绍
    搭建k8s环境平台规划单master集群多master集群服务器硬件配置要求测试环境:master2核4G20Gnode4核8G40G生产环境:更高要求搭建k8s集群部署方式目前生产部署......
  • 尚硅谷k8s(三):k8s集群架构组件
    k8s集群架构组件Master主控节点Node工作节点master组件apiserver:集群统一入口,以restful方式,交给etcd存储scheduler:节点调度,选择node节点应用部署controller-mana......
  • 07 Ceph 集群运维
    目录Ceph守护服务管理全局管理一台机器有多个ceph服务STARTINGALLdaemonsSTOPPINGALLdaemons服务分类管理STARTINGALLDAEMONSBYTYPESTOPPINGALLDAEMONSBYTY......