一、案例概述
传统的MySQL主从架构存在的问题
● 单点故障
为了解决单点故障所带来的的影响,我们可以使用MHA高可用架构。
二、案例前置知识点
1. MHA概述
● MHA(Master High Availability)是一套优秀的MySQL高可用环境下故障切换和主从复制的软件。
● MHA的出现就是解决MySQL单点的问题。
● MySQL故障切换过程中,MHA能做到0-30秒内自动完成故障切换。
● MHA能在最大程度上保证数据的一致性,以达到真正意义上的高可用。
2. MHA的组成
(1)MHA Manager(管理节点)
MHA Manager可以单独部署在一台独立的机器上,管理多个master-slave集群;也可以部署在一台slave节点上。
MHA Manager会定时探测集群中的master节点。当master出现故障时,它可以自动将最新数据的slave提升为新的master,然后将所有的slave重新指向新的master,整个故障转移过程对应用程序完全透明。
(2)MHA Node(数据节点)
MHA Node运行在每台MySQL服务器上。
3. MHA特点
● 自动故障切换过程中,MHA试图从宕机的主服务器上保存二进制日志,最大程度的保证数据不丢失。
● 使用半同步复制,可以大大降低数据丢失的风险,如果只有一个slave已经收到了最新的二进制日志,MHA可以将最新的二进制日志应用于其他所有的slave服务器上,因此可以保证所有节点的数据一致性。
● 目前MHA支持一主多从的架构,最少三台服务,即一主两从
4. MHA切换过程
(1)从宕机崩溃的master保存二进制日志事件(binlog events);
(2)识别含有最新更新的slave;
(3)应用差异的中继日志(relay log)到其他 slave;
(4)应用从master保存的二进制日志事件(binlog events);
(5)提升一个slave为新master;
(6)使其他的slave连接新的master进行复制。
三、案例环境
1. 实验思路
- MHA架构
● 数据库安装
● 一主两从
● MHA搭建 - 故障模拟
● 主库失效
● 备选主库成为主库
● 原故障主库恢复重新加入到MHA成为从库
2. 服务器、主机名、系统、IP以及软件版本配置
服务器 | 主机名 | 系统 | IP | 软件及版本 |
---|---|---|---|---|
MHA manager节点服务器 | manager | CentOS7.4(64位) | 192.168.159.14 | 安装MHA node和manager组件 |
Master节点服务器 | mysql1 | CentOS7.4(64位) | 192.168.159.11 | 安装mysql5.7、MHA node组件 |
Slave1节点服务器 | mysql2 | CentOS7.4(64位) | 192.168.159.12 | 安装mysql5.7、MHA node组件 |
Slave2节点服务器 | mysql3 | CentOS7.4(64位) | 192.168.1559.13 | 安装mysql5.7、MHA node组件 |
3. 各服务器环境配置
systemctl stop firewalld
systemctl disable firewalld
setenforce 0
四、案例实施
1. 搭建MySQL MHA
(1)Master、Slave1、Slave2节点上安装mysql5.7
(2)修改各服务器节点的主机名
Master为mysql1,Slave1为mysql2,Slave2为mysql2,MHA为manager
[root@localhost opt]# hostnamectl set-hostname mysql1
(3)修改Master、Slave1、Slave2节点的MySQL主配置文件
Master(192.168.159.11)
[root@mysql1 ~]# vim /etc/my.cnf
##mysqld项下添加参数
[mysqld]
server-id = 1
log_bin = master-bin
log-slave-updates = true
[root@mysql1 ~]# systemctl restart mysqld
Slave1(192.168.159.12)server-id = 2,Slave2(192.168.159.13)server-id = 3其余一样
[root@mysql2 ~]# vim /etc/my.cnf
##mysqld项下添加参数
[mysqld]
server-id = 2
log_bin = master-bin
relay-log = relay-log-bin
relay-log-index = slave-relay-bin.index
[root@mysql2 ~]# systemctl restart mysqld
(4)在Master、Slave1、Slave2节点上都创建两个软链接
[root@mysql1 ~]# ln -s /usr/local/mysql/bin/{mysql,mysqlbinlog} /usr/sbin/
(5)配置mysql一主两从
①所有数据库节点进行mysql授权
Master(192.168.159.11)slave1和slave2
[root@mysql1 ~]# mysql -u root -p123456
mysql> grant replication slave on *.* to 'myslave'@'192.168.159.%' identified by '123456';##从数据库同步使用
mysql> grant all privileges on *.* to 'mha'@'192.168.159.%' identified by '123456';##manager使用
mysql> grant all privileges on *.* to 'mha'@'mysql1' identified by '123456';##防止从库通过主机名连接不上主库
mysql> grant all privileges on *.* to 'mha'@'mysql2' identified by '123456';
mysql> grant all privileges on *.* to 'mha'@'mysql3' identified by '123456';
flush privileges;
②在Master节点查看二进制文件和同步点
mysql> show master status;
+-------------------+----------+--------------+------------------+-------------------+
| File | Position | Binlog_Do_DB | Binlog_Ignore_DB | Executed_Gtid_Set |
+-------------------+----------+--------------+------------------+-------------------+
| master-bin.000001 | 1747 | | | |
+-------------------+----------+--------------+------------------+-------------------+
1 row in set (0.00 sec)
③在Slave1、Slave2节点执行同步操作
Slave1(192.168.159.12)Slave2(192.168.159.13)
mysql> change master to
master_host='192.168.159.11',
master_user='myslave',
master_password='123456',
master_log_file='master-bin.000001',
master_log_pos=1747;
mysql> start slave;
④在Slave1、Slave2节点查看数据同步结果
Slave1(192.168.159.12)Slave2(192.168.159.13)一样的就放一次代码
mysql> show slave status\G;
确保IO和SQL线程都是Yes,代表同步正常。
Slave_IO_Running: Yes
Slave_SQL_Running: Yes
⑤两个从库必须设置为只读模式
Slave1(192.168.159.12)Slave2(192.168.159.13)
mysql> set global read_only=1;
⑥插入数据测试数据库同步
在Master主库插入一条数据,测试是否同步
Master(192.168.159.11)
mysql> show databases; ##查看数据库
mysql> create database test; ##新建test数据库
mysql> create table test.test(id int,name char(20)); ##新建表
mysql> insert into test.test values(1,'master1'); ##添加表内容
mysql> select * from test.test; ##查看表
+------+---------+
| id | name |
+------+---------+
| 1 | master1 |
+------+---------+
1 row in set (0.00 sec)
Slave1(192.168.159.12),Slave2(192.168.159.13)
mysql> select * from test.test;
(6)安装MHA软件
①所有服务器上都安装MHA依赖的环境,首先安装epel源
[root@mysql1 ~]# yum install epel-release --nogpgcheck -y
[root@mysql1 ~]# yum install -y perl-DBD-MySQL \
perl-Config-Tiny \
perl-Log-Dispatch \
perl-Parallel-ForkManager \
perl-ExtUtils-CBuilder \
perl-ExtUtils-MakeMaker \
perl-CPAN
②安装MHA软件包,必须在所有服务器上先安装node组件
对于每个操作系统版本不一样,这里CentOS7.4必须选择0.57版本。
在所有服务器上必须先安装node组件,最后在MHA-manager节点上安装manager组件,因为manager依赖node组件。
这里统一将安装包上传到/opt目录中。
[root@mysql1 ~]# cd /opt
##传入安装包mha4mysql-node-0.57.tar.gz
[root@mysql1 opt]# tar zxvf mha4mysql-node-0.57.tar.gz
[root@mysql1 opt]# cd mha4mysql-node-0.57/
[root@mysql1 mha4mysql-node-0.57]# perl Makefile.PL
[root@mysql1 mha4mysql-node-0.57]# make && make install
③在MHA manager节点上安装manager组件(先安装node组件)
MHA manager(192.168.159.14)
[root@manager mha4mysql-node-0.57]# cd /opt
##传入安装包mha4mysql-manager-0.57.tar.gz
[root@manager opt]# tar zxvf mha4mysql-manager-0.57.tar.gz
[root@manager opt]# cd mha4mysql-manager-0.57
[root@manager mha4mysql-manager-0.57]# perl Makefile.PL
[root@manager mha4mysql-manager-0.57]# make && make install
④node组件工具
node组件安装后会在/usr/local/bin下面生成几个脚本文件(这些工具通常由MHA Manager的脚本触发,无需人为操作)主要如下:
● save_binary_logs
保存和复制master的二进制日志
● apply_diff_relay_logs
识别差异的中继日志事件并将其差异的事件应用于其他的slave
● filter_mysqlbinlog
去除不必要的ROLLBACK事件(MHA已不再使用这个工具)
● purge_relay_logs
清除中继日志(不会阻塞SQL线程)
⑤manager组件工具
manager组件安装后在/usr/local/bin下面会生成几个工具,主要包括以下几个:
● masterha_check_ssh
检查MHA的SSH配置状况
● masterha_check_repl
检查MySQL复制状况
● masterha_manger
启动manager的脚本
● masterha_check_status
检测当前MHA运行状态
● masterha_master_monitor
检测 master是否宕机
● masterha_master_switch
控制故障转移(自动或者手动)
● masterha_conf_host
添加或删除配置的server信息
● masterha_stop
关闭manager
(7)在所有服务器上配置无密码认证
①在manager节点上配置到所有数据库节点的无密码认证
MHA manager(192.168.159.14)
[root@manager mha4mysql-manager-0.57]# ssh-keygen -t rsa
#一直按回车
[root@manager mha4mysql-manager-0.57]# ssh-copy-id 192.168.159.11
#输入yes,输入IP对应的登录密码
[root@manager mha4mysql-manager-0.57]# ssh-copy-id 192.168.159.12
[root@manager mha4mysql-manager-0.57]# ssh-copy-id 192.168.159.13
②在mysql1上配置到数据库节点mysql2和mysql3的无密码认证
Master(192.168.159.11)
[root@mysql1 mha4mysql-manager-0.57]# ssh-keygen -t rsa
[root@mysql1 mha4mysql-manager-0.57]# ssh-copy-id 192.168.159.12
[root@mysql1 mha4mysql-manager-0.57]# ssh-copy-id 192.168.159.13
③在mysql2上配置到数据库节点mysql1和mysql3的无密码认证
Slave1(192.168.159.12)
[root@mysql2 mha4mysql-manager-0.57]# ssh-keygen -t rsa
[root@mysql2 mha4mysql-manager-0.57]# ssh-copy-id 192.168.159.11
[root@mysql2 mha4mysql-manager-0.57]# ssh-copy-id 192.168.159.13
④在mysql3上配置到数据库节点mysql1和mysql2的无密码认证
Slave2(192.168.159.13)
[root@mysql3 mha4mysql-manager-0.57]# ssh-keygen -t rsa
[root@mysql3 mha4mysql-manager-0.57]# ssh-copy-id 192.168.159.11
[root@mysql3 mha4mysql-manager-0.57]# ssh-copy-id 192.168.159.12
(8)在manager节点上配置MHA
①在manager节点上复制相关脚本到/usr/local/bin目录
MHA manager(192.168.159.14)
[root@manager mha4mysql-manager-0.57]# cp -rp /opt/mha4mysql-manager-0.57/samples/scripts /usr/local/bin
[root@manager mha4mysql-manager-0.57]# cd samples/scripts/
[root@manager scripts]# ll
总用量 32
-rwxr-xr-x 1 1001 1001 3648 5月 31 2015 master_ip_failover #自动切换时VIP的管理脚本
-rwxr-xr-x 1 1001 1001 9870 5月 31 2015 master_ip_online_change #在线切换时VIP的管理脚本
-rwxr-xr-x 1 1001 1001 11867 5月 31 2015 power_manager #故障发生后关闭主机的脚本
-rwxr-xr-x 1 1001 1001 1360 5月 31 2015 send_report #因故障切换后发送报警的脚本
②复制上述的自动切换时VIP的管理脚本到/usr/local/bin目录
这里使用master_ip_failover脚本来管理VIP和故障切换
MHA manager(192.168.159.14)
[root@manager scripts]# cp /usr/local/bin/scripts/master_ip_failover /usr/local/bin
③修改内容如下(修改VIP相关参数):
MHA manager(192.168.159.14)
[root@manager scripts]# vim /usr/local/bin/master_ip_failover
#!/usr/bin/env perl
use strict;
use warnings FATAL => 'all';
use Getopt::Long;
my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);
#############################添加内容部分#########################################
my $vip = '192.168.159.200'; #指定vip的地址
my $brdc = '192.168.159.255'; #指定vip的广播地址
my $ifdev = 'ens33'; #指定vip绑定的网卡
my $key = '1'; #指定vip绑定的虚拟网卡序列号
my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip"; #代表此变量值为ifconfig ens33:1 192.168.159.200
my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down"; #代表此变量值为ifconfig ens33:1 192.168.159.200 down
my $exit_code = 0; #指定退出状态码为0
#my $ssh_start_vip = "/usr/sbin/ip addr add $vip/24 brd $brdc dev $ifdev label $ifdev:$key;/usr/sbin/arping -q -A -c 1 -I $ifdev $vip;iptables -F;";
#my $ssh_stop_vip = "/usr/sbin/ip addr del $vip/24 dev $ifdev label $ifdev:$key";
##################################################################################
清除全部内容粘贴
#!/usr/bin/env perl
use strict;
use warnings FATAL => 'all';
use Getopt::Long;
my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);
#############################添加内容部分#########################################
my $vip = '192.168.159.200';
my $brdc = '192.168.159.255';
my $ifdev = 'ens33';
my $key = '1';
my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip";
my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down";
my $exit_code = 0;
#my $ssh_start_vip = "/usr/sbin/ip addr add $vip/24 brd $brdc dev $ifdev label $ifdev:$key;/usr/sbin/arping -q -A -c 1 -I $ifdev $vip;iptables -F;";
#my $ssh_stop_vip = "/usr/sbin/ip addr del $vip/24 dev $ifdev label $ifdev:$key";
###################################################################################
④创建MHA软件目录并拷贝配置文件
这里使用app1.cnf配置文件来管理mysql节点服务器
MHA manager(192.168.159.14)
[root@manager scripts]# mkdir /etc/masterha
[root@manager scripts]# cp /opt/mha4mysql-manager-0.57/samples/conf/app1.cnf /etc/masterha
[root@manager scripts]# vim /etc/masterha/app1.cnf
[server default]
manager_log=/var/log/masterha/app1/manager.log
##manager日志路径
manager_workdir=/var/log/masterha/app1
##manager工作目录
master_binlog_dir=/usr/local/mysql/data
##master保存binlog的位置,这里的路径要与master里配置的binlog的路径一致,以便MHAzhaodao
master_ip_failover_script=/usr/local/bin/master_ip_failover
##设置自动failover时候的切换脚本,也就是上一步修改的脚本
master_ip_online_change_script=/usr/local/bin/master_ip_online_change
##设置手动切换时候的切换脚本
password=123456
##设置mysql中root用户的密码,这个密码是前文中创建监控用户的那个密码
ping_interval=1
##设置监控主库,发送ping包的时间间隔,默认是3秒,尝试三次没有回应的时候自动进行failover
remote_workdir=/tmp
##设置远端mysql在发生切换时binlog的保存位置
repl_password=123456
##设置复制用户的密码
repl_user=myslave
##设置复制用户的用户
report_script=/usr/local/send_report
##设置发生切换后发送的报警的脚本
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.159.12 -s 192.168.159.13
##指定检查的从服务器IP地址
shutdown_script=""
##设置故障发生后关闭故障主机脚本(该脚本的主要作用是关闭主机防止发生脑裂,这里没有指定)
ssh_user=root
##设置ssh的登录用户名
user=mha
##设置监控用户
[server1]
hostname=192.168.159.11
port=3306
[server2]
candidate_master=1
##设置为候选master,设置该参数以后,发生主从切换以后将会将此从库提升为主库,即使这个从库不是集群中最新的slave
check_repl_delay=0
##默认情况下如果有一个slave落后master超过100M的relay logs的话,MHA将不会选择该slave作为一个新的master,因为对于这个slave的恢复需要花费很长时间;通过设置check_repl_delay=0,MHA触发切换在选择一个新的master的时候将会忽略复制延时,这个参数对于设置了candidate_master=1的主机非常有用,因为这个候选主机在切换的过程中一定是新的master
hostname=192.168.159.12
port=3306
[server3]
hostname=192.168.159.13
port=3306
[server default]
manager_log=/var/log/masterha/app1/manager.log
manager_workdir=/var/log/masterha/app1
master_binlog_dir=/usr/local/mysql/data
master_ip_failover_script=/usr/local/bin/master_ip_failover
master_ip_online_change_script=/usr/local/bin/master_ip_online_change
password=123456
ping_interval=1
remote_workdir=/tmp
repl_password=123456
repl_user=myslave
report_script=/usr/local/send_report
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.159.12 -s 192.168.159.13
shutdown_script=""
ssh_user=root
user=mha
[server1]
hostname=192.168.159.11
port=3306
[server2]
candidate_master=1
check_repl_delay=0
hostname=192.168.159.12
port=3306
[server3]
hostname=192.168.159.13
port=3306
(9)第一次配置需要在master节点上手动开启虚拟IP
Master(192.168.159.11)
[root@mysql1 mha4mysql-node-0.57]# /sbin/ifconfig ens33:1 192.168.159.200/24
(10)在manager节点上测试ssh无密码认证
如果正常最后会输出successfully
MHA manager(192.168.159.14)
[root@manager scripts]# masterha_check_ssh -conf=/etc/masterha/app1.cnf
(11)在manager节点上测试mysql主从连接情况
最后出现MySQL Replication Health is OK 字样说明正常。
MHA manager(192.168.159.14)
出现报错
[root@manager scripts]# masterha_check_repl -conf=/etc/masterha/app1.cnf
......
Wed Sep 28 15:03:11 2022 - [info] Checking replication health on 192.168.159.12..
Wed Sep 28 15:03:11 2022 - [info] ok.
Wed Sep 28 15:03:11 2022 - [info] Checking replication health on 192.168.159.13..
Wed Sep 28 15:03:11 2022 - [info] ok.
Wed Sep 28 15:03:11 2022 - [info] Checking master_ip_failover_script status:
Wed Sep 28 15:03:11 2022 - [info] /usr/local/bin/master_ip_failover --command=status --ssh_user=root --orig_master_host=192.168.159.11 --orig_master_ip=192.168.159.11 --orig_master_port=3306
Wed Sep 28 15:03:11 2022 - [error][/usr/local/share/perl5/MHA/MasterMonitor.pm, ln427] Error happened on checking configurations. Can't exec "/usr/local/bin/master_ip_failover": 权限不够 at /usr/local/share/perl5/MHA/ManagerUtil.pm line 68.
Wed Sep 28 15:03:11 2022 - [error][/usr/local/share/perl5/MHA/MasterMonitor.pm, ln525] Error happened on monitoring servers.
Wed Sep 28 15:03:11 2022 - [info] Got exit code 1 (Not master dead).
MySQL Replication Health is NOT OK!
Wed Sep 28 15:03:11 2022 - [error][/usr/local/share/perl5/MHA/MasterMonitor.pm, ln229] Failed to get master_ip_failover_script status with return code 1:0.
Wed Sep 28 15:03:11 2022 - [error][/usr/local/share/perl5/MHA/MasterMonitor.pm, ln427] Error happened on checking configurations. at /usr/local/bin/masterha_check_repl line 48.
Wed Sep 28 15:03:11 2022 - [error][/usr/local/share/perl5/MHA/MasterMonitor.pm, ln525] Error happened on monitoring servers.
Wed Sep 28 15:03:11 2022 - [info] Got exit code 1 (Not master dead).
MySQL Replication Health is NOT OK!
/usr/local/bin/master_ip_failover权限不够,先给与权限
报229,427,525错误是master_ip_failover配置错误
如果实验中还出现报错,删除slave节点服务器中mysql主配置文件中的“default-character-set=utf8”后重启mysqld服务。
还有几点注意的,免密,软链接等
(12)在manager节点上启动MHA
MHA manager(192.168.159.14)
[root@manager scripts]# nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &
[1] 9469
● --remove_dead_master_conf:该参数代表当发生主从切换后,老的主库的 ip 将会从配置文件中移除。
● --manager_log:日志存放位置。
● --ignore_last_failover:在缺省情况下,如果 MHA 检测到连续发生宕机,且两次宕机间隔不足 8 小时的话,则不会进行 Failover, 之所以这样限制是为了避免 ping-pong 效应。该参数代表忽略上次 MHA 触发切换产生的文件,默认情况下,MHA 发生切换后会在日志记目录,也就是上面设置的日志app1.failover.complete文件,下次再次切换的时候如果发现该目录下存在该文件将不允许触发切换,除非在第一次切换后收到删除该文件,为了方便,这里设置为--ignore_last_failover。
(13)查看MHA状态,可以看到当前的master是MySQL1节点
MHA manager(192.168.159.14)
[root@manager scripts]# masterha_check_status --conf=/etc/masterha/app1.cnf
(14)查看MHA日志,也可以看到当前的master
[root@manager bin]# cat /var/log/masterha/app1/manager.log | grep "current master"
(15)查看MySQL1的 VIP地址192.168.159.200是否存在,这个VIP地址不会因为manager节点停止MHA服务而消失
Master(192.168.159.11)
[root@mysql1 mha4mysql-node-0.57]# ifconfig
(16)关闭manager服务
若要关闭 manager 服务,可以使用如下命令。
masterha_stop --conf=/etc/masterha/app1.cnf
[root@manager scripts]# masterha_stop --conf=/etc/masterha/app1.cnf
或者可以直接采用 kill 进程 ID 的方式关闭。
[root@manager scripts]# nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &
##启动manager
[root@manager scripts]# kill 10387
##杀死进程
[root@manager scripts]# masterha_check_status --conf=/etc/masterha/app1.cnf
##查看状态为已停止
2. 故障模拟与修复
(1)故障模拟
①在manager节点上监控观察日志记录
MHA manager(192.168.159.14)
[root@manager scripts]# tail -f /var/log/masterha/app1/manager.log
②在Master节点mysql1上停止mysql服务
Master(192.168.159.11)
[root@mysql1 mha4mysql-node-0.57]# systemctl stop mysqld
或
[root@mysql1 mha4mysql-node-0.57]# pkill -9 mysql
③MHA快速调整新Master为mysql2节点服务器
MHA manager(192.168.159.14)
④查看manager的app1.cnf文件
MHA manager(192.168.159.14)
正常自动切换一次后,MHA 进程会退出。HMA 会自动修改 app1.cnf 文件内容,将宕机的 mysql1 节点删除。
⑤查看mysql2是否接管VIP
Slave1(192.168.159.12)
[root@mysql2 mha4mysql-node-0.57]# ifconfig
称为新master后成功接管VIP
(2)故障切换备选主库的算法
- 一般判断从库的是从(position/GTID)判断优劣,数据有差异,最接近于master的slave,成为备选主。
- 数据一致的情况下,按照配置文件顺序,选择备选主库。
- 设定有权重(candidate_master=1),按照权重强制指定备选主。
● 默认情况下如果一个slave落后master 100M的relay logs的话,即使有权重,也会失效。
● 如果check_repl_delay=0的话,即使落后很多日志,也强制选择其为备选主。
(3)故障修复步骤
①修复mysql
Master(192.168.159.11)
[root@mysql1 mha4mysql-node-0.57]# systemctl restart mysqld
②修复主从
在现主库服务器mysql2查看二进制文件和同步点
Slave1(192.168.159.12)
[root@mysql2 mha4mysql-node-0.57]# mysql -uroot -p123456
mysql> show master status;
在原主库服务器mysql1执行同步操作
Master(192.168.159.11)
[root@mysql1 mha4mysql-node-0.57]# mysql -u root -p123456
mysql> change master to
master_host='192.168.159.11',
master_user='myslave',
master_password='123456',
master_log_file='master-bin.000001',
master_log_pos=1747;
mysql> start slave;
③在manager节点上修改配置文件app1.cnf
将mysql1的记录添加回去,因为测试故障时已被自动删除
MHA manager(192.168.159.14)
[root@manager scripts]# vim /etc/masterha/app1.cnf
④在manager节点上启动MHA
MHA manager(192.168.159.14)
[root@manager scripts]# nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &
[1] 12884
[root@manager scripts]# masterha_check_status --conf=/etc/masterha/app1.cnf
app1 (pid:12884) is running(0:PING_OK), master:192.168.159.11
此时master仍是mysql2节点,如若需要让mysql1重新成为master,停止mysql2节点的mysql服务即可。
mysql1获得mater地位以及VIP后,重新启动mysql2的mysql服务,并添加进slave集群中。