当前位置: 代码网 > it编程>数据库>Mysql > Mysql的MHA实战指南

Mysql的MHA实战指南

2025年12月10日 Mysql 我要评论
前言mha(master high availability)是 mysql 高可用领域主流方案,可实现主库故障自动切换与数据一致性保障,本文从原理到实战详解其部署与运维全流程。一、mha简介mha(

前言

mha(master high availability)是 mysql 高可用领域主流方案,可实现主库故障自动切换与数据一致性保障,本文从原理到实战详解其部署与运维全流程。

一、mha简介

  • mha(master high availability)是一套优秀的mysql高可用环境下故障切换和主从复制的软件。
  • mha 的出现就是解决mysql 单点的问题。
  • mysql故障切换过程中,mha能做到0-30秒内自动完成故障切换操作。
  • mha能在故障切换的过程中最大程度上保证数据的一致性,以达到真正意义上的高可用。

二、mha组件组成

  • mha node(数据节点)
    mha node 运行在每台 mysql 服务器上。
  • mha manager(管理节点) 检测
    mha manager 可以单独部署在一台独立的机器上,管理多个 master- slave 集群;也可以部署在一台 slave 节点上。
    mha manager 会定时探测集群中的 master 节点。当 master 出现故障时,它可以自动将最新数据的 slave 提升为新的 master 然后将所有其他的 slave 重新指向新的 master。整个故障转移过程对应用程序完全透明。

三、mha作用

  • 自动故障切换过程中,mha试图从宕机的主服务器上保存二进制日志,最大程度的保证数据不丢失
  • 使用半同步复制,可以大大降低数据丢失的风险,如果只有一个slave已经收到了最新的二进制日志,mha可以将最新的二进制日志应用于其他所有的slave服务器上,因此可以保证所有节点的数据一致性
  • 目前mha支持一主多从架构,最少三台服务,即一主两从mha manger 管理多组主从复制。

四、mha工作原理

mha工作原理总结如下:
1、从宕机崩溃的master 保存二进制日志事件(binlog events);
2、识别含有最新的更新 slave 日志
3、应用差异的中继日志(relay log)到其他的slave
4、应用从master保存的二进制日志事件
5、提升一个 salve 为新的master
6、使其他的slave连接行的master 进行复制。

五、mysql的mha实战

1、基础环境准备(搭建前提)

1.1、服务器规划和系统配置

服务器规划
mha manager 节点服务器:centos7.9 manager/192.168.10.104 安装mha node和manager组件
master节点服务器: centos7.9 mysql1/192.168.10.105 安装mysql5.7、mha node 组件
slave1节点服务器: centos7.9 mysql2/192.168.10.106 安装mysql5.7、mha node 组件
slave2节点服务器: centos7.9 mysql3/192.168.10.107 安装mysql5.7、mha node 组件

1.2、系统配置

1)关闭防火墙和selinux(四个节点服务器都配置)

systemctl stop firewalld
systemctl disable firewalld
setenforce 0
getenforce 

拓展-永久关闭增强服务配置:
vim /etc/sysconfig/selinux

2)设置主机名称和主机名解析

#1在四台节点分别更改主机名称 
hostnamectl set-hostname manager #192.168.10.104
hostnamectl set-hostname master #192.168.10.105
hostnamectl set-hostname slave1 #192.168.10.106
hostnamectl set-hostname slave2 #192.168.10.107
hostname #查看主机名称
#2设置域名解析(四个节点都设置),内容都为
vim /etc/hosts
##写入
192.168.10.104 manager
192.168.10.105 master
192.168.10.106 slave1
192.168.10.107 slave2

3)所有节点同步系统时间

yum install ntp -y 
#先关闭ntp服务,同步阿里云时间。
#防止ntpd服务开启占用udp的123端口和ntpdate冲突,导致同步失败
systemctl stop ntpd
ntpdate ntp.aliyun.com
systemctl start ntpd

成功同步时间如下所示:

为什么设置时间同步?
时间不同步会导致 binlog、复制日志时间错乱,mha 无法准确判断主从状态。

1.3、部署mysql并配置主从复制

1)编译安装mysql5.7且master开启binlog
master开启binlog(my.cnf中配置log_bin=master-bin、server-id=1,从库配置server-id=2,server-id=3)

# 1安装依赖
yum install -y gcc gcc-c++ ncurses ncurses-devel bison cmake
# 2上传文件mysql-5.7.17和boost_1_59_0到/opt/目录,解压压缩包
cd /opt
tar zxvf mysql-5.7.17.tar.gz -c /opt
tar zxvf boost_1_59_0.tar.gz -c /usr/local/
mv /usr/local/boost_1_59_0 /usr/local/boost
# 3定制mysql
cd /opt/mysql-5.7.17/
cmake \
-dcmake_install_prefix=/usr/local/mysql \
-dmysql_unix_addr=/usr/local/mysql/mysql.sock \
-dsysconfdir=/etc \
-dsystemd_pid_dir=/usr/local/mysql \
-ddefault_charset=utf8  \
-ddefault_collation=utf8_general_ci \
-dwith_extra_charsets=all \
-dwith_innobase_storage_engine=1 \
-dwith_archive_storage_engine=1 \
-dwith_blackhole_storage_engine=1 \
-dwith_perfschema_storage_engine=1 \
-dmysql_datadir=/usr/local/mysql/data \
-dwith_boost=/usr/local/boost \
-dwith_systemd=1
# 4编译安装
# make && make install
make -j 4 && make install # 4 指的是cpu核数 “nproc输出cpu核数”
# 5创建程序用户管理mysql
useradd -s /sbin/nologin mysql
chown -r mysql:mysql /usr/local/mysql/
# 6修改配置文件
#更改管理主/组
chown mysql:mysql /etc/my.cnf
vim /etc/my.cnf	
# 写入
[client]									
port = 3306
default-character-set=utf8
socket=/usr/local/mysql/mysql.sock	
[mysql]									
port = 3306
default-character-set=utf8
socket=/usr/local/mysql/mysql.sock
auto-rehash
[mysqld]
user = mysql 
basedir=/usr/local/mysql
datadir=/usr/local/mysql/data
port = 3306	
character-set-server=utf8
pid-file = /usr/local/mysql/mysqld.pid
socket=/usr/local/mysql/mysql.sock
bind-address = 0.0.0.0
skip-name-resolve
max_connections=2048
default-storage-engine=innodb
max_allowed_packet=16m
server-id = 1
sql_mode=no_engine_substitution,strict_trans_tables,no_auto_create_user,no_auto_value_on_zero,no_zero_in_date,no_zero_date,error_for_division_by_zero,pipes_as_concat,ansi_quotes
# 7 设置mysql环境变量
echo "path=$path:/usr/local/mysql/bin" >> /etc/profile
source /etc/profile
# 8初始化数据库
cd /usr/local/mysql/bin/
./mysqld \
--initialize-insecure \
--user=mysql \
--basedir=/usr/local/mysql \
--datadir=/usr/local/mysql/data
# 9 启动服务
# 将 mysql 注册为 linux 系统的 systemd 管理服务
# 复制 mysql 的 systemd 服务配置文件到系统默认目录
cp /usr/local/mysql/usr/lib/systemd/system/mysqld.service /usr/lib/systemd/system/
systemctl daemon-reload         #刷新识别     
systemctl start mysqld.service  #开启服务
systemctl enable mysqld         #开机自启动
netstat -anpt | grep 3306       #查看端口
# 10 设置账号密码登入
#给root账号设置密码,跳出确认选项-->直接回车
mysqladmin -u root -p password "123456" 
#登录 
mysql -u root -p123456
  1. 配置主从复制
    master服务器配置
# 1 修改my.cnf配置
vi /etc/my.cnf
# 写入
server-id = 1
log_bin=master-bin #开启二进制文件
log_slave-updates=true #开启从服务器日志同步
binlog-format=mixed
# 2 重启服务
systemctl restart mysqld
# 3 设置myslave用户,用于主从复制
mysql -uroot -p123456
grant replication slave on *.* to 'myslave'@'192.168.10.%' identified by
'123456';
flush privileges;
# 4 查看master状态,日志名称和偏移量
show master status;

slave节点配置

#1设置数据库配置文件
vi /etc/my.cnf
#写入
log_bin=master-bin #开启二进制日志文件
server_id = 22 #设置server_id。slave1为22,slave2 为23
relay-log=relay-log-bin # #从主服务器上同步日志文件记录到本地
relay-log-index=slave-relay-bin.index #定义relay-log的位置和名称(index索引)
relay_log_recovery = 1 #保证了relay-log 的完整性
#2重启mysqld和登入mysql
systemctl restart mysqld
mysql -uroot -p123456
#3给「从节点」绑定「主节点」的同步信息
change master to 
master_host='192.168.10.105',master_user='myslave',master_password='123456',master_log_file='master-bin.000001',master_log_pos=603;
#4开启从节点
start slave;
#5、查看从服务器状态
show slave status\g;

3)数据同步测试
查看master的数据库,并创建新的数据库test

查看从节点是否同步创建数据库test

1、slave1和slave2的my.cnf的[mysqld]配置:
read_only=1 # 从库只读(mha 切换主库时会自动临时关闭)
relay_log_purge=1 # 自动清理中继日志(避免磁盘满)
2、所有节点注释[client]里的
default-character-set=utf8 # mysqlbinlog 不识别该参数

1.4、在 master、slave1、slave2 节点上都创建两个软链接

ln -s /usr/local/mysql/bin/mysql /usr/sbin/ 
ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/

1.5、赋权

# master、slave1、slave2操作
grant replication slave on *.* to 'myslave'@'192.168.10.%' identified by
'123456';
# master
grant all privileges on *.* to 'mha'@'192.168.10.%' identified by 'manager';
grant all privileges on *.* to 'mha'@'master' identified by 'manager';
grant all privileges on *.* to 'mha'@'slave1' identified by 'manager';
grant all privileges on *.* to 'mha'@'slave2' identified by 'manager';
flush privileges;

2、环境依赖

2.1、安装perl相关依赖(四个节点)

yum install epel-release --nogpgcheck -y
yum install -y perl-dbd-mysql \
perl-config-tiny \
perl-log-dispatch \
perl-parallel-forkmanager \
perl-extutils-cbuilder \
perl-extutils-makemaker \
perl-cpan

2.2、配置ssh免密登入

在所有服务器上配置互相无密码认证

(1)在 manager 节点上配置到所有数据库节点的无密码认证
ssh-keygen -t rsa #一路按回车键
ssh-copy-id 192.168.10.105
ssh-copy-id 192.168.10.106
ssh-copy-id 192.168.10.107
(2)在 master 上配置到数据库节点 slave1 和 slave2 的无密码认证
ssh-keygen -t rsa #一路按回车键
ssh-copy-id 192.168.10.106
ssh-copy-id 192.168.10.107
(3)在 slave1 上配置到数据库节点 master 和 slave2 的无密码认证
ssh-keygen -t rsa #一路按回车键
ssh-copy-id 192.168.10.105
ssh-copy-id 192.168.10.107
(4)在 slave2 上配置到数据库节点 master 和 slave1 的无密码认证
ssh-keygen -t rsa #一路按回车键
ssh-copy-id 192.168.10.105
ssh-copy-id 192.168.10.106

使用ssh root@目标ip验证是否免密登入。
示例:在manager上,输入 ssh root@192.168.10.105
验证manager和master的免密登入

3、mha软件安装

3.1、安装 mha 管理端和节点端

node安装(所有节点)

# 1 所有节点先安装node组件,manager 依赖 node 组件。
# 最后在 mha-manager 节点上安装 manager 组件
# manager 上传解压node
cd /opt
tar zxvf mha4mysql-node-0.57.tar.gz
cd mha4mysql-node-0.57
perl makefile.pl #定义了编译规则、安装路径、依赖关系等关键信息。
make && make install
#### scp 远程传输压缩包到服务器
scp /opt/mha4mysql-node-0.57.tar.gz root@192.168.10.105:/opt/
scp /opt/mha4mysql-node-0.57.tar.gz root@192.168.10.106:/opt/
scp /opt/mha4mysql-node-0.57.tar.gz root@192.168.10.107:/opt/

验证结果:

ls -l /usr/local/bin/{save_binary_logs,apply_diff_relay_logs,filter_mysqlbinlog,masterha_check_repl}

安装成功node

3.2 在 mha manager 节点上安装 manager 组件

cd /opt
tar zxvf mha4mysql-manager-0.57.tar.gz
cd mha4mysql-manager-0.57
perl makefile.pl
make&&make install

4、mha核心配置

4.1、编写mha配置文件

# manager 节点上复制相关脚本到/usr/local/bin 目录
cp -rp /opt/mha4mysql-manager-0.57/samples/scripts /usr/local/bin
# 查看四个文件
ll /usr/local/bin/scripts/
# (2)复制上述的自动切换时 vip 管理的脚本到 /usr/local/bin 目录,这里使用
# master_ip_failover脚本来管理 vip 和故障切换
cp /usr/local/bin/scripts/master_ip_failover /usr/local/bin
# 修改内容如下:(删除原有内容,直接复制并修改vip相关参数)
vim /usr/local/bin/master_ip_failover
#################### 写入
#!/usr/bin/env perl
use strict;
use warnings fatal => 'all';
use getopt::long;
# 核心配置(根据集群调整)
my $vip = '192.168.10.200';        # vip地址
my $brdc = '192.168.10.255';       # 广播地址
my $ifdev = 'ens33';               # 绑定网卡
my $key = '1';                     # 虚拟网卡序号
my $ssh_port = '22';               # ssh端口(根据实际调整)
my $exit_code = 0;                 # 默认退出码
# 改用ip命令(centos7原生支持,无需net-tools),并添加arp广播
my $ssh_start_vip = "/usr/sbin/ip addr add $vip/24 brd $brdc dev $ifdev label $ifdev:$key; /usr/sbin/arping -q -a -c 1 -i $ifdev $vip; /usr/sbin/iptables -f;";
my $ssh_stop_vip = "/usr/sbin/ip addr del $vip/24 dev $ifdev label $ifdev:$key;";
# 接收命令行参数
my (
    $command, $ssh_user, $orig_master_host, $orig_master_ip,
    $orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);
getoptions(
    'command=s'          => \$command,
    'ssh_user=s'         => \$ssh_user,
    'orig_master_host=s' => \$orig_master_host,
    'orig_master_ip=s'   => \$orig_master_ip,
    'orig_master_port=i' => \$orig_master_port,
    'new_master_host=s'  => \$new_master_host,
    'new_master_ip=s'    => \$new_master_ip,
    'new_master_port=i'  => \$new_master_port,
);
exit &main();
# 主逻辑
sub main {
    print "\n\nin script test====$ssh_stop_vip==$ssh_start_vip===\n\n";
    if ( $command eq "stop" || $command eq "stopssh" ) {
        $exit_code = 1;
        eval {
            print "disabling the vip on old master: $orig_master_host \n";
            &stop_vip();
            $exit_code = 0;
        };
        if ($@) {
            warn "got error when stop vip: $@\n";
            exit $exit_code;
        }
    }
    elsif ( $command eq "start" ) {
        $exit_code = 10;
        eval {
            print "enabling the vip - $vip on the new master - $new_master_host \n";
            &start_vip();
            $exit_code = 0;
        };
        if ($@) {
            warn "got error when start vip: $@\n";
            exit $exit_code;
        }
    }
    elsif ( $command eq "status" ) {
        print "checking the status of the script.. ok \n";
        $exit_code = 0;
    }
    else {
        &usage();
        $exit_code = 1;
    }
    return $exit_code;
}
# 新主库绑定vip
sub start_vip() {
    my $ssh_cmd = "ssh -p $ssh_port $ssh_user\@$new_master_host '$ssh_start_vip'";
    print "executing: $ssh_cmd\n";
    my $output = `$ssh_cmd 2>&1`;
    if ($?) { # 检查命令执行返回码(非0则失败)
        die "failed to start vip on $new_master_host: $output\n";
    }
}
# 旧主库解绑vip
sub stop_vip() {
    my $ssh_cmd = "ssh -p $ssh_port $ssh_user\@$orig_master_host '$ssh_stop_vip'";
    print "executing: $ssh_cmd\n";
    my $output = `$ssh_cmd 2>&1`;
    if ($?) {
        die "failed to stop vip on $orig_master_host: $output\n";
    }
}
# 用法说明(修复字符串换行问题)
sub usage {
    print <<"usage";
usage: master_ip_failover --command=start|stop|stopssh|status \\
  --orig_master_host=host --orig_master_ip=ip --orig_master_port=port \\
  --new_master_host=host --new_master_ip=ip --new_master_port=port
usage
}
#(4)创建 mha 软件目录并拷贝配置文件,这里使用app1.cnf配置文件来管理 mysql 节点服务器
mkdir /etc/masterha
cp /opt/mha4mysql-manager-0.57/samples/conf/app1.cnf /etc/masterha
vim /etc/masterha/app1.cnf #删除原有内容,直接复制并修改节点服务器
############写入
[server default]
manager_log=/var/log/masterha/app1/manager.log
manager_workdir=/var/log/masterha/app1
master_binlog_dir=/usr/local/mysql/data
master_ip_failover_script=/usr/local/bin/master_ip_failover
master_ip_online_change_script=/usr/local/bin/master_ip_online_change
password=manager
ping_interval=1
remote_workdir=/tmp
repl_password=123456
repl_user=myslave
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.10.106 -s 192.168.10.107
shutdown_script=""
ssh_user=root
user=mha
[server1]
hostname=192.168.10.105
port=3306
[server2]
candidate_master=1
check_repl_delay=0
hostname=192.168.10.106
port=3306
[server3]
hostname=192.168.10.107
port=3306

4.2、验证配置有效性

/sbin/ifconfig ens33:1 192.168.10.200/24
manager 节点上测试 ssh
masterha_check_ssh -conf=/etc/masterha/app1.cnf

manager 节点上测试 mysql 主从连接
masterha_check_repl -conf=/etc/masterha/app1.cnf

在 manager 节点上启动 mha
nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf –
ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &
查看 mha 状态
masterha_check_status --conf=/etc/masterha/app1.cnf

查看 mha 日志
cat /var/log/masterha/app1/manager.log | grep “current master”
都是master 192.168.10.105

5、启动mha监控

在 manager 节点上监控观察日志记录
tail -f /var/log/masterha/app1/manager.log

总结

本文系统讲解 mha 的组件、原理与作用,通过环境准备、依赖配置、软件安装及监控部署的完整实战,为 mysql 高可用架构搭建提供可落地的实施方案。

到此这篇关于mysql的mha实战指南的文章就介绍到这了,更多相关mysql mha组件内容请搜索代码网以前的文章或继续浏览下面的相关文章希望大家以后多多支持代码网!

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com