当前位置: 代码网 > it编程>数据库>Mysql > MySQL gh-ost DDL 变更工具的实现

MySQL gh-ost DDL 变更工具的实现

2025年02月20日 Mysql 我要评论
1. mdl 锁介绍mysql 的锁可以分为四类:mdl 锁、表锁、行锁、gap 锁,其中除了 mdl 锁是在 server 层加的之外,其它三种都是在 innodb 层加的。下面主要介绍一下:mdl

1. mdl 锁介绍

mysql 的锁可以分为四类:mdl 锁、表锁、行锁、gap 锁,其中除了 mdl 锁是在 server 层加的之外,其它三种都是在 innodb 层加的。

下面主要介绍一下:mdl 元数据锁,主要作用就是维护 ddl 过程中数据的安全性 & 正确性。

当对一个表进行 dml 时,需要加 mdl 读锁,当需要对一张表结构进行变更时,需要加 mdl 写锁。读锁之间不互斥,即可以多个线程对一张表进行并发增删改。读写锁与写锁,之间是互斥的,用来保证变更表结构操作的安全性。因此,如果有两个线程要同时给一个表加字段,其中一个要等另一个执行完才能开始执行。

读操作与写操作,都需要加 mdl 读锁,而 ddl 需要加 mdl 写锁,两者互斥的,那么 online ddl 如何保障并发 dml 呢,这里就要介绍 online ddl 加锁过程:

  • 首先,在开始进行 ddl 时,需要拿到对应表的 mdl 写锁,然后进行一系列的准备工作;
  • 然后mdl 写锁降级为mdl 读锁,开始真正的 ddl;
  • 最后再次将 mdl 读锁升级为 mdl 写锁,完成 ddl 操作,释放 mdl 锁;

其中第二阶段占用了 ddl 整个过程的大量时间,在这段时间 ddl 才是真正的 online。

那么问题来了,如果有一个大查询持有 mdl 读锁,那么我们此时进行一个 ddl 操作后,因为查询持有读锁,ddl 需要加写锁,所以变更必须等待查询结束才能进行,此时再进行一个查询就会被卡住,请看案例👇

session 1session 2session 3session 4
begin;select * from sbtest1 limit 5;
select * from sbtest1 limit 5;
alter table sbtest1 drop column fantasy ,algorithm=inplace, lock=none; ❌
select * from sbtest1 limit 5; ❌

session 1 开启一个事物,执行一条查询,此时 session 1 持有 mdl 读锁;
session 2 也执行一条查询,执行一条查询,正常执行;
session 3 执行一条 ddl 语句,因为需要 mdl 写锁,被 session 1 读锁;
session 4 执行一条查询,因为需要读锁,但是因为 session 3 也处于等待状态,后面的增删改查都处于等待状态。也就是说这张表完全不可用了。

即使变更支持 online 也非常怕长事务,所以生产环境大表变更前,我们可以去查会话和 innodb_trx 表,确认没有长事务,避免变更被 mdl 读锁堵塞。

看了上面的案例,我们理想状态下 ddl 变更是什么样的呢?

  • ddl 请求锁时可以带上超时时间,即使拿不到锁也不会影响后面的业务语句;
  • 对数据库的性能影响最小,大表变更非常令人头疼;
  • 不会给从库带来太大延迟,大表变更后从库往往延迟十几分钟,读写分离的话会影响业务查询;

2. 变更工具

mysql 变更比较常用的工具有大名鼎鼎的 pt 生态 **percona pt-online-schema-change **和 facebook osc 但是它们都是基于触发器来实现的,简单来讲就是通过数据库的触发器把作用在源表的操作在一个事务内同步到修改后的表中,这在业务高峰期时会极大的加重主库的负载。

gh-ost 是由 github 开发的一款开源 **online ddl **工具,使用订阅和过滤 binlog 的方式代替原来的触发器来做的增量数据同步,这样可以降低主库负载,异步的执行。

使用 gh-ost 的优点

  • 不会给主库带来太大负载;
  • 不会导致从库有太大延迟,大表变更经常会导致从库延迟很长时间;
  • 支持阿里云 rds,为云上变更提供了参数 –aliyun-rds;
  • 通过 binlog 实现增量数据的获取,基本做到了原子性的切换;
  • 可暂停,动态控制限流,切换时间可设定;

限制:

  • 使用 dts 做数据同步,可能会导致同步失败,仅影响同步对象;
  • 不能对外键关系及触发器的表进行 online ddl;
  • 若有同名但是字母大小写不同的表则无法进行修改;
  • 表必须有主键或者唯一索引;

3. gh-ost 原理解析

官方图解 (https://github.com/github/gh-ost)

在这里插入图片描述

主要执行过程:

  • 检查是否有外键触发器及主键信息;
  • 检查是否主库或从库,是否开启 log_slave_updates 以及 binlog 信息;
  • 检查 gho 和 ghc 结尾的临时表是否存在;
  • 创建 ghc 结尾的表,存数据迁移的信息,以及 binlog 信息等;
  • 初始化 stream 的连接,添加 binlog 的监听;
  • 根据 alter 语句创建 gho 结尾的幽灵表;
  • 开启迁移数据,按照主键把源表数据写入到 gho 结尾的表上,以及 binlog apply;
  • 进入 cut-over 阶段,锁住主库的源表,等待 binlog 应用完毕,然后替换 gh-ost 表为源表;
  • 清理 ghc 表,删除 socket 文件。

cut-over 即表 rename 阶段,gh-ost 利用了 mysql 的一个特性,原子性的 rename 请求,在所有被 blocked 的请求中,rename 优先级永远是最高的。gh-ost 基于此设计了该方案:一个连接对原表加锁,另启一个连接尝试 rename 操作,此时会被阻塞住,当释放 lock 的时候,rename 会首先被执行,其他被阻塞的请求会继续应用到新表。

4. 安装部署

下载地址 gh-ost ga 版本存档 二进制包,开箱即用。

请添加图片描述

5. 操作演示

5.1. 重点参数介绍

下面介绍 gh-ost 中重点参数:

  • -execute:如果不添加该参数,仅进行环境检查测试,不实际执行;
  • -assume-rbr:如果用户没有 super 权限的话,需要加上这个参数,这样 gh-ost 会认为 binlog 本身就是 row 模式,不会再去修改;
  • -max-load:可以添加一些 mysql 状态变量阈值,例如:--max-load=threads_running=20则表示 mysql 线程数大于 20 则进入限流模式,使用逗号分隔指定多个状态变量;
  • -critical-load:可以添加一些 mysql 状态变量阈值,如果超过阈值则暂停工作,等待一段时间后重试,由 -critical-load-interval-milli来设置等待多少毫秒;
  • -chunk-size:在每次迭代中处理的行数量(允许范围:100-100000),默认值为1000;
  • -dml-batch-size:在单个事务中应用 dml 事件的批量大小(范围1-100),默认值为10;
  • -cut-over-lock-timeout-seconds:gh-ost 在 cut-over 阶段最大锁等待时间,当锁超时时,gh-ost 的 cut-over 将重试;
  • -discard-foreign-keys:有风险,加上该参数,表如果与外键约束,幽灵表迁移后不会保留,如果是故意想清理外键时,比较有用;
  • -exact-rowcount:如果指定该参数,则使用 select count() 来统计表行数,不添加则是使用 explain 来预估行数,会影响进度统计,大表 count() 还是有风险的,建议不使用;
  • -heartbeat-interval-millis:多久写入一条日志信息,默认 100 毫秒;
  • -ok-to-drop-table:切换完成后,是否删除源表?drop 大表是一个非常消耗 io 的操作,默认切换后不删除源表,如果需要切换完成立即删除源表需要指定该参数;
  • -timestamp-old-table:在旧表名中使用时间戳。这会使旧表名称具有唯一且无冲突的交叉迁移;
  • -postpone-cut-over-flag-file:创建 flag 文件,表迁移完成后,进入等待 cut-over 阶段,直到该文件被删除,通过该参数用户可以自定义切换时间;
  • -panic-flag-file:当该文件被创建,则立即停止 gh-ost 工作,直接停止,不会进行环境清理;
  • -throttle-additional-flag-file:当该文件被创建,则暂停 gh-ost 工作;
  • -aliyun-rds:阿里云 rds 使用需要添加该参数,可以绕开非法字符校验,正常使用。

上面就是常用的参数,用户可以控制切换时间,锁超时时间,以及迁移阶段对源库的负载。除此之外 gh-ost 还有三种操作模式:

  • 连接到从库,在主库做迁移;
  • 直接在主库上面操作;
  • 在从库上修改和测试;

请添加图片描述

大部分变更我们使用 connect to master 模式,其它两种模式感兴趣详细可以参数官方文档,在此不详细介绍:https://github.com/github/gh-ost/blob/master/doc/cheatsheet.md

5.2. 执行变更

/myinstall/gh-ost \
--max-load=threads_running=30 \
--critical-load=threads_running=50 \
--critical-load-interval-millis=5000 \
--chunk-size=1000 \
--dml-batch-size=10 \
--user="cooh" \
--password="112233" \
--host='127.0.0.1' \
--port=3306 \
--database="sbtest" \
--table="sbtest1" \
--alter="engine=innodb" \
--verbose \
--assume-rbr \
--cut-over=default \
--cut-over-lock-timeout-seconds=1 \
--allow-on-master \
--concurrent-rowcount \
--default-retries=30 \
--heartbeat-interval-millis=2000 \
--panic-flag-file=/myinstall/ddl_room/ghost.panic.flag \
--postpone-cut-over-flag-file=/myinstall/ddl_room/ghost.postpone.flag \
--serve-socket-file=/myinstall/ddl_room/ghost.sock \
--throttle-additional-flag-file=/myinstall/ddl_room/ghost.pause.flag \
--timestamp-old-table \
--execute 2>&1 | tee  /myinstall/ddl_room/ddl_sbtest1.log &
# 参数解释和设置技巧
# 这两个参数可以先使用 show status like 'threads_running'; 
# 了解平时数据库线程数,再进行设置。
--max-load=threads_running=30
--critical-load=threads_running=50
# 下面两个参数影响着迁移阶段的速度,如果开启后观察数据库压力较大,可以动态调整
--chunk-size=1000
--dml-batch-size=10
# 各种操作在 panick 前重试次数,默认 60 次
--default-retries
# 切换完成后,给源表添加时间戳,如果不要求切换完立即删除源表,建议使用该参数
--timestamp-old-table
# 切换完后,立即删除源表,如果表比较大会影响 io 可根据实际情况设定
--ok-to-drop-table
# 设置暂停、退出 flag 的文件位置,建议为 gh-ost 创建一个单独文件夹存放 flag 文件
--panic-flag-file
--throttle-additional-flag-file
--serve-socket-file
# 如果想自定义切换时间,可以使用该参数,常被嵌入自动化 ddl 平台
--postpone-cut-over-flag-file
# 步骤失败后,重试次数,例如切换获取锁,尝试多少次,如果一直没有则终止任务
--default-retries

执行 ddl:操作过程中会自动创建两个中间状态表 _gho 幽灵表也就是目标表,_ghc 是记录 gh-ost 执行状态的表:

cooh@mysql 16:36:  [sbtest]>show tables;
+------------------+
| tables_in_sbtest |
+------------------+
| _sbtest1_ghc     |
| _sbtest1_gho     |
| sbtest1          |
+------------------+
3 rows in set (0.00 sec)

可以通过查询 _ghc 表来查询变更进度和状态:

cooh@mysql 16:40:  [sbtest]>select * from _sbtest1_ghc order by id desc limit 1\g
*************************** 1. row ***************************
         id: 344
last_update: 2022-04-06 16:40:12
       hint: copy iteration 100 at 1649234412
      value: copy: 99999/99999 100.0%; applied: 0; backlog: 0/1000; time: 4m0s(total), 2s(copy); streamer: mysql-bin.000005:344430440; lag: 0.99s, heartbeatlag: 1.00s, state: postponing cut-over; eta: due
1 row in set (0.00 sec)


copy: 99999/99999 100.0%; 需要迁移 99999 行,目前已迁移 99999 行,进度 100.0%
applied: 0,指在二进制日志中处理的 event 数量。在上面的例子中,迁移表没有流量,因此没有被处理日志 event。
backlog: 0/1000,表示我们在读取二进制日志方面表现良好,在二进制日志队列中没有任何积压(backlog)事件。
backlog: 7/1000,当复制行时,在二进制日志中积压了一些事件,并且需要应用。
backlog: 1000/1000,表示我们的 1000 个事件的缓冲区已满(程序写死的 1000 个事件缓冲区,低版本是 100 个)此时就注意 binlog 写入量非常大,gh-ost 处理不过来 event 了,可能需要暂停 binlog 读取,需要优先应用缓冲区的事件。
state: 目前 gh-ost 的状态
streamer: mysql-bin.000005:344430440; 表示当前已经应用到 binlog 文件位置

此时状态为:postponing cut-over 即等待切换,因为我们使用
--postpone-cut-over-flag-file=/myinstall/ddl_room/ghost.postpone.flag 参数,由用户来控制切换时间,如果我们不删除 ghost.postpone.flag 就会一直处理等待状态,我们删除后:

copy: 99999/99999 100.0%; applied: 0; backlog: 0/1000; time: 8m38s(total), 2s(copy); streamer: mysql-bin.000005:344547927; lag: 0.99s, heartbeatlag: 0.04s, state: migrating; eta: due
2022-04-06 16:44:50 info setting rename timeout as 1 seconds
2022-04-06 16:44:50 info session renaming tables is 200
2022-04-06 16:44:50 info issuing and expecting this to block: rename /* gh-ost */ table `sbtest`.`sbtest1` to `sbtest`.`_sbtest1_20220406163612_del`, `sbtest`.`_sbtest1_gho` to `sbtest`.`sbtest1`
2022-04-06 16:44:50 info found atomic rename to be blocking, as expected. double checking the lock is still in place (though i don't strictly have to)
2022-04-06 16:44:50 info checking session lock: gh-ost.194.lock
2022-04-06 16:44:50 info connection holding lock on original table still exists
2022-04-06 16:44:50 info will now proceed to drop magic table and unlock tables
2022-04-06 16:44:50 info dropping magic cut-over table
2022-04-06 16:44:50 info releasing lock from `sbtest`.`sbtest1`, `sbtest`.`_sbtest1_20220406163612_del`
2022-04-06 16:44:50 info tables unlocked
2022-04-06 16:44:50 info tables renamed
2022-04-06 16:44:50 info lock & rename duration: 1.006946435s. during this time, queries on `sbtest1` were blocked
[2022/04/06 16:44:50] [info] binlogsyncer.go:164 syncer is closing...
2022-04-06 16:44:51 info closed streamer connection. err=<nil>
2022-04-06 16:44:51 info dropping table `sbtest`.`_sbtest1_ghc`
[2022/04/06 16:44:51] [error] binlogsyncer.go:631 connection was bad
[2022/04/06 16:44:51] [error] binlogstreamer.go:77 close sync with err: sync was closed
[2022/04/06 16:44:51] [info] binlogsyncer.go:179 syncer is closed
2022-04-06 16:44:51 info table dropped
2022-04-06 16:44:51 info am not dropping old table because i want this operation to be as live as possible. if you insist i should do it, please add `--ok-to-drop-table` next time. but i prefer you do not. to drop the old table, issue:
2022-04-06 16:44:51 info -- drop table `sbtest`.`_sbtest1_20220406163612_del`
2022-04-06 16:44:51 info done migrating `sbtest`.`sbtest1`
2022-04-06 16:44:51 info removing socket file: /myinstall/ddl_room/ghost.sock
2022-04-06 16:44:51 info tearing down inspector
2022-04-06 16:44:51 info tearing down applier
2022-04-06 16:44:51 info tearing down streamer
2022-04-06 16:44:51 info tearing down throttler
# done

表示 gh-ost 已执行完成,ghc 表已清理,源表名改为:_sbtest1_20220406163612_del

cooh@mysql 16:46:  [sbtest]>show tables;
+-----------------------------+
| tables_in_sbtest            |
+-----------------------------+
| _sbtest1_20220406163612_del |
| sbtest1                     |
+-----------------------------+
2 rows in set (0.00 sec)

5.3. 动态控制

用户可以通过操作特定的文件对正在执行的 gh-ost 进行动态控制,请看下面案例:

  • 停止 gh-ost:

    指定 --panic-flag-file=/myinstall/ddl_room/ghost.panic.flag 参数,我们通过创建 ghost.panic.flag 来终止 gh-ost。
    touch /myinstall/ddl_room/ghost.panic.flag
    会输出下面日志:
    2022-04-06 16:56:14 fatal found panic-file /myinstall/ddl_room/ghost.panic.flag. aborting without cleanup

  • 暂停/开始:

    指定 --throttle-additional-flag-file=/myinstall/ddl_room/ghost.pause.flag 参数,我们可以通过创建删除 ghost.pause.flag 文件来控制。

  • 开启限流:

    echo throttle | socat - /myinstall/ddl_room/ghost.sock
    
  • 关闭限流:

    echo no-throttle | socat - /myinstall/ddl_room/ghost.sock
    
  • 动态修改参数:

    echo chunk-size=1024 | socat - /myinstall/ddl_room/ghost.sock
    echo max-lag-millis=100 | socat - /myinstall/ddl_room/ghost.sock
    echo max-load=thread_running=23 | socat - /myinstall/ddl_room/ghost.sock
    

6. 风险提示

  • gh-ost 执行 cut-over 阶段,会短暂堵塞变更表的读写操作,可以选择业务低峰期进行切换操作,减少对业务影响。

  • 大表变更前需要注意 存储空间是否充裕,可以通过👇 sql 查询元数据。

    select table_name,
           round(sum(data_length + index_length) / 1024 / 1024, 2) as total_mb,
           round(sum(data_length) / 1024 / 1024, 2)                as data_mb,
           round(sum(index_length) / 1024 / 1024, 2)               as index_mb
    from information_schema.tables
    where table_schema = 'sbtest' and table_name = 'sbtest1'
    group by table_name;
    
    -- 输出结果:
    +------------+----------+---------+----------+
    | table_name | total_mb | data_mb | index_mb |
    +------------+----------+---------+----------+
    | sbtest1    |    24.06 |   21.55 |     2.52 |
    +------------+----------+---------+----------+
    
  • 大表变更周期长,如果一直获取不到锁,可能会变更失败,若变更失败不会影响现有的业务,但表结构变更需要重新开始,因此建议线上表仅保留线上热点活跃数据,历史数据及时归档,将表保持在一种健康状态。

  • 添加唯一索引时,会造成索引字段重复数据丢失,如果使用 mysql 原生 ddl 添加唯一索引,如果有重复值会报错 [23000][1062] duplicate entry 因为 gh-ost 在数据迁移阶段使用的是 insert ignore所以不会报错,但是索引字段的重复条目会丢失,这点需要确认风险。

到此这篇关于mysql gh-ost ddl 变更工具的实现的文章就介绍到这了,更多相关mysql gh-ost ddl 变更内容请搜索代码网以前的文章或继续浏览下面的相关文章希望大家以后多多支持代码网! 

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com