一 序言
在运维MySQL数据库时,DBA会接收的比较多关于主备延时的报警:
check_ins_slave_lag (err_cnt:1)critical-slavelag on ins:3306=39438
相信 slave 延迟是MySQL dba 遇到的一个老生长谈的问题了。我们先来分析一下slave延迟带来的风险
本文主要探讨如何解决 ,如何规避 slave 延迟的问题,接下来我们要分析一下导致备库延迟的几种原因
二 slave延迟的场景以及解决方法
1 无主键、无索引或索引区分度不高.
有如下特征
a. show slave status 显示position一直没有变
b. show open tables 显示某个表一直是 in_use 为 1
c. show create table 查看表结构可以看到无主键,或者无任何索引,或者索引区分度很差。
解决方法:
a. 找到表区分度比较高的几个字段, 可以使用这个方法判断:
select count(*) from xx;
select count(*) from (select distinct xx from xxx) t;
如果2个查询count(*)的结果差不多,说明可以对这些字段加索引
b. 备库stop slave;
可能会执行比较久,因为需要回滚事务。
c. 备库
set global slave_rows_search_algorithms='TABLE_SCAN,INDEX_SCAN,HASH_SCAN';
或者
set sql_log_bin=0;
alter table xx add key xx(xx);
d. 备库start slave
如果是innodb,可以通过show innodb status来查看 rows_inserted,updated,deleted,selected这几个指标来判断。
如果每秒修改的记录数比较多,说明复制正在以比较快的速度执行。
其实针对无索引的表 可以直接调整从库上的参数 slave_rows_search_algorithms.(这个参数在另外一篇文章说明)
2 主库上有大事务,导致从库延时
现象解析binlog 发现类似于下图的情况看
解决方法****
事前防范,与开发沟通,增加缓存,异步写入数据库,减少业务直接对db的大事务写入。
事中补救,调整数据库中io相关的参数比如innodb_flush_log_at_trx_commit和sync_binlog 或者打开并行复制功能。
3 主库写入频繁,从库压力跟不上导致延时
此类原因的主要现象是数据库的 IUD 操作非常多,slave由于sql_thread单线程的原因追不上主库。
解决方法:
a 升级从库的硬件配置,比如ssd,fio.
b 使用@丁奇的预热工具-relay fetch(已经不再维护)
在备库sql线程执行更新之前,预先将相应的数据加载到内存中,并不能提高sql_thread线程执行sql的能力,
也不能加快io_thread线程读取日志的速度。
c 使用多线程复制 阿里MySQL团队实现的方案--基于行的并行复制。
该方案允许对同一张表进行修改的两个事务并行执行,只要这两个事务修改了表中的不同的行。
这个方案可以达到事务间更高的并发度,但是局限是必须使用Row格式的binlog。
因为只有使用Row格式的binlog才可以知道一个事务所修改的行的范围,而使用Statement格式的binlog只能知道修改的表对象。
</code><p><code class="language-none" style="-webkit-print-color-adjust: exact;border-width: initial;border-style: none;border-color: initial;background-color: transparent;border-radius: 3px;">
</code></p>`d 官方的并行复制方案(后面会简单讨论)`</pre>
<h4 style="-webkit-print-color-adjust: exact;margin-top: 20px;margin-bottom: 10px;font-weight: bold;-webkit-font-smoothing: antialiased;cursor: text;caret-color: rgb(0, 0, 0);color: rgb(0, 0, 0);font-family: Helvetica, arial, sans-serif;text-align: start;white-space: normal;text-size-adjust: auto;background-color: rgb(255, 255, 255);">4 数据库中存在大量myisam表,在备份的时候导致slave 延迟</h4>
由于xtrabackup 工具备份到最后会执行flash tables with read lock ,对数据库进行锁表以便进行一致性备份,然后对于myisam表 锁,会阻碍salve_sql_thread 停滞运行进而导致hang
该问题目前的比较好的解决方式是修改表结构为innodb存储引擎的表。
<h3 style="-webkit-print-color-adjust: exact;margin-top: 20px;margin-bottom: 10px;font-weight: bold;-webkit-font-smoothing: antialiased;cursor: text;font-size: 18px;caret-color: rgb(0, 0, 0);color: rgb(0, 0, 0);font-family: Helvetica, arial, sans-serif;text-align: start;white-space: normal;text-size-adjust: auto;background-color: rgb(255, 255, 255);">三 MySQL 的改进</h3>
为了解决复制延迟的问题,MySQL 也在不遗余力的解决主从复制的性能瓶颈,研发高效的复制算法。
<h4 style="-webkit-print-color-adjust: exact;margin-top: 20px;margin-bottom: 10px;font-weight: bold;-webkit-font-smoothing: antialiased;cursor: text;caret-color: rgb(0, 0, 0);color: rgb(0, 0, 0);font-family: Helvetica, arial, sans-serif;text-align: start;white-space: normal;text-size-adjust: auto;background-color: rgb(255, 255, 255);">3.1 基于组提交的并行复制</h4>
MySQL的复制机制大致原理是:slave 通过io_thread 将主库的binlog拉到从库并写入relay log,由SQL THREAD 读出来relay log并进行重放。当主库写入并发写入压力很大,也即N:1的情形,slave 就可能会出现延迟。MySQL 5.6 版本提供并行复制功能,slave复制相关的线程由io_thread,coordinator_thread,worker构成,其中:
**coordinator_thread** 负责读取 relay log,将读取的binlog event以事务为单位分发到各个 worker thread 进行执行,并在必要时执行binlog event,比如是DDL 或者跨库事务的时候。
**worker_thread**:执行分配到的binlog event,各个线程之间互不影响,具体worker_thread 的个数由slave_parallel_workers决定。 需要注意的是 dbname 与 worker 线程的绑定信息在一个hash表中进行维护,hash表以entry为单位,entry中记录当前entry所代表的数据库名,有多少个事务相关的已被分发,执行这些事务的worker thread等信息。
分配线程是以数据库名进行分发的,当一个实例中只有一个数据库的时候,不会对性能有提高,相反,由于增加额外的操作,性能还会有一点回退。 MySQL 5.7 版本提供基于组提交的并行复制,通过设置如下参数来启用并行复制。
<blockquote style="-webkit-print-color-adjust: exact;margin-top: 15px;margin-bottom: 15px;border-left-width: 4px;border-left-color: rgb(221, 221, 221);padding-top: 0px;padding-right: 15px;padding-left: 15px;color: rgb(119, 119, 119);font-family: Helvetica, arial, sans-serif;font-size: 14px;text-align: start;white-space: normal;text-size-adjust: auto;background-color: rgb(255, 255, 255);">
slave_parallel_workers0
global.slave_parallel_type='LOGICAL_CLOCK'
</blockquote>
即主库在ordered_commit中的第二阶段,**将同一批commit的 binlog 打上一个相同的last_committed标签,last_committed相同的事务在备库是可以并行执行的,因此大大简化了并行复制的逻辑**,并解决相同DB的事务不能并行执行的限制。备库在执行时,具有同一last_committed的事务在备库可以并行的执行,互不干扰,这样的实现方式大大提高slave 应用relay log的速度。 默认是DATABASE 模式的,需要调整或者在my.cnf中配置
<pre style="-webkit-print-color-adjust: exact;margin-top: 15px;margin-bottom: 15px;background-color: rgb(248, 248, 248);border-width: 1px;border-style: solid;border-color: rgb(204, 204, 204);font-size: 13px;line-height: 19px;overflow: auto;padding: 6px 10px;border-radius: 3px;"><code class="language-none" style="-webkit-print-color-adjust: exact;border-width: initial;border-style: none;border-color: initial;background-color: transparent;border-radius: 3px;">mysql show variables like 'slave_parallel%';
+------------------------+----------+
| Variable_name | Value |
+------------------------+----------+
| slave_parallel_type | DATABASE |
| slave_parallel_workers | 4 |
+------------------------+----------+
2 rows in set (0.00 sec)
mysql STOP SLAVE SQL_THREAD;
Query OK, 0 rows affected (0.00 sec)
mysql set global slave_parallel_type='LOGICAL_CLOCK';
Query OK, 0 rows affected (0.00 sec)
mysql START SLAVE SQL_THREAD;
Query OK, 0 rows affected (0.01 sec)
该问题目前的比较好的解决方式是修改表结构为innodb存储引擎的表。
MySQL的复制机制大致原理是:slave 通过io_thread 将主库的binlog拉到从库并写入relay log,由SQL THREAD 读出来relay log并进行重放。当主库写入并发写入压力很大,也即N:1的情形,slave 就可能会出现延迟。MySQL 5.6 版本提供并行复制功能,slave复制相关的线程由io_thread,coordinator_thread,worker构成,其中:
worker_thread:执行分配到的binlog event,各个线程之间互不影响,具体worker_thread 的个数由slave_parallel_workers决定。 需要注意的是 dbname 与 worker 线程的绑定信息在一个hash表中进行维护,hash表以entry为单位,entry中记录当前entry所代表的数据库名,有多少个事务相关的已被分发,执行这些事务的worker thread等信息。
即主库在ordered_commit中的第二阶段,将同一批commit的 binlog 打上一个相同的last_committed标签,last_committed相同的事务在备库是可以并行执行的,因此大大简化了并行复制的逻辑,并解决相同DB的事务不能并行执行的限制。备库在执行时,具有同一last_committed的事务在备库可以并行的执行,互不干扰,这样的实现方式大大提高slave 应用relay log的速度。 默认是DATABASE 模式的,需要调整或者在my.cnf中配置
启用并行复制之后查看processlist,系统多了四个线程 Waiting for an event from Coordinator .(手机用户推荐横屏查看)
mysql show processlist;
+----+-------------+-----------------+------+---------+------+-----------------------------------------+------------------+
| Id | User | Host | db | Command | Time | State | Info |
+----+-------------+-----------------+------+---------+------+-----------------------------------------+------------------+
| 9 | root | localhost:40270 | NULL | Query | 0 | starting | show processlist |
| 10 | system user | | NULL | Connect | 1697 | Waiting for master to send event | NULL |
| 31 | system user | | NULL | Connect | 5 | Slave has read all relay log;waiting for more updates| NULL|
| 32 | system user | | NULL | Connect | 5 | Waiting for an event from Coordinator | NULL |
| 33 | system user | | NULL | Connect | 5 | Waiting for an event from Coordinator | NULL |
| 34 | system user | | NULL | Connect | 5 | Waiting for an event from Coordinator | NULL |
| 35 | system user | | NULL | Connect | 5 | Waiting for an event from Coordinator | NULL |
+----+-------------+-----------------+------+---------+------+------------------------------------------------------------+
7 rows in set (0.00 sec)
核心参数:
binlog_group_commit_sync_no_delay_count:一组里面有多少事物才提交,单位 (ms)
binlog_group_commit_sync_delay:等待多少时间后才进行组提交
3.2 基于写集合的并行复制
其实从 MySQL5.7.22 就提供基于write set的复制优化策略。WriteSet并行复制的思想是:不同事务的不同记录不重叠,则都可在从机上并行回放,可以看到并行的力度从组提交细化为记录级。不想看官方文档的话,大家可以看看姜老师的文章
通过一个简单的例子来看看基于writeset并行复制的binlog的变化。测试更新3行数据,同一个表的不同事务有2个last_committed值,其中1个0 ,3个1。(last_committed是从0开始的。) 相同的 last_committed的事务是可以并行复制的。
set global binlog_transaction_dependency_tracking = ‘WRITESET’;
#190416 21:22:36 Anonymous_GTID last_committed=0 sequence_number=1
BEGIN
### INSERT INTO `test`.`x`
### SET
### @1=113 /* INT meta=0 nullable=0 is_null=0 */
### @2=16 /* INT meta=0 nullable=0 is_null=0 */
### @3=16 /* INT meta=0 nullable=0 is_null=0 */
# at 402
#190416 21:22:36 server id 1 end_log_pos 433 CRC32 0x60773748 Xid = 78
COMMIT/*!*/;
# at 433
#190416 21:22:40 Anonymous_GTID last_committed=1 sequence_number=2
BEGIN
### INSERT INTO `test`.`x`
### SET
### @1=114 /* INT meta=0 nullable=0 is_null=0 */
### @2=17 /* INT meta=0 nullable=0 is_null=0 */
### @3=17 /* INT meta=0 nullable=0 is_null=0 */
COMMIT/*!*/;
#190416 21:22:45 Anonymous_GTID last_committed=1 sequence_number=3
BEGIN
### INSERT INTO `test`.`x`
### SET
### @1=115 /* INT meta=0 nullable=0 is_null=0 */
### @2=18 /* INT meta=0 nullable=0 is_null=0 */
### @3=18 /* INT meta=0 nullable=0 is_null=0 */
COMMIT/*!*/;
#190416 21:22:49 Anonymous_GTID last_committed=1 sequence_number=4
BEGIN
### INSERT INTO `test`.`x`
### SET
### @1=116 /* INT meta=0 nullable=0 is_null=0 */
### @2=19 /* INT meta=0 nullable=0 is_null=0 */
### @3=19 /* INT meta=0 nullable=0 is_null=0 */
COMMIT/*!*/;
# at 1267
#190416 21:22:56 Anonymous_GTID last_committed=1 sequence_number=5
BEGIN
### INSERT INTO `test`.`x`
### SET
### @1=117 /* INT meta=0 nullable=0 is_null=0 */
### @2=20 /* INT meta=0 nullable=0 is_null=0 */
### @3=20 /* INT meta=0 nullable=0 is_null=0 */
COMMIT/*!*/;
作为对比我们看看设置基于组提交复制的时候的情形:
set global binlog_transaction_dependency_tracking = ‘COMMIT_ORDER’;
#190416 21:23:28 last_committed=0 sequence_number=1
BEGIN
### INSERT INTO `test`.`x`
### SET
### @1=118 /* INT meta=0 nullable=0 is_null=0 */
### @2=21 /* INT meta=0 nullable=0 is_null=0 */
### @3=21 /* INT meta=0 nullable=0 is_null=0 */
COMMIT/*!*/;
#190416 21:23:35 last_committed=1 sequence_number=2
BEGIN
### INSERT INTO `test`.`x`
### SET
### @1=119 /* INT meta=0 nullable=0 is_null=0 */
### @2=22 /* INT meta=0 nullable=0 is_null=0 */
### @3=22 /* INT meta=0 nullable=0 is_null=0 */
COMMIT/*!*/;
#190416 21:23:38 last_committed=2 sequence_number=3
BEGIN
### INSERT INTO `test`.`x`
### SET
### @1=120 /* INT meta=0 nullable=0 is_null=0 */
### @2=23 /* INT meta=0 nullable=0 is_null=0 */
### @3=23 /* INT meta=0 nullable=0 is_null=0 */
COMMIT/*!*/;
#190416 21:23:41 last_committed=3 sequence_number=4
BEGIN
### INSERT INTO `test`.`x`
### SET
### @1=121 /* INT meta=0 nullable=0 is_null=0 */
### @2=24 /* INT meta=0 nullable=0 is_null=0 */
### @3=24 /* INT meta=0 nullable=0 is_null=0 */
COMMIT/*!*/;
#190416 21:23:44 last_committed=4 sequence_number=5
BEGIN
### INSERT INTO `test`.`x`
### SET
### @1=122 /* INT meta=0 nullable=0 is_null=0 */
### @2=25 /* INT meta=0 nullable=0 is_null=0 */
### @3=25 /* INT meta=0 nullable=0 is_null=0 */
COMMIT/*!*/;
关于性能,废话不多说,直接上性能压测图:
从图中可以看出并发小于32时,writeset性能优势非常明显。** 当然大部分业务的并发估计都小于16吧。**
四 总结
slave 延迟的原因可以归结为slave apply binlog的速度跟不上主库写入的速度,如何解决复制延迟呢?其实也是如何提高MySQL写速度的问题。从目前的硬件和软件的发展来看,硬件存储由之前的HDD机械硬盘发展到现在的SSD,PCI-E SSD,再到NVM Express(NVMe),IO性能一直在提升。软件层面MySQL的主从复制也从单线程复制到不同算法的并行复制(基于库,事务,行),应用binlog的速度也越来越快。
本文归纳从几个常见的复制延迟场景,有可能还不完整,也欢迎大家留言讨论。
五 拓展阅读
[1] 一种MySQL主从同步加速方案-改进
https://dinglin.iteye.com/blog/1187154
[2] MySQL多线程同步MySQL-Transfer介绍(已经不在维护)
https://dinglin.iteye.com/blog/1581877
[3] MySQL 并行复制演进及 MySQL 8.0 中基于 WriteSet 的优化
https://www.cnblogs.com/DataArt/p/10240093.html
[4]
[5] https://mysqlhighavailability.com/improving-the-parallel-applier-with-writeset-based-dependency-tracking/ –性能压测图来此此文
推荐阅读:
原文始发于微信公众号(yangyidba):