Binlog分析利器-binlog_summary.py[亲测有效]

Binlog分析利器-binlog_summary.py[亲测有效]如何基于Binlog得到事务的大小、事务的持续时间、热点表?

Binlog分析利器-binlog_summary.py

​Binlog中,除了具体的SQL,其实,还包含了很多有价值的信息,如,

  1. 事务的开始时间。
  2. 事务的结束时间。
  3. 事务的开始位置点。
  4. 事务的结束位置点。
  5. 操作的开始时间(一个事务通常会包含多个操作)。
  6. 表的操作信息,如哪些表执行了哪些操作。

拿到上面这些信息,我们可以做哪些事情呢?

  1. 基于事务的开始位置点和结束位置点,我们可以得到事务的大小。知道了事务的大小,可用来判断它是否为大事务,是否是导致主从延迟的原因。
  2. 基于事务的开始时间和结束时间,我们可以得到事务的持续时间。
  3. 通过分析表的操作信息,可间接定位出线上的热点表。

开发了一个简单的Binlog分析工具-binlog_summary.py,可提取上面这些信息,并在此基础上,进行一些常见分析。

1. 下载地址

https://github.com/slowtech/dba-toolkit/blob/master/MySQL/binlog_summary.py

 

2. 参数解析

# python binlog_summary.py --help
usage: binlog_summary.py [-h] [-f BINLOG_TEXT_FILE] [--new]
                         [-c {tps,opr,transaction}] [--start START_DATETIME]
                         [--stop STOP_DATETIME] [--sort SORT_CONDITION] [-e]
                         [--limit LIMIT]

optional arguments:
  -h, --help            show this help message and exit
  -f BINLOG_TEXT_FILE, --file BINLOG_TEXT_FILE
                        Binlog text file, not the Raw binary file
  --new                 Make a fresh start
  -c {tps,opr,transaction}, --command {tps,opr,transaction}
                        Command type: [tps, opr, transaction],tps: transaction
                        per second, opr: dml per table, transaction: show
                        transaction info
  --start START_DATETIME
                        Start datetime, for example: 2004-12-25 11:25:56
  --stop STOP_DATETIME  Stop datetime, for example: 2004-12-25 11:25:56
  --sort SORT_CONDITION
                        Sort condition: time or size, you can use it when
                        command type is transaction
  -e, --extend          Show transaction info in detail,you can use it when
                        command type is transaction
  --limit LIMIT         Limit the number of rows to display

其中,

  • -f:Binlog通过mysqlbinlog解析后的文本文件。注意,是文本文件,不是Binlog原始文件。使用mysqlbinlog解析时,建议指定-v(显示Pseudo SQL,即伪SQL)和–base64-output=decode-rows(不会显示Base64的编码结果)这两个参数,这样,生成的文本文件才是最小的,相应地,binlog_summary.py解析起来也是最快的。具体命令如下:

    # mysqlbinlog --base64-output=decode-rows -v mysql-bin.000001 > /tmp/mysql-bin.000001.txt

  • –new:工具的分析结果默认是存储在sqlite3数据库中。如果指定了–new,会删除之前创建的sqlite3数据库。注意,在对一个新的Binlog进行分析时需指定该参数。

  • -c:指定命令的类型。支持的命令类型有:

    • tps:分析实例的TPS信息。
    • opr:分析表的操作情况。
    • transaction:分析事务信息。
  • –start:开始时间。分析指定时间段的日志。

  • –stop:结束时间。

  • –sort:排序条件。当命令类型是transaction时,默认是按照事务的执行顺序输出的,可指定size,按事务大小排序,也可指定time,按事务的持续时间排序。

  • -e:当命令类型是transaction时,指定该参数会输出每个事务的详细操作信息。

  • –limit:限制输出的行数。

 

3. 常见用法

3.1 分析实例的TPS信息

# python binlog_summary.py -f /tmp/mysql-bin.000001.txt -c tps --limit 5
COMMIT_TIME        TPS                
2021-04-17 08:12:14 1                  
2021-04-17 08:12:15 7                  
2021-04-17 08:12:16 12                 
2021-04-17 08:12:17 12                 
2021-04-17 08:12:18 9             

注意,这里的TPS是基于事务的提交时间来统计的。

如此细粒度的TPS信息,只能通过Binlog来获取。一般的监控很难做到这一点。

如果要对TPS进行排序,可通过管道 + sort,如,

# python binlog_summary.py -f /tmp/mysql-bin.000001.txt -c tps | sort -k 3 -n 

其中,-k 3是对第三列进行排序,-n是按照数值(默认是字符)的大小进行排序,也可指定-r参数,反向排序。

 

3.2 分析表的操作情况

# python binlog_summary.py -f /tmp/mysql-bin.000001.txt -c opr --limit 5
TABLE_NAME         DML_TYPE           NUMS               
sbtest.sbtest4     INSERT             609526             
sbtest.sbtest6     INSERT             543658             
sbtest.sbtest2     INSERT             309701             
sbtest.sbtest7     INSERT             309651             
sbtest.sbtest5     INSERT             309606         

这里的NUMS是执行次数。

 

4.3 分析Binlog中最大的5个事务

# python binlog_summary.py -f /tmp/mysql-bin.000001.txt -c transaction --sort size --limit 5
TRANS_NAME BEGIN_TIME          COMMIT_TIME         BEGIN_LOG_POS  COMMIT_LOG_POS DURATION_TIME  SIZE           
t62562     2021-04-17 08:30:01 2021-04-17 08:32:31 734265229      867878401      150            133613172      
t62561     2021-04-17 08:29:19 2021-04-17 08:29:19 677048698      734265148      0              57216450       
t62563     2021-04-17 08:33:26 2021-04-17 08:33:50 867878482      925094932      24             57216450       
t62564     2021-04-17 08:34:21 2021-04-17 08:34:21 925095013      971504525      0              46409512       
t62565     2021-04-17 08:34:58 2021-04-17 08:34:58 971504606      1016178117     0              44673511    

其中,

  • TRANS_NAME:事务编号。
  • BEGIN_TIME:事务开始时间。
  • COMMIT_TIME:事务提交时间。
  • BEGIN_LOG_POS:事务的开始位置点。
  • COMMIT_LOG_POS:事务的结束位置点。
  • DURATION_TIME:事务的持续时间,单位秒。其中,DURATION_TIME = COMMIT_TIME – BEGIN_TIME。
  • SIZE:事务的大小,单位字节,其中,SIZE = COMMIT_LOG_POS – BEGIN_LOG_POS。

拿到事务的大小,我们可以粗略地判断这个Binlog中是否存在大事务。如果要进一步分析事务中包含哪些操作,需加上–extend,如,

# python binlog_summary.py -f /tmp/mysql-bin.000001.txt -c transaction --sort size --extend --limit 5
TRANS_NAME BEGIN_TIME           COMMIT_TIME          BEGIN_LOG_POS  COMMIT_LOG_POS  DURATION_TIME SIZE
t62562     2021-04-17 08:30:01  2021-04-17 08:32:31  734265229      867878401       150           133613172
├──        sbtest.sbtest2                            DELETE         200000
├──        sbtest.sbtest3                            UPDATE         100000
├──        sbtest.sbtest4                            INSERT         300000
t62561     2021-04-17 08:29:19  2021-04-17 08:29:19  677048698      734265148       0             57216450
├──        sbtest.sbtest1                            DELETE         300000
t62563     2021-04-17 08:33:26  2021-04-17 08:33:50  867878482      925094932       24            57216450
├──        sbtest.sbtest6                            DELETE         300000
t62564     2021-04-17 08:34:21  2021-04-17 08:34:21  925095013      971504525       0             46409512
├──        sbtest.sbtest5                            UPDATE         121324
t62565     2021-04-17 08:34:58  2021-04-17 08:34:58  971504606      1016178117      0             44673511
├──        sbtest.sbtest6                            INSERT         234234

 

4. 实现思路

binlog_summary.py是分析Binlog经过mysqlbinlog解析后的文本文件。具体来说,

  1. 逐行分析解析后的文本。

    为了保证分析的高效,只会分析含有以下关键词的行,其它行则直接跳过。

    match_sub_strings=["use", "# at", "server id", "BEGIN", "insert", "delete", "update", "DELETE", "INSERT", "UPDATE","COMMIT"]
    if not any(each_str in line for each_str in match_sub_strings):
        continue

  2. 分析后的基础数据,会存在sqlite3数据库中。为什么要这么设计呢?

    • 基础数据可重复使用。毕竟binlog_summary.py支持多种维度的分析,如果每进行一次分析,都要重新解析一次文本,不够高效也没必要。
    • sqlite3支持SQL。简单的分组聚合还是用SQL比较方便,而且,sqlite3本身就足够轻量级,无需安装部署。同时,Python中通过sqlite3库就可直接操作。

接下来,再来说说,为什么是分析Binlog经过mysqlbinlog解析后的文本文件,而不是基于MySQL复制协议,直接分析Binlog呢?基于MySQL复制协议,这种方式有个弊端,就是通用性不够,每出一个新的版本,都要进行相应的适配。

基于文本来分析,很多人可能会觉得不高效。

实际测试了下,分析一个1G的Binlog,大概3min,也不算慢。

# time mysqlbinlog --base64-output=decode-rows -v mysql-bin.000001 > /tmp/mysql-bin.000001.txt

real    0m28.148s
user    0m13.821s
sys     0m2.588s

# time python binlog_summary.py -f /tmp/mysql-bin.000001.txt --new -c tps --limit 1 
COMMIT_TIME        TPS                
2021-04-17 08:12:14 1                                  

real    2m31.682s
user    2m2.253s
sys     0m2.269s


版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
转载请注明出处: https://daima100.com/5973.html

(0)
上一篇 2023-04-20
下一篇 2023-04-20

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注