Canal

2/25/2022 Canal

# canal

阿里巴巴 B2B 公司,因为业务的特性,卖家主要集中在国内,买家主要集中在国外,所以衍生出了同步杭州和美国异地机房的需求,从 2010 年开始,阿里系公司开始逐步的尝试基于数据库的日志解析,获取增量变更进行同步,由此衍生出了增量订阅&消费的业务。canal 是用 java 开发的基于数据库增量日志解析,提供增量数据订阅&消费的中间件。

目前,canal 主要支持了 MySQL 的 binlog 解析,解析完成后才利用 canal client 来处理获得的相关数据。(数据库同步需要阿里的 otter 中间件,基于 canal)。

# 使用场景

  1. 原始场景: 阿里 otter 中间件的一部分

    otter 是阿里用于进行异地数据库之间的同步框架,canal 是其中一部分

  2. 常见场景1:更新缓存

  3. 抓取业务数据新增变化表,用于制作拉链表

  4. 常见场景3:抓取业务表的新增变化数据,用于制作实时统计(我们就是这种场景)

# canal 的工作原理

# MySQL 主从复制过程

  1. Master 主库将改变记录,写到二进制日志(binary log)中
  2. Slave 从库向 mysql master 发送 dump 协议,将 master 主库的 binary log events 拷贝到它的中继日志(relay log);
  3. Slave 从库读取并重做中继日志中的事件,将改变的数据同步到自己的数据库。

# canal 的工作原理

很简单,就是把自己伪装成 slave,假装从 master 复制数据

# MySQL 的 binlog

MySQL 的二进制日志可以说 MySQL 最重要的日志了,它记录了所有的 DDL 和DML(除了数据查询语句)语句,以事件形式记录,还包含语句所执行的消耗的时间,MySQL的二进制日志是事务安全型的。

一般来说开启二进制日志大概会有 1%的性能损耗。二进制有两个最重要的使用场景:

  1. 其一:MySQL Replication 在 Master 端开启 binlog,Master 把它的二进制日志传递给 slaves 来达到 master-slave 数据一致的目的
  2. 其二:自然就是数据恢复了,通过使用 mysqlbinlog 工具来使恢复数据

二进制日志包括两类文件:二进制日志索引文件(文件名后缀为.index)用于记录所有的二进制文件,二进制日志文件(文件名后缀为.00000*)记录数据库所有的 DDL 和 DML(除了数据查询语句)语句事件。

# binlog 的开启

  1. 找到 MySQL 配置文件的位置 - my.cnf

    linux: my.cnf
    
    windows: my.ini
    
    1
    2
    3
  2. 在 mysql 的配置文件下,修改配置

    在[mysqld] 区块,设置/添加 log-bin=mysql-bin

    这 个 表 示 binlog 日 志 的 前 缀 是 mysql-bin , 以 后 生 成 的 日 志 文 件 就 是mysql-bin.123456 的文件后面的数字按顺序生成,每次 mysql 重启或者到达单个文件大小的阈值时,新生一个文件,按顺序编号

  3. binlog 的分类设置

    mysql binlog 的格式有三种,分别是 STATEMENT,MIXED,ROW。

    1. statement

      语句级,binlog 会记录每次一执行写操作的语句。相对 row 模式节省空间,但是可能产生不一致性,比如 update tt set create_date=now()如果用 binlog 日志进行恢复,由于执行时间不同可能产生的数据就不同。

      优点: 节省空间 缺点: 有可能造成数据不一致。

    2. row

      行级, binlog 会记录每次操作后每行记录的变化

      优点:保持数据的绝对一致性。因为不管 sql 是什么,引用了什么函数,他只记录执行后的效果。

      缺点:占用较大空间

    3. mixed

      statement 的升级版,一定程度上解决了,因为一些情况而造成的 statement 模式不一致问题

      默认还是 statement,在某些情况下譬如:

      当函数中包含 UUID() 时; 包含 AUTO_INCREMENT 字段的表被更新时; 执行 INSERT DELAYED 语句时; 用 UDF 时;

      会按照 ROW 的方式进行处理 优点:节省空间,同时兼顾了一定的一致性。 缺点:还有些极个别情况依旧会造成不一致,另外 statement 和 mixed 对于需要对 binlog 的监控的情况都不方便。

    综合上面对比,Cannel 想做监控分析,选择 row 格式比较合适

# MySQL 的准备

  1. 创建实时业务数据库 gmall2020

  2. 导入建表数据

  3. 修改/etc/my.cnf 文件

    server-id= 1
    log-bin=mysql-bin
    binlog_format=row
    binlog-do-db=gmall2020
    
    1
    2
    3
    4

    注意:binlog-do-db 根据自己的情况进行修改,指定具体要同步的数据库

  4. 重启 MySQL 使配置生效

  5. 测试 - 添加数据查看bin-log文件大小

  6. mysql创建canal用户供外部访问

    mysql> set global validate_password_length=4;
    mysql> set global validate_password_policy=0;
    mysql> GRANT SELECT, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO'canal'@'%' IDENTIFIED BY 'canal' ;
    
    1
    2
    3

# canal 架构以及安装

# canal 架构

# canal 的下载和安装

https://github.com/alibaba/canal/releases

# canal单机版

  1. 上传解压文件

    注意:canal解压后是散的,我们在指定解压目录的时候需要将canal指定上

    mkdir /opt/module/canal
    tar -zxvf canal.deployer-1.1.4.tar.gz -C /opt/module/canal
    
    1
    2
  2. 修改配置文件 - canal.properties

    这个文件是 canal 的基本通用配置,canal 端口号默认就是 11111

    修改 canal 的输出 model,默认 tcp,改为输出到 kafka
    
    1

    tcp 就是输出到 canal 客户端,通过编写 Java 代码处理

  3. 修改 Kafka 集群的地址

  4. 如果创建多个实例

    通过前面 canal 架构,我们可以知道,一个 canal 服务中可以有多个 instance,conf/下的每一个 example 即是一个实例,每个实例下面都有独立的配置文件。默认只有一个实例 example,如果需要多个实例处理不同的 MySQL 数据的话,直接拷贝出多个 example,并对其重新命名,命名和配置文件中指定的名称一致,然后修改 canal.properties 中的canal.destinations=实例 1,实例 2,实例 3。

  5. 修改 instance.properties

    我们这里只读取一个 MySQL 数据,所以只有一个实例,这个实例的配置文件在conf/example 目录下

    vim instance.properties

    1. 配置 MySQL 服务器地址

    2. 配置连接 MySQL 的用户名和密码,默认就是我们前面授权的 canal

    3. 修改输出到 Kafka 的主题以及分区数

      注意:默认还是输出到指定 Kafka 主题的一个 kafka 分区,因为多个分区并行可能会打乱binlog 的顺序 如果要提高并行度,首先设置 kafka 的分区数>1,然后设置 canal.mq.partitionHash 属性

    4. 单机 canal 测试

      1. 启动 canal

        bin/startup.sh
        
        1

        看到 CanalLauncher 你表示启动成功,同时会创建 gmall2020_db_c 主题

      2. 启动 Kafka 消费客户端测试,查看消费情况

        bin/kafka-console-consumer.sh --bootstrap-server ha01:9092 --topic gmall2020_db_c
        
        1
      3. 运行/opt/module/rt_dblog 中生成模拟数据

      4. 查看kafka消息

# canal 高可用(了解)

这种 zookeeper 为观察者监控的模式,只能实现高可用,而不是负载均衡,即同一时点只有一个 canal-server 节点能够监控某个数据源,只要这个节点能够正常工作,那么其他监控这个数据源的 canal-server 只能做 stand-by,直到工作节点停掉,其他 canal-server 节点才能抢占。因为有一个 stand-by 也要占用资源,同时 canal 传输数据宕机的情况也比较少,所以好多企业是不配置 canal 的高可用的。

  1. 修改 canal.properties

    1. 配置zk

    2. 避免发送重复数据(否则在切换 active 的时候会重复发送数据)

  2. 把 canal 目录分发给其他虚拟机

  3. 启动

    先在ha01启动 canal,再在 ha02 上启动 canal

Last Updated: 3/14/2022, 1:43:10 PM