logstash和kafka_connector都仅支持基于自增id或者时间戳更新的方式增量
同步数据。
回到问题本身:如果库表里没有相关字段,该如何处理呢?
本文给出相关探讨和解决方案。
1、 binlog认知
1.1 啥是 binlog?
binlog是MysqL sever层维护的一种二进制日志
,与innodb引擎中的redo/undo log是完全不同的日志;其主要是用来记录对MysqL数据更新或潜在发生更新的sql语句,并以"事务"的形式保存在磁盘中。
作用主要有:
1.2 阿里的Canal实现了增量MysqL同步
一图胜千言,canal是用java开发的基于数据库增量日志解析、提供增量数据订阅&消费的中间件。
目前,canal主要支持了MysqL的binlog解析,解析完成后才利用canal client 用来处理获得的相关数据。目的:增量数据订阅&消费
。
综上,使用binlog可以突破logstash或者kafka-connector没有自增id或者没有时间戳字段的限制,实现增量同步。
2、基于binlog的同步方式
1)基于kafka Connect的Debezium 开源工程,地址:. https://debezium.io/
2)不依赖第三方的独立应用: Maxwell开源项目,地址:http://maxwells-daemon.io/
由于已经部署过conluent(kafka的企业版本,自带zookeeper、kafka、ksql、kafka-connector等),本文仅针对Debezium展开。
3、Debezium介绍
Debezium是捕获数据实时动态变化的开源的分布式同步平台。能实时捕获到数据源(MysqL、Mongo、Postgresql)的:新增(inserts)、更新(updates)、删除(deletes)操作,实时同步到Kafka,稳定性强且速度非常快。
特点:
4、同步架构
如图,MysqL到ES的同步策略,采取“曲线救国”机制。
步骤1: 基Debezium的binlog机制,将MysqL数据同步到Kafka。
步骤2: 基于Kafka_connector机制,将kafka数据同步到Elasticsearch。
5、Debezium实现MysqL到ES增删改实时同步
软件版本:
confluent:5.1.2;
Debezium:0.9.2_Final;
MysqL:5.7.x.
Elasticsearch:6.6.1
5.1 Debezium安装
confluent的安装部署参见:http://t.cn/Ef5poZk,不再赘述。
Debezium的安装只需要把debezium-connector-MysqL的压缩包解压放到Confluent的解压后的插件目录(share/java)中。
MysqL Connector plugin 压缩包的下载地址:
https://debezium.io/docs/install/
注意重启一下confluent,以使得Debezium生效。
5.2 MysqL binlog等相关配置。
Debezium使用MysqL的binlog机制实现数据动态变化监测,所以需要MysqL提前配置binlog。
核心配置如下,在MysqL机器的/etc/my.cnf的MysqLd下添加如下配置。
1[MysqLd]
2
3server-id = 223344
4log_bin = MysqL-bin
5binlog_format = row
6binlog_row_image = full
7expire_logs_days = 10
1systemctl start MysqLd.service
5.3 配置connector连接器。
配置confluent路径目录 : /etc
创建文件夹命令 :
1mkdir kafka-connect-debezium
在MysqL2kafka_debezium.json存放connector的配置信息 :
1[root@localhost kafka-connect-debezium]# cat MysqL2kafka_debezium.json
2{
3 "name" : "debezium-MysqL-source-0223",
4 "config":
5 {
6 "connector.class" : "io.debezium.connector.MysqL.MysqLConnector",
7 "database.hostname" : "192.168.1.22",
8 "database.port" : "3306",
9 "database.user" : "root",
10 "database.password" : "XXXXXX",
11 "database.whitelist" : "kafka_base_db",
12 "table.whitlelist" : "accounts",
13 "database.server.id" : "223344",
14 "database.server.name" : "full",
15 "database.history.kafka.bootstrap.servers" : "192.168.1.22:9092",
16 "database.history.kafka.topic" : "account_topic",
17 "include.schema.changes" : "true" ,
18 "incrementing.column.name" : "id",
19 "database.history.skip.unparseable.ddl" : "true",
20 "transforms": "unwrap,changetopic",
21 "transforms.unwrap.type": "io.debezium.transforms.UnwrapFromEnvelope",
22 "transforms.changetopic.type":"org.apache.kafka.connect.transforms.RegexRouter",
23 "transforms.changetopic.regex":"(.*)",
24 "transforms.changetopic.replacement":"$1-smt"
25 }
26}
注意如下配置:
-
"database.server.id",对应MysqL中的server-id的配置。
-
"table.whitlelist" :待同步的Mysq表名。
-
重要:“database.history.kafka.topic”:存储数据库的Shcema的记录信息,而非写入数据的topic、
-
"database.server.name":逻辑名称,每个connector确保唯一,作为写入数据的kafka topic的前缀名称。
坑一:transforms相关5行配置作用是写入数据格式转换。
如果没有,输入数据会包含:before、after记录修改前对比信息以及元数据信息(source,op,ts_ms等)。
这些信息在后续数据写入Elasticsearch是不需要的。(注意结合自己业务场景)。
格式转换相关原理:http://t.cn/EftoaIi
5.4 启动connector
1curl -X POST -H "Content-Type:application/json"
2--data @MysqL2kafka_debezium.json.json
3http://192.168.1.22:18083/connectors | jq
5.5 验证写入是否成功。
5.5.1 查看kafka-topic
1 kafka-topics --list --zookeeper localhost:2181
此处会看到写入数据topic的信息。
注意新写入数据topic的格式:database.schema.table-smt 三部分组成。
本示例topic名称:
full.kafka_base_db.account-smt
5.5.2 消费数据验证写入是否正常
1./kafka-avro-console-consumer --topic full.kafka_base_db.account-smt --bootstrap-server 192.168.1.22:9092 --from-beginning
至此,Debezium实现MysqL同步kafka完成。
6、kafka-connector实现kafka同步Elasticsearch
6.1、Kafka-connector介绍
见官网:https://docs.confluent.io/current/connect.html
Kafka Connect是一个用于连接Kafka与外部系统(如数据库,键值存储,检索系统索引和文件系统)的框架。
连接器实现公共数据源数据(如MysqL、Mongo、Pgsql等)写入Kafka,或者Kafka数据写入目标数据库,也可以自己开发连接器。
6.2、kafka到ES connector同步配置
配置路径:
1/home/confluent-5.1.0/etc/kafka-connect-elasticsearch/quickstart-elasticsearch.properties
配置内容:
1"connector.class": "io.confluent.connect.elasticsearch.ElasticsearchSinkConnector",
2"tasks.max": "1",
3"topics": "full.kafka_base_db.account-smt",
4"key.ignore": "true",
5"connection.url": "http://192.168.1.22:9200",
6"type.name": "_doc",
7"name": "elasticsearch-sink-test"
6.3 kafka到ES启动connector
启动命令
1confluent load elasticsearch-sink-test
2-d /home/confluent-5.1.0/etc/kafka-connect-elasticsearch/quickstart-elasticsearch.properties
6.4 Kafka-connctor RESTFul API查看
MysqL2kafka,kafka2ES的connector详情信息可以借助postman或者浏览器或者命令行查看。
1curl -X GET http://localhost:8083/connectors
7、坑复盘。
坑2: 同步的过程中可能出现错误,比如:kafka topic没法消费到数据。
排解思路如下:
-
1)确认消费的topic是否是写入数据的topic;
-
2)确认同步的过程中没有出错。可以借助connector如下命令查看。
1curl -X GET http://localhost:8083/connectors-xxx/status
坑3: MysqL2ES出现日期格式不能识别。
是MysqL jar包的问题,解决方案:在my.cnf中配置时区信息即可。
坑4: kafka2ES,ES没有写入数据。
排解思路:
8、小结
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。