627
微信
MySQLReader__Reader插件_使用手册_数据集成-阿里云
1 快速介绍
MySQLReader插件实现了从Mysql读取数据。在底层实现上,MySQLReader通过JDBC连接远程Mysql数据库,并执行相应的sql语句将数据从mysql库中SELECT出来。
2 实现原理
简而言之,MySQLReader通过JDBC连接器连接到远程的Mysql数据库,并根据用户配置的信息生成查询SELECT SQL语句并发送到远程Mysql数据库,并将该SQL执行返回结果使用DataX自定义的数据类型拼装为抽象的数据集,并传递给下游Writer处理。
对于用户配置Table、Column、Where的信息,MySQLReader将其拼接为SQL语句发送到Mysql数据库;对于用户配置querySql信息,Mysql直接将其发送到Mysql数据库。
3 功能说明
3.1 配置样例
- 使用instance配置一个从Mysql数据库同步抽取数据到ODPS的作业:
{
"type": "job",
"traceId": "您可以在这里填写您作业的追踪ID,建议使用业务名+您的作业ID",
"version": "1.0",
"configuration": {
"reader": {
"plugin": "mysql",
"parameter": {
"instanceName": "datasync001",
"database": "database",
"table": "table",
"splitPk": "db_id",
"username": "datasync001",
"password": "xxxxxx",
"column": [
"*"
],
"where": "Date(add_time) = '2014-06-01'"
}
},
"writer": {
"plugin": "odps",
"parameter": {
"accessId": "bazhen.csy",
"accessKey": "xxxxxxx",
"project": "project",
"table": "table",
"column": [
"*"
],
"partition": "pt=20150101"
}
}
}
}
- 使用JDBC方式配置一个从Mysql数据库同步抽取数据到ODPS的作业:
{
"type": "job",
"traceId": "您可以在这里填写您作业的追踪ID,建议使用业务名+您的作业ID",
"version": "1.0",
"configuration": {
"reader": {
"plugin": "mysql",
"parameter": {
"jdbcUrl": "jdbc:mysql://ip:port/database",
"table": "table",
"splitPk": "db_id",
"username": "datasync001",
"password": "xxxxxx",
"column": [
"*"
],
"where": "Date(add_time) = '2014-06-01'"
}
},
"writer": {
"plugin": "odps",
"parameter": {
"accessId": "bazhen.csy",
"accessKey": "xxxxxxx",
"project": "project",
"table": "table",
"column": [
"*"
],
"partition": "pt=20150101"
}
}
}
}
- 使用多个instance配置一个从Mysql数据库同步抽取分库分表数据到ODPS的作业:
{
"type": "job",
"traceId": "您可以在这里填写您作业的追踪ID,建议使用业务名+您的作业ID",
"version": "1.0",
"configuration": {
"reader": {
"plugin": "mysql",
"parameter": {
"connection": [
{
"table": [
"tbl1",
"tbl2",
"tbl3"
],
"instanceName": "inst1",
"database": "db"
},
{
"table": [
"tbl4",
"tbl5",
"tbl6"
],
"instanceName": "inst2",
"database": "db"
}
],
"splitPk": "db_id",
"username": "datasync001",
"password": "xxxxxx",
"column": [
"*"
],
"where": "Date(add_time) = '2014-06-01'"
}
},
"writer": {
"plugin": "odps",
"parameter": {
"accessId": "bazhen.csy",
"accessKey": "xxxxxxx",
"project": "project",
"table": "table",
"column": [
"*"
],
"partition": "pt=20150101"
}
}
}
}
- 使用多个jdbc配置一个从Mysql数据库同步抽取分库分表数据到ODPS的作业:
{
"type": "job",
"traceId": "您可以在这里填写您作业的追踪ID,建议使用业务名+您的作业ID",
"version": "1.0",
"configuration": {
"reader": {
"plugin": "mysql",
"parameter": {
"connection": [
{
"table": [
"tbl1",
"tbl2",
"tbl3"
],
"jdbcUrl": "jdbc:mysql://ip:port/database1"
},
{
"table": [
"tbl4",
"tbl5",
"tbl6"
],
"jdbcUrl": "jdbc:mysql://ip:port/database2"
}
],
"splitPk": "db_id",
"username": "datasync001",
"password": "xxxxxx",
"column": [
"*"
],
"where": "Date(add_time) = '2014-06-01'"
}
},
"writer": {
"plugin": "odps",
"parameter": {
"accessId": "bazhen.csy",
"accessKey": "xxxxxxx",
"project": "project",
"table": "table",
"column": [
"*"
],
"partition": "pt=20150101"
}
}
}
}
3.2 参数说明
instanceName
描述: 阿里云RDS实例名称(Instance名称)。用户使用该配置指定RDS的Instance名称,CDP将翻译为底层执行的jdbcUrl连接串连接。
instanceName指定的是RDS实例。发给类似Mysql实例,指定了数据源的IP+Port,需要和database配合使用。例如,在RDS WebConsole页面中点击【基本信息】,其右侧详情的名称即是用户拥有RDS的instanceName。
必选:是
默认值:无
jdbcUrl
描述:对于CDP私有云场景、数据库迁移场景等,其本身数据源是普通Mysql数据库不是RDS。对于这类使用场景,用户可以指定jdbc信息直连。
jdbcUrl和instanceName/database两类信息概念上是等同的,因此只能配置其一。如果两者均配置,CDP默认将使用jdbcUrl信息。
考虑到公有云上用户RDS DNS名称、内网等信息可能存在更改的情况,强烈建议公有云用户不使用jdbcUrl配置项。
必选:是
默认值:无
database
- 描述: 阿里云RDS实例下的数据库名称。
- 必选:是
- 默认值:无
username
- 描述:数据源的用户名
- 必选:是
- 默认值:无
password
- 描述:数据源的密码
- 必选:是
- 默认值:无
table
- 描述:所选取的需要同步的表名称,一个CDP Job只能同步一张表。
- 必选:是
- 默认值:无
column
描述:所配置的表中需要同步的列名集合,使用JSON的数组描述字段信息。用户使用星号代表默认使用所有列配置,例如[‘*’]。
支持列裁剪,即列可以挑选部分列进行导出。
支持列换序,即列可以不按照表schema信息进行导出。
支持常量配置,用户需要按照Mysql SQL语法格式:
[“id”, “`table`“, “1”, “‘bazhen.csy’”, “‘null’”, “to_char(a + 1)”, “2.3” , “true”]
id为普通列名,`table`为包含保留在的列名,1为整形数字常量,’bazhen.csy’为字符串常量,null为空指针,to_char(a + 1)为表达式,2.3为浮点数,true为布尔值。
column必须用户显示指定同步的列集合,不允许为空!
必选:是
默认值:无
splitPk
描述:MySQLReader进行数据抽取时,如果指定splitPk,表示用户希望使用splitPk代表的字段进行数据分片,DataX因此会启动并发任务进行数据同步,这样可以大大提供数据同步的效能。
推荐splitPk用户使用表主键,因为表主键通常情况下比较均匀,因此切分出来的分片也不容易出现数据热点。
目前splitPk仅支持整型数据切分,不支持字符串、浮点、日期等其他类型。如果用户指定其他非支持类型,同步任务将报错;
如果splitPk不填写,包括不提供splitPk或者splitPk值为空,DataX视作使用单通道同步该表数据。
必选:否
默认值:无
where
- 描述:筛选条件。例如在做测试时,可以将where条件指定为limit 10;在实际业务场景中,往往会选择当天的数据进行同步,可以将where条件指定为gmt_create > $bizdate ;where条件可以有效地进行业务增量同步。如果不填写where语句,包括不提供where的key或者value,DataX均视作同步全量数据。
- 必选:否
- 默认值:无
querySql
- 描述:在有些业务场景下,where这一配置项不足以描述所筛选的条件,用户可以通过该配置型来自定义筛选SQL。当用户配置了这一项之后,DataX系统就会忽略tables,columns这些配置型,直接使用这个配置项的内容对数据进行筛选,例如需要进行多表join后同步数据,使用select a,b from table_a join table_b on table_a.id = table_b.id;当用户配置querySql时,MySQLReader直接忽略table、column、where条件的配置,querySql优先级大于table、column、where选项。
- 必选:否
- 默认值:无
3.3 类型转换
目前MySQLReader支持大部分Mysql类型,但也存在部分个别类型没有支持的情况,请注意检查你的类型。
下面列出MySQLReader针对Mysql类型转换列表:
DataX 内部类型 | Mysql 数据类型 |
---|---|
Long | int, tinyint, smallint, mediumint, int, bigint |
Double | float, double, decimal |
String | varchar, char, tinytext, text, mediumtext, longtext |
Date | date, datetime, timestamp, time, year |
Boolean | bit, bool |
Bytes | tinyblob, mediumblob, blob, longblob, varbinary |
请注意:
- 除上述罗列字段类型外,其他类型均不支持。
- MySQLReader将tinyint(1)视作整形。
4 性能报告
4.1 环境准备
4.1.1 数据特征
建表语句:
CREATE TABLE `tc_biz_vertical_test_0000` (
`biz_order_id` bigint(20) NOT NULL COMMENT 'id',
`key_value` varchar(4000) NOT NULL COMMENT 'Key-value的内容',
`gmt_create` datetime NOT NULL COMMENT '创建时间',
`gmt_modified` datetime NOT NULL COMMENT '修改时间',
`attribute_cc` int(11) DEFAULT NULL COMMENT '防止并发修改的标志',
`value_type` int(11) NOT NULL DEFAULT '0' COMMENT '类型',
`buyer_id` bigint(20) DEFAULT NULL COMMENT 'buyerid',
`seller_id` bigint(20) DEFAULT NULL COMMENT 'seller_id',
PRIMARY KEY (`biz_order_id`,`value_type`),
KEY `idx_biz_vertical_gmtmodified` (`gmt_modified`)
) ENGINE=InnoDB DEFAULT CHARSET=gbk COMMENT=’tc_biz_vertical’
单行记录类似于:
biz_order_id: 888888888
key_value: ;orderIds:20148888888,2014888888813800;
gmt_create: 2011-09-24 11:07:20
gmt_modified: 2011-10-24 17:56:34
attribute_cc: 1
value_type: 3
buyer_id: 8888888
seller_id: 1
4.1.2 机器参数
- 执行DataX的机器参数为:
- cpu: 24核 Intel(R) Xeon(R) CPU E5-2630 0 @ 2.30GHz
- mem: 48GB
- net: 千兆双网卡
- disc: DataX 数据不落磁盘,不统计此项
- Mysql数据库机器参数为:
- cpu: 32核 Intel(R) Xeon(R) CPU E5-2650 v2 @ 2.60GHz
- mem: 256GB
- net: 千兆双网卡
- disc: BTWL419303E2800RGN INTEL SSDSC2BB800G4 D2010370
4.1.3 DataX jvm 参数
-Xms1024m -Xmx1024m -XX:+HeapDumpOnOutOfMemoryError
4.2 测试报告
4.2.1 单表测试报告
通道数 | 是否按照主键切分 | DataX速度(Rec/s) | DataX机器网卡进入流量(MB/s) | DataX机器运行负载 | DB网卡流出流量(MB/s) | DB运行负载 | |
---|---|---|---|---|---|---|---|
1 | 否 | 183185 | 29 | 0.6 | 31 | 0.6 | |
1 | 是 | 183185 | 29 | 0.6 | 31 | 0.6 | |
4 | 否 | 183185 | 29 | 0.6 | 31 | 0.6 | |
4 | 是 | 329733 | 58 | 0.8 | 60 | 0.76 | |
8 | 否 | 183185 | 29 | 0.6 | 31 | 0.6 | |
8 | 是 | 549556 | 115 | 1.46 | 120 | 0.78 |
说明:
- 这里的单表,主键类型为 bigint(20),范围为:190247559466810-570722244711460,从主键范围划分看,数据分布均匀。
- 对单表如果没有安装主键切分,那么配置通道个数不会提升速度,效果与1个通道一样。
4.2.2 分表测试报告(2个分库,每个分库16张分表,共计32张分表)
通道数 | DataX速度(Rec/s) | DataX机器网卡进入流量(MB/s) | DataX机器运行负载 | DB网卡流出流量(MB/s) | DB运行负载 | |
---|---|---|---|---|---|---|
1 | 202241 | 31.5 | 1.0 | 32 | 1.1 | |
4 | 726358 | 123.9 | 3.1 | 132 | 3.6 | |
8 | 1074405 | 197 | 5.5 | 205 | 5.1 | |
16 | 1227892 | 229.2 | 8.1 | 233 | 7.3 |
5 约束限制
5.1 主备同步数据恢复问题
主备同步问题指Mysql使用主从灾备,备库从主库不间断通过binlog恢复数据。由于主备数据同步存在一定的时间差,特别在于某些特定情况,例如网络延迟等问题,导致备库同步恢复的数据与主库有较大差别,导致从备库同步的数据不是一份当前时间的完整镜像。
CDP如果同步的是阿里云提供RDS,是直接从主库读取数据,不存在数据恢复问题。但是会引入主库负载问题,请注意流控配置。
5.2 一致性约束
Mysql在数据存储划分中属于RDBMS系统,对外可以提供强一致性数据查询接口。例如当一次同步任务启动运行过程中,当该库存在其他数据写入方写入数据时,MySQLReader完全不会获取到写入更新数据,这是由于数据库本身的快照特性决定的。关于数据库快照特性,请参看MVCC Wikipedia
上述是在MySQLReader单线程模型下数据同步一致性的特性,由于MySQLReader可以根据用户配置信息使用了并发数据抽取,因此不能严格保证数据一致性:当MySQLReader根据splitPk进行数据切分后,会先后启动多个并发任务完成数据同步。由于多个并发任务相互之间不属于同一个读事务,同时多个并发任务存在时间间隔。因此这份数据并不是完整的
、一致的
数据快照信息。
针对多线程的一致性快照需求,在技术上目前无法实现,只能从工程角度解决,工程化的方式存在取舍,我们提供几个解决思路给用户,用户可以自行选择:
- 使用单线程同步,即不再进行数据切片。缺点是速度比较慢,但是能够很好保证一致性。
- 关闭其他数据写入方,保证当前数据为静态数据,例如,锁表、关闭备库同步等等。缺点是可能影响在线业务。
5.3 数据库编码问题
Mysql本身的编码设置非常灵活,包括指定编码到库、表、字段级别,甚至可以均不同编码。优先级从高到低为字段、表、库、实例。我们不推荐数据库用户设置如此混乱的编码,最好在库级别就统一到UTF-8。
MySQLReader底层使用JDBC进行数据抽取,JDBC天然适配各类编码,并在底层进行了编码转换。因此MySQLReader不需用户指定编码,可以自动获取编码并转码。
对于Mysql底层写入编码和其设定的编码不一致的混乱情况,MySQLReader对此无法识别,对此也无法提供解决方案,对于这类情况,导出有可能为乱码
。
5.4 增量数据同步
MySQLReader使用JDBC SELECT语句完成数据抽取工作,因此可以使用SELECT…WHERE…进行增量数据抽取,方式有多种:
- 数据库在线应用写入数据库时,填充modify字段为更改时间戳,包括新增、更新、删除(逻辑删)。对于这类应用,MySQLReader只需要WHERE条件跟上一同步阶段时间戳即可。
- 对于新增流水型数据,MySQLReader可以WHERE条件后跟上一阶段最大自增ID即可。
对于业务上无字段区分新增、修改数据情况,MySQLReader也无法进行增量数据同步,只能同步全量数据。
5.5 SQL安全性
MySQLReader提供querySql语句交给用户自己实现SELECT抽取语句,MySQLReader本身对querySql不做任何安全性校验。这块交由DataX用户方自己保证。
FAQ
Q: MySQLReader同步报错,报错信息为XXX
A: 网络或者权限问题,请使用mysql命令行测试:
mysql -u<username> -p<password> -h<ip> -D<database> -e "select * from <表名>"
如果上述命令也报错,那可以证实是环境问题,请联系你的DBA。
Q: 我想同步Mysql增量数据,怎么配置?
A: MySQLReader必须业务支持增量字段DataX才能同步增量,例如在淘宝大部分业务表中,通过gmt_modified字段表征这条记录的最新修改时间,那么DataX MySQLReader只需要配置where条件为
"where": "Date(add_time) = '2014-06-01'"
Q: 上述bizdate代表什么意思? 我每天需要同步的gmt_modified值肯定不一样的,如何做到每天使用不同变量值
A: CDP支持自定义变量,请参考CDP Console 中有关自定义变量章节说明。
Q: 我有1亿条数据需要同步,大概需要同步多长时间
A: 和数据库配置、DataX机器负载相关,请参考上述性能章节
Q: 为什么不推荐使用默认列*
, 会有问题吗
A: 如果你限定了DataX同步a,b,c三列,那么数据库在添加列,修改列,删除列情况,DataX可以做到要么立即报错,要么兼容老情况。如果直接配置星号,上游的数据库变量会立刻影响下游数据!而且可能会在下游任务运行到一段时间才报错,可能已经引入了大量脏数据。
Q: MySQLReader同步出现乱码,怎么处理
A: 通常情况下是你同步的数据库没有按照规范配置编码,比如数据库配置的编码是UTF8,但是底层物理文件实际存放的编码是GBK,DataX按照UTF-8读取数据就会出现乱码。此时你应该寻求你的DBA修改库的编码格式。
最后更新:2016-11-30 16:25:49
上一篇:
Job主体配置__作业配置说明_使用手册_数据集成-阿里云
下一篇:
SQLServerReader__Reader插件_使用手册_数据集成-阿里云
CDN加速__产品使用手册_云解析-阿里云
启动应用__应用管理类 API_Open API 参考_企业级分布式应用服务 EDAS-阿里云
LogHub-监控__Getting-Started_日志服务-阿里云
查询实例管理终端地址__实例相关接口_API 参考_云服务器 ECS-阿里云
php__SDK手册_OpenAPI 1.0_移动推送-阿里云
AssumeRole__操作接口_STS API文档_访问控制-阿里云
Callback__关于Object操作_API 参考_对象存储 OSS-阿里云
规则引擎移动定向营销版本公测服务协议__相关协议_平台介绍_数加平台介绍-阿里云
查询API服务文档__API管理相关接口_API_API 网关-阿里云
内建函数-下__SQL_大数据计算服务-阿里云
相关内容
常见错误说明__附录_大数据计算服务-阿里云
发送短信接口__API使用手册_短信服务-阿里云
接口文档__Android_安全组件教程_移动安全-阿里云
运营商错误码(联通)__常见问题_短信服务-阿里云
设置短信模板__使用手册_短信服务-阿里云
OSS 权限问题及排查__常见错误及排除_最佳实践_对象存储 OSS-阿里云
消息通知__操作指南_批量计算-阿里云
设备端快速接入(MQTT)__快速开始_阿里云物联网套件-阿里云
查询API调用流量数据__API管理相关接口_API_API 网关-阿里云
使用STS访问__JavaScript-SDK_SDK 参考_对象存储 OSS-阿里云