阅读627 返回首页    go 微信


MySQLReader__Reader插件_使用手册_数据集成-阿里云

1 快速介绍

MySQLReader插件实现了从Mysql读取数据。在底层实现上,MySQLReader通过JDBC连接远程Mysql数据库,并执行相应的sql语句将数据从mysql库中SELECT出来。

2 实现原理

简而言之,MySQLReader通过JDBC连接器连接到远程的Mysql数据库,并根据用户配置的信息生成查询SELECT SQL语句并发送到远程Mysql数据库,并将该SQL执行返回结果使用DataX自定义的数据类型拼装为抽象的数据集,并传递给下游Writer处理。

对于用户配置Table、Column、Where的信息,MySQLReader将其拼接为SQL语句发送到Mysql数据库;对于用户配置querySql信息,Mysql直接将其发送到Mysql数据库。

3 功能说明

3.1 配置样例
  • 使用instance配置一个从Mysql数据库同步抽取数据到ODPS的作业:
  1. {
  2. "type": "job",
  3. "traceId": "您可以在这里填写您作业的追踪ID,建议使用业务名+您的作业ID",
  4. "version": "1.0",
  5. "configuration": {
  6. "reader": {
  7. "plugin": "mysql",
  8. "parameter": {
  9. "instanceName": "datasync001",
  10. "database": "database",
  11. "table": "table",
  12. "splitPk": "db_id",
  13. "username": "datasync001",
  14. "password": "xxxxxx",
  15. "column": [
  16. "*"
  17. ],
  18. "where": "Date(add_time) = '2014-06-01'"
  19. }
  20. },
  21. "writer": {
  22. "plugin": "odps",
  23. "parameter": {
  24. "accessId": "bazhen.csy",
  25. "accessKey": "xxxxxxx",
  26. "project": "project",
  27. "table": "table",
  28. "column": [
  29. "*"
  30. ],
  31. "partition": "pt=20150101"
  32. }
  33. }
  34. }
  35. }
  • 使用JDBC方式配置一个从Mysql数据库同步抽取数据到ODPS的作业:
  1. {
  2. "type": "job",
  3. "traceId": "您可以在这里填写您作业的追踪ID,建议使用业务名+您的作业ID",
  4. "version": "1.0",
  5. "configuration": {
  6. "reader": {
  7. "plugin": "mysql",
  8. "parameter": {
  9. "jdbcUrl": "jdbc:mysql://ip:port/database",
  10. "table": "table",
  11. "splitPk": "db_id",
  12. "username": "datasync001",
  13. "password": "xxxxxx",
  14. "column": [
  15. "*"
  16. ],
  17. "where": "Date(add_time) = '2014-06-01'"
  18. }
  19. },
  20. "writer": {
  21. "plugin": "odps",
  22. "parameter": {
  23. "accessId": "bazhen.csy",
  24. "accessKey": "xxxxxxx",
  25. "project": "project",
  26. "table": "table",
  27. "column": [
  28. "*"
  29. ],
  30. "partition": "pt=20150101"
  31. }
  32. }
  33. }
  34. }
  • 使用多个instance配置一个从Mysql数据库同步抽取分库分表数据到ODPS的作业:
  1. {
  2. "type": "job",
  3. "traceId": "您可以在这里填写您作业的追踪ID,建议使用业务名+您的作业ID",
  4. "version": "1.0",
  5. "configuration": {
  6. "reader": {
  7. "plugin": "mysql",
  8. "parameter": {
  9. "connection": [
  10. {
  11. "table": [
  12. "tbl1",
  13. "tbl2",
  14. "tbl3"
  15. ],
  16. "instanceName": "inst1",
  17. "database": "db"
  18. },
  19. {
  20. "table": [
  21. "tbl4",
  22. "tbl5",
  23. "tbl6"
  24. ],
  25. "instanceName": "inst2",
  26. "database": "db"
  27. }
  28. ],
  29. "splitPk": "db_id",
  30. "username": "datasync001",
  31. "password": "xxxxxx",
  32. "column": [
  33. "*"
  34. ],
  35. "where": "Date(add_time) = '2014-06-01'"
  36. }
  37. },
  38. "writer": {
  39. "plugin": "odps",
  40. "parameter": {
  41. "accessId": "bazhen.csy",
  42. "accessKey": "xxxxxxx",
  43. "project": "project",
  44. "table": "table",
  45. "column": [
  46. "*"
  47. ],
  48. "partition": "pt=20150101"
  49. }
  50. }
  51. }
  52. }
  • 使用多个jdbc配置一个从Mysql数据库同步抽取分库分表数据到ODPS的作业:
  1. {
  2. "type": "job",
  3. "traceId": "您可以在这里填写您作业的追踪ID,建议使用业务名+您的作业ID",
  4. "version": "1.0",
  5. "configuration": {
  6. "reader": {
  7. "plugin": "mysql",
  8. "parameter": {
  9. "connection": [
  10. {
  11. "table": [
  12. "tbl1",
  13. "tbl2",
  14. "tbl3"
  15. ],
  16. "jdbcUrl": "jdbc:mysql://ip:port/database1"
  17. },
  18. {
  19. "table": [
  20. "tbl4",
  21. "tbl5",
  22. "tbl6"
  23. ],
  24. "jdbcUrl": "jdbc:mysql://ip:port/database2"
  25. }
  26. ],
  27. "splitPk": "db_id",
  28. "username": "datasync001",
  29. "password": "xxxxxx",
  30. "column": [
  31. "*"
  32. ],
  33. "where": "Date(add_time) = '2014-06-01'"
  34. }
  35. },
  36. "writer": {
  37. "plugin": "odps",
  38. "parameter": {
  39. "accessId": "bazhen.csy",
  40. "accessKey": "xxxxxxx",
  41. "project": "project",
  42. "table": "table",
  43. "column": [
  44. "*"
  45. ],
  46. "partition": "pt=20150101"
  47. }
  48. }
  49. }
  50. }
3.2 参数说明
  • instanceName

    • 描述: 阿里云RDS实例名称(Instance名称)。用户使用该配置指定RDS的Instance名称,CDP将翻译为底层执行的jdbcUrl连接串连接。

      instanceName指定的是RDS实例。发给类似Mysql实例,指定了数据源的IP+Port,需要和database配合使用。例如,在RDS WebConsole页面中点击【基本信息】,其右侧详情的名称即是用户拥有RDS的instanceName。

      image

    • 必选:是

    • 默认值:无

  • jdbcUrl

    • 描述:对于CDP私有云场景、数据库迁移场景等,其本身数据源是普通Mysql数据库不是RDS。对于这类使用场景,用户可以指定jdbc信息直连。

      jdbcUrl和instanceName/database两类信息概念上是等同的,因此只能配置其一。如果两者均配置,CDP默认将使用jdbcUrl信息。

      考虑到公有云上用户RDS DNS名称、内网等信息可能存在更改的情况,强烈建议公有云用户不使用jdbcUrl配置项。

    • 必选:是

    • 默认值:无

  • database

    • 描述: 阿里云RDS实例下的数据库名称。
    • 必选:是
    • 默认值:无
  • username

    • 描述:数据源的用户名
    • 必选:是
    • 默认值:无
  • password

    • 描述:数据源的密码
    • 必选:是
    • 默认值:无
  • table

    • 描述:所选取的需要同步的表名称,一个CDP Job只能同步一张表。
    • 必选:是
    • 默认值:无
  • column

    • 描述:所配置的表中需要同步的列名集合,使用JSON的数组描述字段信息。用户使用星号代表默认使用所有列配置,例如[‘*’]。

      支持列裁剪,即列可以挑选部分列进行导出。

      支持列换序,即列可以不按照表schema信息进行导出。

      支持常量配置,用户需要按照Mysql SQL语法格式:

      [“id”, “`table`“, “1”, “‘bazhen.csy’”, “‘null’”, “to_char(a + 1)”, “2.3” , “true”]

      id为普通列名,`table`为包含保留在的列名,1为整形数字常量,’bazhen.csy’为字符串常量,null为空指针,to_char(a + 1)为表达式,2.3为浮点数,true为布尔值。

      column必须用户显示指定同步的列集合,不允许为空!

    • 必选:是

    • 默认值:无

  • splitPk

    • 描述:MySQLReader进行数据抽取时,如果指定splitPk,表示用户希望使用splitPk代表的字段进行数据分片,DataX因此会启动并发任务进行数据同步,这样可以大大提供数据同步的效能。

      推荐splitPk用户使用表主键,因为表主键通常情况下比较均匀,因此切分出来的分片也不容易出现数据热点。

      目前splitPk仅支持整型数据切分,不支持字符串、浮点、日期等其他类型。如果用户指定其他非支持类型,同步任务将报错;

      如果splitPk不填写,包括不提供splitPk或者splitPk值为空,DataX视作使用单通道同步该表数据。

    • 必选:否

    • 默认值:无

  • where

    • 描述:筛选条件。例如在做测试时,可以将where条件指定为limit 10;在实际业务场景中,往往会选择当天的数据进行同步,可以将where条件指定为gmt_create > $bizdate ;where条件可以有效地进行业务增量同步。如果不填写where语句,包括不提供where的key或者value,DataX均视作同步全量数据。
    • 必选:否
    • 默认值:无
  • querySql

    • 描述:在有些业务场景下,where这一配置项不足以描述所筛选的条件,用户可以通过该配置型来自定义筛选SQL。当用户配置了这一项之后,DataX系统就会忽略tables,columns这些配置型,直接使用这个配置项的内容对数据进行筛选,例如需要进行多表join后同步数据,使用select a,b from table_a join table_b on table_a.id = table_b.id;当用户配置querySql时,MySQLReader直接忽略table、column、where条件的配置,querySql优先级大于table、column、where选项。
    • 必选:否
    • 默认值:无
3.3 类型转换

目前MySQLReader支持大部分Mysql类型,但也存在部分个别类型没有支持的情况,请注意检查你的类型。

下面列出MySQLReader针对Mysql类型转换列表:

DataX 内部类型 Mysql 数据类型
Long int, tinyint, smallint, mediumint, int, bigint
Double float, double, decimal
String varchar, char, tinytext, text, mediumtext, longtext
Date date, datetime, timestamp, time, year
Boolean bit, bool
Bytes tinyblob, mediumblob, blob, longblob, varbinary

请注意:

  • 除上述罗列字段类型外,其他类型均不支持。
  • MySQLReader将tinyint(1)视作整形。

4 性能报告

4.1 环境准备
4.1.1 数据特征

建表语句:

  1. CREATE TABLE `tc_biz_vertical_test_0000` (
  2. `biz_order_id` bigint(20) NOT NULL COMMENT 'id',
  3. `key_value` varchar(4000) NOT NULL COMMENT 'Key-value的内容',
  4. `gmt_create` datetime NOT NULL COMMENT '创建时间',
  5. `gmt_modified` datetime NOT NULL COMMENT '修改时间',
  6. `attribute_cc` int(11) DEFAULT NULL COMMENT '防止并发修改的标志',
  7. `value_type` int(11) NOT NULL DEFAULT '0' COMMENT '类型',
  8. `buyer_id` bigint(20) DEFAULT NULL COMMENT 'buyerid',
  9. `seller_id` bigint(20) DEFAULT NULL COMMENT 'seller_id',
  10. PRIMARY KEY (`biz_order_id`,`value_type`),
  11. KEY `idx_biz_vertical_gmtmodified` (`gmt_modified`)

) ENGINE=InnoDB DEFAULT CHARSET=gbk COMMENT=’tc_biz_vertical’

单行记录类似于:

  1. biz_order_id: 888888888
  2. key_value: ;orderIds:20148888888,2014888888813800;
  3. gmt_create: 2011-09-24 11:07:20

gmt_modified: 2011-10-24 17:56:34

attribute_cc: 1

  1. value_type: 3
  2. buyer_id: 8888888
  3. seller_id: 1
4.1.2 机器参数
  • 执行DataX的机器参数为:
    1. cpu: 24核 Intel(R) Xeon(R) CPU E5-2630 0 @ 2.30GHz
    2. mem: 48GB
    3. net: 千兆双网卡
    4. disc: DataX 数据不落磁盘,不统计此项
  • Mysql数据库机器参数为:
    1. cpu: 32核 Intel(R) Xeon(R) CPU E5-2650 v2 @ 2.60GHz
    2. mem: 256GB
    3. net: 千兆双网卡
    4. disc: BTWL419303E2800RGN INTEL SSDSC2BB800G4 D2010370
4.1.3 DataX jvm 参数

-Xms1024m -Xmx1024m -XX:+HeapDumpOnOutOfMemoryError

4.2 测试报告
4.2.1 单表测试报告
通道数 是否按照主键切分 DataX速度(Rec/s) DataX机器网卡进入流量(MB/s) DataX机器运行负载 DB网卡流出流量(MB/s) DB运行负载
1 183185 29 0.6 31 0.6
1 183185 29 0.6 31 0.6
4 183185 29 0.6 31 0.6
4 329733 58 0.8 60 0.76
8 183185 29 0.6 31 0.6
8 549556 115 1.46 120 0.78

说明:

  1. 这里的单表,主键类型为 bigint(20),范围为:190247559466810-570722244711460,从主键范围划分看,数据分布均匀。
  2. 对单表如果没有安装主键切分,那么配置通道个数不会提升速度,效果与1个通道一样。
4.2.2 分表测试报告(2个分库,每个分库16张分表,共计32张分表)
通道数 DataX速度(Rec/s) DataX机器网卡进入流量(MB/s) DataX机器运行负载 DB网卡流出流量(MB/s) DB运行负载
1 202241 31.5 1.0 32 1.1
4 726358 123.9 3.1 132 3.6
8 1074405 197 5.5 205 5.1
16 1227892 229.2 8.1 233 7.3

5 约束限制

5.1 主备同步数据恢复问题

主备同步问题指Mysql使用主从灾备,备库从主库不间断通过binlog恢复数据。由于主备数据同步存在一定的时间差,特别在于某些特定情况,例如网络延迟等问题,导致备库同步恢复的数据与主库有较大差别,导致从备库同步的数据不是一份当前时间的完整镜像。

CDP如果同步的是阿里云提供RDS,是直接从主库读取数据,不存在数据恢复问题。但是会引入主库负载问题,请注意流控配置。

5.2 一致性约束

Mysql在数据存储划分中属于RDBMS系统,对外可以提供强一致性数据查询接口。例如当一次同步任务启动运行过程中,当该库存在其他数据写入方写入数据时,MySQLReader完全不会获取到写入更新数据,这是由于数据库本身的快照特性决定的。关于数据库快照特性,请参看MVCC Wikipedia

上述是在MySQLReader单线程模型下数据同步一致性的特性,由于MySQLReader可以根据用户配置信息使用了并发数据抽取,因此不能严格保证数据一致性:当MySQLReader根据splitPk进行数据切分后,会先后启动多个并发任务完成数据同步。由于多个并发任务相互之间不属于同一个读事务,同时多个并发任务存在时间间隔。因此这份数据并不是完整的一致的数据快照信息。

针对多线程的一致性快照需求,在技术上目前无法实现,只能从工程角度解决,工程化的方式存在取舍,我们提供几个解决思路给用户,用户可以自行选择:

  1. 使用单线程同步,即不再进行数据切片。缺点是速度比较慢,但是能够很好保证一致性。
  2. 关闭其他数据写入方,保证当前数据为静态数据,例如,锁表、关闭备库同步等等。缺点是可能影响在线业务。
5.3 数据库编码问题

Mysql本身的编码设置非常灵活,包括指定编码到库、表、字段级别,甚至可以均不同编码。优先级从高到低为字段、表、库、实例。我们不推荐数据库用户设置如此混乱的编码,最好在库级别就统一到UTF-8。

MySQLReader底层使用JDBC进行数据抽取,JDBC天然适配各类编码,并在底层进行了编码转换。因此MySQLReader不需用户指定编码,可以自动获取编码并转码。

对于Mysql底层写入编码和其设定的编码不一致的混乱情况,MySQLReader对此无法识别,对此也无法提供解决方案,对于这类情况,导出有可能为乱码

5.4 增量数据同步

MySQLReader使用JDBC SELECT语句完成数据抽取工作,因此可以使用SELECT…WHERE…进行增量数据抽取,方式有多种:

  • 数据库在线应用写入数据库时,填充modify字段为更改时间戳,包括新增、更新、删除(逻辑删)。对于这类应用,MySQLReader只需要WHERE条件跟上一同步阶段时间戳即可。
  • 对于新增流水型数据,MySQLReader可以WHERE条件后跟上一阶段最大自增ID即可。

对于业务上无字段区分新增、修改数据情况,MySQLReader也无法进行增量数据同步,只能同步全量数据。

5.5 SQL安全性

MySQLReader提供querySql语句交给用户自己实现SELECT抽取语句,MySQLReader本身对querySql不做任何安全性校验。这块交由DataX用户方自己保证。

FAQ


Q: MySQLReader同步报错,报错信息为XXX

A: 网络或者权限问题,请使用mysql命令行测试:

  1. mysql -u<username> -p<password> -h<ip> -D<database> -e "select * from <表名>"

如果上述命令也报错,那可以证实是环境问题,请联系你的DBA。


Q: 我想同步Mysql增量数据,怎么配置?

A: MySQLReader必须业务支持增量字段DataX才能同步增量,例如在淘宝大部分业务表中,通过gmt_modified字段表征这条记录的最新修改时间,那么DataX MySQLReader只需要配置where条件为

  1. "where": "Date(add_time) = '2014-06-01'"

Q: 上述bizdate代表什么意思? 我每天需要同步的gmt_modified值肯定不一样的,如何做到每天使用不同变量值

A: CDP支持自定义变量,请参考CDP Console 中有关自定义变量章节说明。


Q: 我有1亿条数据需要同步,大概需要同步多长时间

A: 和数据库配置、DataX机器负载相关,请参考上述性能章节


Q: 为什么不推荐使用默认列*, 会有问题吗

A: 如果你限定了DataX同步a,b,c三列,那么数据库在添加列,修改列,删除列情况,DataX可以做到要么立即报错,要么兼容老情况。如果直接配置星号,上游的数据库变量会立刻影响下游数据!而且可能会在下游任务运行到一段时间才报错,可能已经引入了大量脏数据。


Q: MySQLReader同步出现乱码,怎么处理

A: 通常情况下是你同步的数据库没有按照规范配置编码,比如数据库配置的编码是UTF8,但是底层物理文件实际存放的编码是GBK,DataX按照UTF-8读取数据就会出现乱码。此时你应该寻求你的DBA修改库的编码格式。

最后更新:2016-11-30 16:25:49

  上一篇:go Job主体配置__作业配置说明_使用手册_数据集成-阿里云
  下一篇:go SQLServerReader__Reader插件_使用手册_数据集成-阿里云