dingxiaobo
dingxiaobo
> @dingxiaobo 有计划去支持这一块吗 最近无计划
用的是主干版本自行编译的DataX吗?
看起来是ADS数据库和mysql driver不兼容导致的,ADS是哪家的?
发一下异常信息?
使用的是自己编译的DataX吗?
csvReaderConfig 里 再加一条 "useCustomRecordDelimiter":true 试下 可行话帮忙反馈一下,我更新一下README
把需要的分区分区值,配置成常量即可 例如: ```json { "name": "hdfsreader", "parameter": { "path": "/user/hive/warehouse/mytable01/pt=20230215", "defaultFS": "hdfs://xxx:port", "column": [ { "index": 0, "type": "long" }, { "index": 1, "type": "boolean" }, { "type": "string", "value":...
@hf200012 帮忙看下这个优化要不要merge