百岁
百岁
看上面异常是在sink端抛出的异常,这样好办。只要在数据源配置一项中,设置`autoReconnect=true`参数应该就可以了 
用户通过添加以上reconnect参数经过一段时间测试发现没有效果,依然会断连接。 继续查看文档还需要额外添加一些参数,文档:https://www.cnblogs.com/yhtboke/p/5632757.html `autoReconnect=true&timeBetweenEvictionRunsMillis=26400&testWhileIdle=true&validationQuery=SELECT%201`
wait_timeout 等待时间是 5小时,说明从晚上大概9点 左右就没有增量数据了,然后 半夜2点又开始来增量数据了,这是jdbc connection 已经关闭了,就会报以上错误。解决办法可以是 在flink-cdc 创建mysql connection 配置中 设置一个test sql 让他隔一段时间去执行一个简单的sql,保证mysql 服务端不会关闭连接。
Flink-cdc 社区中也会报此问题:https://github.com/apache/flink-cdc/issues/276
谢谢您的反馈,在本issue中您提到了三点: > 实时同步中的设置中,批量设置不生效,需要一个表一个表的设置状态,比较麻烦,如果表比较多的话,需要多次点击 确实,前期只开放了批量同步的自动批量设置。后续版本会将增量同步的自动批量设置也补上 > 通过首页编辑实例配置文件比较麻烦,需要跳转多次 我猜测是想直接跳转到批量管理的编辑页面?如路径:`/x/mysql/update?execId=2ed766a2-ed29-0765-9d5c-5b72a04fc816#reader` > 而且我发现通过 docker-compose 部署的方式,批量构建支持的数据库最多 40 张表,这个需要在创建实例的地方,给一个比较醒目的提示 嗯,这个在后续版本中会做到在触发批量同步执行之前便告知上限是`40张`表。另外,在即将发布的4.0.1 版本中,可以将TIS中定义的批量同步任务的配置同步到Apache DolphinScheduler调度框架中来接受调度执行,这样可以不受`40张表`的上限限制.
对管道列表页面进行改进 
关于`hive到Doris的数据同步`,hive中保存的数据的格式(format)是什么?
clickhouse jdbc驱动:https://github.com/ClickHouse/clickhouse-java/tree/main/examples/jdbc
> ROW FORMAT DELIMITED FIELDS TERMINATED BY '\001' STORED AS ORC TBLPROPERTIES ( 'orc.compress' = 'SNAPPY') ok,收到