qiunanx
qiunanx
@itinycheng
@itinycheng 您好, 1. 按照你的说法,假如我有 100 并行度, 100 个本地表。一个本地表,每次都有 100 个并行度往这个本地表写?也就是会生成 100 个文件?合并的压力就比较大。我这样理解的对不对?(之前我还想改造成按照并行度写,但是写入策略是根据某个 key的话就行不通了) 2. 我发现实时写 ck 会遇到很多问题,你们写入的时候,批量写间隔/写大小一般设置多大?
@itinycheng 您好: 对于第一个问题,假如sink并行度减少,数据处理不过来,会造成反压。是不是可以优化成,我查询到 100 个本地表。我并行度是1连第一个节点。并行度是2写第二个节点,以此类推呢?这种方案有什么缺陷? 对于 ck 集群的某个节点重启的时候。写入失败。我再去重新连接重启这个节点的副本。这种改动有意义?因为目前遇到的问题是,ck经常有增加减少字段的需求。当执行 DDL 的时候,经常卡主。需要重启 ck 节点。重启的时候实时任务就会报错,重启。重启之后任务有一段时间的延迟。
@itinycheng 好的。非常感谢。 最近我用批任务运行。两个sink。一个是kafka 。一个是clickhouse。任务结束之后。kafka有数据。clickhouse 没有任何数据。任务也没有任何报错。大佬有遇到过吗?
@itinycheng batch 任务报错了。异常没抛出
@TanYuxin-tyx Is this feature already implemented ?