百岁
百岁
有就不错了 ,别抱怨啦
当然可以 https://tis.pub/docs/example/mysql-hudi  数据按照上图红色线条的路径走
兄弟 这个是flink干的事儿,找错地方了
> 大部分是分钟级以上的)已经采用powerjob来实现了。但是还有一只流处理任务,主要是从kafka中消费数据然后写入到其他大数据存储中(比如es),或者是从kafka消费后做一些轻量级的etl处理(该部分代码已经实现了)然后在写入到大数据存储中(比如es)。但是缺少这类流式任务的调度框架或者平台,需要对这些任务做CRUD、启停和监控。 这个不是应该用flink来实现么
 https://www.processon.com/view/link/6618d3c9e0d53b487ae7029d?cid=6618d019e0d6716b064d594f 从现象来看就是 第二阶段subtask 全部跑到其中一个worker上去了,这样再多的机器也没有用了
### 问题 1. 产品表更新,更新宽表;===> 这种情况可能会引起更新风暴,可以接受? 2. `Nested`是啥意思? 3. 打宽表可以使用hive,或者odps不?
后续可以提供docker-compose的部署方案
目前DB2 是用什么版本的?
目前调用的 chunjun的 clickhouse sink 组件 确实还没有支持物理删除,后续版本会支持物理删除的 https://github.com/datavane/tis/issues/209