百岁

Results 93 comments of 百岁

当然可以 https://tis.pub/docs/example/mysql-hudi ![hudi-arttecth-f254224af2a8b86f4414d1549c0d72bb](https://user-images.githubusercontent.com/21274618/204226735-36096581-0b86-4c9d-89c4-6fd3b92f9c24.png) 数据按照上图红色线条的路径走

兄弟 这个是flink干的事儿,找错地方了

> 大部分是分钟级以上的)已经采用powerjob来实现了。但是还有一只流处理任务,主要是从kafka中消费数据然后写入到其他大数据存储中(比如es),或者是从kafka消费后做一些轻量级的etl处理(该部分代码已经实现了)然后在写入到大数据存储中(比如es)。但是缺少这类流式任务的调度框架或者平台,需要对这些任务做CRUD、启停和监控。 这个不是应该用flink来实现么

![2001712903202_ pic](https://github.com/PowerJob/PowerJob/assets/21274618/a78fe8d5-95bb-4c09-97c9-82b32c63d9f1) https://www.processon.com/view/link/6618d3c9e0d53b487ae7029d?cid=6618d019e0d6716b064d594f 从现象来看就是 第二阶段subtask 全部跑到其中一个worker上去了,这样再多的机器也没有用了

### 问题 1. 产品表更新,更新宽表;===> 这种情况可能会引起更新风暴,可以接受? 2. `Nested`是啥意思? 3. 打宽表可以使用hive,或者odps不?

后续可以提供docker-compose的部署方案

目前DB2 是用什么版本的?

目前调用的 chunjun的 clickhouse sink 组件 确实还没有支持物理删除,后续版本会支持物理删除的 https://github.com/datavane/tis/issues/209