苏承祥
苏承祥
大佬 牛逼,我也正在升级spark3.0遇见了你这个问题,根据你的方案解决了。请问你的es-spark 3.0是自己编译的吗? 我用的这个 https://github.com/elastic/elasticsearch-hadoop/pull/1498
I found that this is a bug of hbase-server. You can solve it by upgrading the hbase-server version to 2.0+. Of course, you can also add spark conf spark.hadoop.validateOutputSpecs=false to...
可以是可以支持,只不过我们这边目前没有presto的写操作sql,无法充分测试。如果可以,建议你参考读操作开发,开发完可以提交个PR,一起合作
下个版本会考虑的。不过目前可以通过创建一个空的定时任务,让下游任务依赖这个空的定时任务和其它依赖任务同样可以满足你的需求。
dingding 的话 需要自己实现,具体可以参考用户操作文档
这个分区的时间是你们自己根据任务版本生成的哦。版本时间是固定的,但是分区时间你们可以任务生成。比如配置变量昨天分区:last1day_dt=${zdt.addDay(-1).format("yyyyMMdd")},代码中直接使用dt=${last1day_dt}
[杭州涂鸦科技有限公司](https://www.tuya.com/)


支持的,创建shell任务 flink run执行就好了