阿杜

Results 5 comments of 阿杜

同样遇到此问题,用的 datetime 类型字段 环境: Dinky: v0.7.3 数据库: MySQL 5.7 Kafka: v2.4.1 Flink: 1.16.0 & 1.17.0

maven 依赖的 scope 问题,发现是发生在官方提供的 jar 这边: 刚下载了官方 jar 包和源码,对比后发现,官方提供的 `com.vesoft:nebula-flink-connector:3.5.0.jar` 和 `com.vesoft:client:3.5.0.jar` 存在相同的源码。 ![image](https://github.com/vesoft-inc/nebula-flink-connector/assets/48935792/fc5c80d7-854f-4b59-b225-3ec7f950e90c) 我们先在使用时,直接排除掉 `com.vesoft:client:3.5.0.jar` 试一下吧,如果还不行,只能手动处理 `com.vesoft:nebula-flink-connector:3.5.0.jar` 里的 class 文件,先删掉同名的包了。

感谢回复,你的方式在我这边还是跑不通,我最终试成功的方式是: 1、maven 引 nebula-flink-connector 时,加 provided,将它从我的 Flink uber-jar 中排除出去,然后单独把 nebula-flink-connector-3.5.0.jar 放到 ${FLINK_HOME}/lib/ 下面。 2、在报错的第 82 行那里,将所有代码格式做换行然后 IDEA 重新编译打包,对,是换行,你没看错。 ```java // 这个位置 at com.XXX.jobs.portraits.XXXJober.initSink(XXXJober.java:82) ``` 换行前是这样 ```java kfkSource.addSink(SinkUtil.nebulaSinkOptions(context, cfgPrefix) .vertexOpts(opts ->...

`第一点,你的pom中没有额外引用com.vesoft:client吧,这个不需要单独引入, nebula-flink-connector的包中会带着client的。还有一个 可能要看下flink环境中是否有其他版本的client jar包` 这个我有排查过,有的都去掉了。不是这方面的问题。就感觉挺诡异的。

`第一点,你的pom中没有额外引用com.vesoft:client吧,这个不需要单独引入, nebula-flink-connector的包中会带着client的。还有一个 可能要看下flink环境中是否有其他版本的client jar包` 对了,`com.vesoft:client-3.5.0.jar` 中,有一个 `com.facebook.thrift` 包,这个没有包含在 `com.vesoft:nebula-flink-connector:3.5.0.jar` 里边,担心 flink 里只引 nebula-flink-connector 不引 client 会有问题,求解决。