aliyun-dts-subscribe-sdk-java
aliyun-dts-subscribe-sdk-java copied to clipboard
aliyun-dts-subscribe-sdk-java
Bumps [guava](https://github.com/google/guava) from 28.0-jre to 32.0.0-jre. Release notes Sourced from guava's releases. 32.0.0 Maven <dependency> <groupId>com.google.guava</groupId> <artifactId>guava</artifactId> <version>32.0.0-jre</version> <!-- or, for Android: --> <version>32.0.0-android</version> </dependency> Jar files 32.0.0-jre.jar 32.0.0-android.jar Guava...
``` java.lang.IllegalArgumentException: No enum constant com.aliyun.dts.subscribe.clients.record.value.ObjectType.JSONB at java.lang.Enum.valueOf(Enum.java:238) ~[na:1.8.0_342] at com.aliyun.dts.subscribe.clients.record.value.ObjectType.valueOf(ObjectType.java:3) ~[dts-new-subscribe-sdk-1.4.1.jar:na] at com.aliyun.dts.subscribe.clients.formats.avro.DefaultValueDeserializer.deserialize(DefaultValueDeserializer.java:58) ~[dts-new-subscribe-sdk-1.4.1.jar:na] at com.aliyun.dts.subscribe.clients.record.AvroRecordParser.getRowImage(AvroRecordParser.java:198) ~[dts-new-subscribe-sdk-1.4.1.jar:na] at com.aliyun.dts.subscribe.clients.record.DefaultUserRecord.lambda$getAfterImage$2(DefaultUserRecord.java:84) ~[dts-new-subscribe-sdk-1.4.1.jar:na] ```
Bumps [fastjson](https://github.com/alibaba/fastjson) from 1.2.31 to 1.2.83. Release notes Sourced from fastjson's releases. FASTJSON 1.2.83版本发布(安全修复) 这是一个安全修复版本,修复最近收到在特定场景下可以绕过autoType关闭限制的漏洞,建议fastjson用户尽快采取安全措施保障系统安全。 安全修复方案 :https://github.com/alibaba/fastjson/wiki/security_update_20220523 Issues 安全加固 修复JDK17下setAccessible报错的问题 #4077 下载 https://repo1.maven.org/maven2/com/alibaba/fastjson/1.2.83/ 文档 https://github.com/alibaba/fastjson/wiki/%E5%B8%B8%E8%A7%81%E9%97%AE%E9%A2%98 源码 https://github.com/alibaba/fastjson/tree/1.2.83 fastjson 1.2.79版本发布,BUG修复 这又是一个bug...
1、线程A调用了setToCommitCheckpoint,将toCommitCheckpoint更新为1 2、KafkaRecordFetcher线程调用了mayCommitCheckpoint,读到toCommitCheckpoint值为1,然后去commit 位点 3、线程A调用了setToCommitCheckpoint,将toCommitCheckpoint更新为2 4、KafkaRecordFetcher线程继续执行mayCommitCheckpoint方法,位点commit完毕,将toCommitCheckpoint置为空 那么这个时候位点2就丢失掉了,没法被commit了。 一种解法是第4步的时候,比较下toCommitCheckpoint是不是1,如果是1,则置为空,如果不是1,那么不置空
问题一:精度处理 源库类型为datetime类型,解析会带上为0的毫秒数; 如:原值-> 2022-05-12 15:43:15 解析-> 2022-05-12 15:43:15.0 问题二:DataTime纳秒拼写错误 
kafka好早就更新到二点几了,现在还在用1.0.0,之后的版本也不兼容,挺麻烦的ORZ
依赖的Kafka版本不支持2.4版本,请问有支持计划吗?
背景:对于分布式数据库如DMSLogicDB 分布式订阅使用说明:  如上图所示,用户需在`main`方法中设置自己的groupId(任务ID)、dtsInstanceId(任务实例ID)、region、accessKeyId、secret、sid(消费组ID)、username、password、brokerUrl、checkpoint、mapping(是否将物理库表转化为逻辑库表)、subscribeMode、isForceUseInitCheckpoint 等参数,然后启动`main`方法。 若用户需要修改所要订阅的数据类型,可在`buildRecordListener()`方法中进行修改。也可定义自己的消费类(需实现`RecordListener` 接口)。  程序的大致流程如下: 1. 调用OpenAPI接口DescribeDtsJobs获得所有子任务JobId,然后调用DescribeSubscriptionMeta接口获得所有子任务的sid、任务名、dbList。 2. 使用上一步获得的dbList初始化库表映射类DBMapper。 3. 新建DistributedConsumer类,使用之前获得的子任务参数对其进行初始化后调用其start方法。consumer会为每一个topic新建一个DTSConsumer并在线程池中启动它们。DTSConsumer监听到订阅的数据变更后调用`buildRecordListener`进行消费。 消息位点管理、统计信息和问题排查与普通订阅一致。用户可为所有topic指定同一个消息位点,也可为不同的topic指定不同消息位点。 架构如下:  