百岁
百岁
## 动机 TIS目前已经实现的数据端类型,以及支持的读写类型方式描述:[https://tis.pub/docs/plugin/source-sink](https://tis.pub/docs/plugin/source-sink) 随着大数据生态的繁荣,有越来越多的数据端在涌现,凭借TIS优良的可插拔扩展性,目标将生态中的长尾头部及尾部的数据端都囊括其中。 为此,需要社区中有兴趣的小伙伴一起协力共建。 ## 目前计划中需要实现的端有以下几种 最右侧列issue 有内容的说明已经提上日程,没有说明仅有意向 端类型 | 批读 | 批写| 实时读 | 实时写 | issue| |-|-|-|-|-|-| |OceanBase| ✔|✔ |✔ | ✔| #420| |RocketMQ|||| ✔|| | SqlServer...
as long time passed developing,some package like `solr.tgz.tar` has been abandon from TIS solutiuon ,so We shall make some fixs for tis-ansible script . 1. fix ansible script remove some...
用户需要修改datax 生成ddl 的配置,目前版本中用户只能使用默认的TIS定制好的DDL脚本,用户在某场景下需要能够修改系统提供的默认脚本来实现自己的需求 https://github.com/datavane/tis/issues/245
AWS 的s3和s3 Glue 有广泛的使用场景,可以使用TIS将数据导入其中 * 参考文档:[https://aws.amazon.com/cn/blogs/china/use-aws-glue-amazon-s3-build-datalake](https://aws.amazon.com/cn/blogs/china/use-aws-glue-amazon-s3-build-datalake/) * [s3 glue spec](https://github.com/airbytehq/airbyte/blob/master/airbyte-integrations/connectors/destination-s3-glue/src/main/resources/spec.json) * [s3 spec](https://github.com/airbytehq/airbyte/blob/master/airbyte-integrations/connectors/destination-s3/src/main/resources/spec.json)
在测试过程中 以MySQL8作为数据源的Chunjun Source在监听到增量数据通过internalConvert写入到内部RowData过程中,datetime类型的数据会出错。
**Describe the bug** when I launched powerjobServer in docker container time is not consist with Host Node **To Reproduce** docker run command: ``` shell docker run -ti --entrypoint /bin/bash powerjob/powerjob-server:4.3.6...
我在看网上[文档](https://blog.csdn.net/asmartkiller/article/details/108877276)介绍说: > JindoFS 有两种使用模式, 块存储模式(BLOCK)和缓存模式(CACHE)。 下面我们介绍下如何在 EMR 中配置和使用 JindoFS 以及不同模式对应的场景。 具体在 https://github.com/aliyun/alibabacloud-jindodata/blob/master/docs/user/4.x/4.6.x/4.6.11/jindofs/hadoop/jindosdk_ide_hadoop.md 这个文档中,在初始化FileSystem 这个实例过程中,可以设置什么参数开启 `缓存模式(CACHE)`? 能否指点一二 ``` java import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FSDataInputStream; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import java.net.URI; public class...
按照 https://github.com/aliyun/alibabacloud-jindodata/blob/master/docs/user/3.x/hadoop/jindosdk_on_hadoop.md 文档所示, 1. 下载jindofs-sdk,并且加入classpath中 2. 在阿里云OSS中创建了基于OSS HDFS bucket, 3. 本地依赖hadoop:3.2.1 版本相关的依赖包代码 希望能够初始化org.apache.hadoop.fs.FileSystem 实例对象。 在执行过程中报告以下错误,不知道是哪儿出错了,本机是MacOS机器 ``` shell Caused by: java.lang.RuntimeException: JbootNative loading failed: java.lang.UnsatisfiedLinkError: /private/tmp/libjboot-3397ed5b1f5602cb_20211216_104547.dylib: dlopen(/private/tmp/libjboot-3397ed5b1f5602cb_20211216_104547.dylib, 1): no suitable image...