GaoYN

Results 5 issues of GaoYN

### Search before asking - [X] I had searched in the [feature](https://github.com/datasophon/issues?q=is%3Aissue+label%3A%22Feature%22) and found no similar feature requirement. ### Description 我在部署Doris1.2.6的过程中,指定Master角色是 slave1,Worker是master2,slave1,node4,但最后查看日志发现Master节点却是master2,导致无法连接,进而无法部署成功 我的第二次尝试是指定Master为node4,Worker为node4,同样的最后查看日志发现Master节点却是master2,这个节点我根本没有指定,但却出现在了这里。 比较两次日志法相,部署指令信息配置还是采用第一次的。重启work之后也没有更新 我不知道这个是不是导致部署不成功的原因 这是第一次部署节点日志记录 这个事只部署在node4节点上 ### Usage Scenario...

### Search before asking - [X] I had searched in the [feature](https://github.com/datasophon/issues?q=is%3Aissue+label%3A%22Feature%22) and found no similar feature requirement. ### Description 在使用1.2.1版本的过程中通过datasophon部署安装spark3中没有master角色,看了一下安装Spark3指南,说没有master角色,感觉应该是Spark3没有适配完成吗? 希望集成一个Spark2版本,因为安装的很多组件对spark的要求还是2.x 当然,我自己也会尝试一下我的这些建议 ### Usage Scenario _No response_ ### Related...

### Search before asking - [X] I had searched in the [feature](https://github.com/datasophon/issues?q=is%3Aissue+label%3A%22Feature%22) and found no similar feature requirement. ### Description 在使用1.2.1的过程中,开始部署了一个hadoop集群,后来想要添加一个节点作为hdfs client角色,但是通过datasophon中hdfs中进行添加时,需要经过master角色的选择,也就是说服务要添加一个新的实例必须经过master实例,我不知道会不会重新部署master,也就没有尝试了。 如果datasophon新增一个实例过程就是如此,选择master没有什么影响,希望说明一下。如果不是如此,希望可以在添加实例中避过master的选择,直接新增一个work或者client的实例。 如果我这里建议有问题,那就抱歉了 ### Usage Scenario _No response_ ###...

### Search before asking - [X] I had searched in the [feature](https://github.com/datavines-ops/datavines/issues?q=is%3Aissue+label%3A%22Feature%22) and found no similar feature requirement. ### Description 我在计算hive中的表时,遇到了一些问题。尝试解决,看到datavines源码时有一些问题。 spark引擎模块的jdbc连接模块datavines-engine-spark-connector-jdbc的io.datavines.engine.spark.jdbc.source.JdbcSource的getData方法。我看到符合enableHiveSupport以及Hive的驱动,就可以直接返回Hive的数据,但是由于我没有找到设置enableHiveSupport的位置,导致返回的是后面的通用的jdbc连接的数据,我想知道这里enableHiveSupport在哪里进行设置 1.源码图示 2.spark-submit提交任务给的json有关配置 在环境的conf中一直为null,我没有找到找到通过datavines设置这个的方法 ### Usage Scenario _No response_...

### Search before asking - [X] I had searched in the [issues](https://github.com/datavines-ops/datavines/issues?q=is%3Aissue+label%3A%22bug%22) and found no similar issues. ### What happened 在使用hive作为数据源,使用spark作为计算引擎时,发生报错,报错原因是不支持statement.setQueryTimeOut方法。 根据报错提示找到报错问题,法相与spark使用的hive-jdbc的jar包版本有关 我使用的是spark-2.4.8-bin-hadoop2.7,其中的hive-jdbc版本是1.2.1.spark2。该jar源码不支持该方法。 我看了其他spark2.4.x的版本,发现使用的都是1.2.1.spark2版本。 我尝试了修改hive得版本为2.1.0对spark2.4.8进行编译,但是由于hive版本跨度比较大,无法直接通过这种简单的方法修改hive版本。 我查看了一下spark3的hive版本,发现是2.3.7的,但是datavines不支持spark3,这种方法也无法成功使用spark引擎。 不知道测试使用的是什么spark版本,与我的spark2.4.8有什么不同 ### DataVines Version...

bug