DataSphereStudio icon indicating copy to clipboard operation
DataSphereStudio copied to clipboard

DataSphereStudio is a one stop data application development& management portal, covering scenarios including data exchange, desensitization/cleansing, analysis/mining, quality measurement, visualizati...

Results 234 DataSphereStudio issues
Sort by recently updated
recently updated
newest added

From the perspective of DSS architecture, it not only spans data application tools in different fields, but also interfaces with the Hadoop base platform at the bottom. Its installation and...

Scriptis supports shell script creation

问题描述: - visualis页面无法打开 ![1](https://user-images.githubusercontent.com/8966854/74358470-7055f400-4dfc-11ea-87fd-c03cf609786f.png) - 此时的cookie信息 ![2](https://user-images.githubusercontent.com/8966854/74358471-70ee8a80-4dfc-11ea-9eb0-e58f99a00583.png) - **使用Postman测试发现,在header中手动添加bdp-user-ticket-id参数后,返回值正常** ![3](https://user-images.githubusercontent.com/8966854/74358472-70ee8a80-4dfc-11ea-93cb-9ed911e03891.png) 版本: dss0.6.0与dss0.7.0均有此问题,请问如何解决?

第一次执行包含两个不同jdbc节点的工作流还可以成功。编辑之后(可以增加一个新节点),第二次,执行工作流,则执行失败。失败的情况,如下图: ![image](https://user-images.githubusercontent.com/35916131/75246243-5956cf00-580a-11ea-8e91-b7c413e8006f.png) 其中,jdbc01和jdbc03的url是同一个ip下的不同库。如下图: jdbc01: ![image](https://user-images.githubusercontent.com/35916131/75246252-5f4cb000-580a-11ea-888d-ae11ef1845a5.png) jdbc03: ![image](https://user-images.githubusercontent.com/35916131/75246261-65429100-580a-11ea-80ce-f6ae7831a66a.png) 同时,单独执行jdbc02,得到了成功的结果: ![image](https://user-images.githubusercontent.com/35916131/75246275-68d61800-580a-11ea-9474-74cbbffb59ea.png) 而单独执行jdbc03,得到失败的结果: ![image](https://user-images.githubusercontent.com/35916131/75246283-6e336280-580a-11ea-934e-8b4c7d4740f7.png) 此时,删掉jdbc03的节点后,又可以正常执行: ![image](https://user-images.githubusercontent.com/35916131/75246291-725f8000-580a-11ea-94f0-7ffc0d081a2f.png) 查看日志:jdbc03失败的原因,是因为jdbc03虽然配置的url库为prestoConf,但是最终执行jdbc时,所用的却是test01库(即jdbc01所用的库) 日志如下: ![image](https://user-images.githubusercontent.com/35916131/75246308-77bcca80-580a-11ea-8c2f-537de41a18bd.png) 日志中可以看到,执行以前加载的jdbc是prestoConf,但是执行时的报错,却用的是test01。可能是因为com.webank.wedatasphere.linkis.entrance.execute.EntranceExecutorManagerImpl中的findUsefulExecutor在加载缓存时,加载错误。 似乎这个问题在相同ip下的不同库就会出现。 控制台配置图也没有进行默认配置,控制台配置图: ![image](https://user-images.githubusercontent.com/35916131/75246329-81463280-580a-11ea-8720-8eabd532240c.png) 麻烦帮忙排查下该问题,谢谢。

linkis控制台->设置->数据开发spark->spark资源设置 该配置在实际使用中并未生效,页面修改保存后,数据库中并未修改

引擎查询完数据之后,并不会退出,需要手动退出

按照要求安装了精简版(昨天在百度网盘下载的dss_linkis.tar.gz安装包)。其中安装环境可能不满足要求的有一项:jdk版本是build 1.8.0_91-b14。都按照缺省参数安装,只修改了db.sh 的mysql参数(手动测试可连接) 安装完毕后,在Eureka(20303端口)界面中只看到了7个服务: CLOUD-PUBLICSERVICE | n/a (1) | (1) | UP (1) - xxxx:cloud-publicservice:9102 -- | -- | -- | -- DATAWORKCLOUD | n/a (1) | (1) | UP...

在工作流编辑界面中,拖出一个sql节点,关联脚本时,能打开目录树,无法看到在scriptis中已编辑保存的sql。其他类型节点可以,官方提供的sendbox中是可以的。 我们部署的界面: ![QQ图片20200318103254](https://user-images.githubusercontent.com/4351491/76919428-d9e98680-6903-11ea-881f-2c6dd4fc9a42.png) 官方sandbox中的界面: ![QQ图片20200318103329](https://user-images.githubusercontent.com/4351491/76919450-ecfc5680-6903-11ea-84fa-733996f97455.png) 我们部署的其他节点的界面,是可以的: ![QQ截图20200318103437](https://user-images.githubusercontent.com/4351491/76919516-1ae19b00-6904-11ea-8500-b1ea80797802.png)

For most new users, our current document is not comprehensive enough and the document format is not standard. What users need most is user manuals, such as: * Scripts: *...