zhaohaojie

Results 8 comments of zhaohaojie

@zhihuiwan 我也是通过 kubefate部署了 fate1.10.0 ,详情是 fate-spark-pulsar的配置,通过client upload数据集时报错,帮忙看下是什么问题, ![image](https://user-images.githubusercontent.com/10691315/231345605-5f6f0374-83fa-4a26-b2f1-5fb7fe331dd4.png)

#875 fate 1.10.0 使用pyarrow 连 hadoop3.x是报错的,

> > @zhihuiwan我也是通过kubefate部分配置了fate1.10.0,详情是fate-spark-pulsar的配置,通过客户端上传数据集时报错,帮忙看看下面是什么问题, ![图像](https://user-images.githubusercontent.com/10691315/231345605-5f6f0374-83fa-4a26-b2f1-5fb7fe331dd4.png) > > 请问下hadoop是哪个版本? [我是按v1.10.0 的kubefate的README 通过 k8s-deploy 的方式, 走/examples/party-9999/cluster-spark-pulsar.yaml](https://github.com/FederatedAI/KubeFATE/issues/875)

> 你部署的hadoop在hadoop/lib/native目录下是不是缺失了libhdfs.so文件?可以参考这个issues:[FederatedAI/FATE#4425](https://github.com/FederatedAI/FATE/issues/4425) @ChrisBamaofan spark+hdfs的版本 upload是报错了,然后铲掉了,后来通过 spark_local+localfs的方式部署,我再部署一遍看一下

> 你部署的hadoop在hadoop/lib/native目录下是不是缺失了libhdfs.so文件?可以参考这个issues:[FederatedAI/FATE#4425](https://github.com/FederatedAI/FATE/issues/4425) @ChrisBamaofan 刚刚通过kubefate 又部署了一遍 ,命令行是 ./kubefate cluster install -f ../kubefate/examples/party-9999/cluster-spark-pulsar.yaml,文件是没缺少的。 ![image](https://user-images.githubusercontent.com/10691315/232022111-74e5ddcf-bf9a-41db-8b9c-18530af274ea.png)

@owlet42 通过接口绑定到hdfs的方式也失败了,fateflow报错如下 ![image](https://user-images.githubusercontent.com/10691315/231390481-201cd315-a437-4d26-8e8a-3f9f7c47593e.png)

在网上看到了[通过pyarrow连 hadoop 3.x 的相同报错](https://issues.apache.org/jira/browse/ARROW-9019?page=com.atlassian.jira.plugin.system.issuetabpanels%3Aall-tabpanel)

> @ChrisBamaofan 请问你解决了吗?我遇到了同样的问题 ![image](https://user-images.githubusercontent.com/61258341/236607955-968d0d71-59f1-4f0b-ab30-09a0f184739c.png) 没解决,后来用了localspark+localfs的方式部署