Steven Jacob
Steven Jacob
 建议使用awk进行修改: awk -F '=' '{if($2!~/^#/) print $2}'
https://www.ververica.com/getting-started 文档中指出5分钟就能安装好,都是扯淡。完全没用
 
当前Fate支持隐私查询吗?或者有计划支持吗?
https://github.com/FederatedAI/FATE-LLM/blob/main/doc/tutorial/parameter_efficient_llm/ChatGLM3-6B_ds.ipynb 按照这个教程中的指导,需要上传train.json到存储引擎中 {"file":"xxxx/train.json","head",false,"partition":4,"meta":{},"namespace":"experiment","name":"ad"} 上传数据失败。需要需要设置:Please provide sample_id_name
 FATE-LLM训练GPT模型时,卡住在这里不动了,最开始以为是资源问题,使用了2台机器上跑,每台1块GPU,结果还是卡住,没报错,也没日志输出。哪位大佬知道怎么调整吗?
按照https://github.com/FederatedAI/FATE-LLM/blob/main/doc/tutorial/parameter_efficient_llm/ChatGLM3-6B_ds.ipynb教程进行训练模型时,在提交任务后,出现FP16报错的情况——在client的docker容器中提交的,也加入了FATE-LLM/python到PYTHONPATH环境变量中。请问下各位大佬,这个该怎么解决呢?谢谢了。 FP16 Mixed precision trainning with AMP or APEX('--fp16') and FP16 half precision evaluation('--fp16_full_eval') can only be used on CUDA or NPU devices or certain XPU devices (with IPEX)
各位大佬好,想请假下,在fate中使用LLM训练GPT模型时,报以下错误,根据deepspeed的相关问题和解决,将其fp16禁止掉,但在fate中,将其fp16:{enable:False}后,还是报以下错误,想问下有遇到过这个问题的吗? 环境: 2台3090GPU机器,每台1块GPU。deepspeed==1.13.1 
各位大佬好,想请问下,fate中使用的哪个千问模型?我使用Qwen-7B和Qwen1.5-7B,都无法正常跑起来。使用ChatGLM3-6B是可以正常训练的。