Steven Jacob

Results 9 issues of Steven Jacob

![image](https://user-images.githubusercontent.com/19503929/130591922-7e0eaa4a-aaaa-49a2-bc84-98a92fbbf448.png) 建议使用awk进行修改: awk -F '=' '{if($2!~/^#/) print $2}'

reason=bug
module=rollpair
lang=bash

https://www.ververica.com/getting-started 文档中指出5分钟就能安装好,都是扯淡。完全没用

![image](https://github.com/kingToolbox/WindTerm/assets/19503929/6aecb7df-3b55-4311-9c3f-eefb8e173753) ![image](https://github.com/kingToolbox/WindTerm/assets/19503929/b0c2354a-3f67-4c63-a8f4-40ceaf0f6f75)

当前Fate支持隐私查询吗?或者有计划支持吗?

https://github.com/FederatedAI/FATE-LLM/blob/main/doc/tutorial/parameter_efficient_llm/ChatGLM3-6B_ds.ipynb 按照这个教程中的指导,需要上传train.json到存储引擎中 {"file":"xxxx/train.json","head",false,"partition":4,"meta":{},"namespace":"experiment","name":"ad"} 上传数据失败。需要需要设置:Please provide sample_id_name

![image](https://github.com/FederatedAI/FATE-LLM/assets/19503929/46eb4e3d-4876-4c97-9a99-f8cf95ab30a2) FATE-LLM训练GPT模型时,卡住在这里不动了,最开始以为是资源问题,使用了2台机器上跑,每台1块GPU,结果还是卡住,没报错,也没日志输出。哪位大佬知道怎么调整吗?

按照https://github.com/FederatedAI/FATE-LLM/blob/main/doc/tutorial/parameter_efficient_llm/ChatGLM3-6B_ds.ipynb教程进行训练模型时,在提交任务后,出现FP16报错的情况——在client的docker容器中提交的,也加入了FATE-LLM/python到PYTHONPATH环境变量中。请问下各位大佬,这个该怎么解决呢?谢谢了。 FP16 Mixed precision trainning with AMP or APEX('--fp16') and FP16 half precision evaluation('--fp16_full_eval') can only be used on CUDA or NPU devices or certain XPU devices (with IPEX)

各位大佬好,想请假下,在fate中使用LLM训练GPT模型时,报以下错误,根据deepspeed的相关问题和解决,将其fp16禁止掉,但在fate中,将其fp16:{enable:False}后,还是报以下错误,想问下有遇到过这个问题的吗? 环境: 2台3090GPU机器,每台1块GPU。deepspeed==1.13.1 ![image](https://github.com/FederatedAI/FATE-LLM/assets/19503929/5f223ad8-bf6e-41d9-a975-0a43c49047aa)

各位大佬好,想请问下,fate中使用的哪个千问模型?我使用Qwen-7B和Qwen1.5-7B,都无法正常跑起来。使用ChatGLM3-6B是可以正常训练的。