LiuQiang

Results 5 comments of LiuQiang

把--fp16 换成 --fp16_full_eval True 但还是会卡住 ![image](https://github.com/hiyouga/LLaMA-Factory/assets/69130229/9acf98db-fe5e-4a7b-8023-ea69aa9f1e3c) ![image](https://github.com/hiyouga/LLaMA-Factory/assets/69130229/7e44ff03-7028-426c-b03c-2498aeaccc51)

我重新拉了一遍项目代码,相同的参数运行还是会卡住 我又换了chatglm3+lora微调的模型,还是会卡在相同的位置 换成python启动chatglm3+lora微调的评估就正常 ![image](https://github.com/hiyouga/LLaMA-Factory/assets/69130229/b81a2e37-3e63-4122-9c29-4c72ce2757c1) 我有尝试不加载lora微调部分,直接用原始模型进行评估,还是卡住,不过在零卡少了几个进程 ![image](https://github.com/hiyouga/LLaMA-Factory/assets/69130229/e5ecc29c-ff73-4ef5-bcab-883cd8ed2140)

没办法了 都带上也试过了 依旧会卡住

对,先用的torch2.0版本的,后面降到1.13.1版本就行了