LiuQiang
LiuQiang
把--fp16 换成 --fp16_full_eval True 但还是会卡住  
我重新拉了一遍项目代码,相同的参数运行还是会卡住 我又换了chatglm3+lora微调的模型,还是会卡在相同的位置 换成python启动chatglm3+lora微调的评估就正常  我有尝试不加载lora微调部分,直接用原始模型进行评估,还是卡住,不过在零卡少了几个进程 
没办法了 都带上也试过了 依旧会卡住
对,先用的torch2.0版本的,后面降到1.13.1版本就行了