Zhengxiao Du
Zhengxiao Du
Already supported in https://github.com/THUDM/ChatGLM-6B/tree/main/ptuning
你微调的时候只用了单轮数据的话模型只有单轮的回复是经过了微调的。也就是说应该设置 `history=[]`。不过即使是有history的情况这个输出也过于奇怪了。你evaluate的结果跟仓库里是一致的
能够运行PyTorch的都可以
可能是机器有防火墙屏蔽了 22 以外的端口
请提供报错截图和你的环境信息
@jeffsjf 请使用 https://github.com/THUDM/ChatGLM-6B#%E5%A4%9A%E5%8D%A1%E9%83%A8%E7%BD%B2
I think you should replace `compute3` with `127.0.0.1`
因为 3000 步的训练在这个数据集上已经能取得不错的效果。针对自己的数据集可以进行调整。
因为 3000 步的训练在这个数据集上已经能取得不错的效果。针对自己的数据集可以进行调整。
`ice_text.model` 文件下载不正确,可以跟 https://huggingface.co/THUDM/chatglm-6b/blob/main/ice_text.model 对比一下