Llama-Chinese
Llama-Chinese copied to clipboard
family上面的13b-Chat 和我本地部署的差距太大了,什么原因呢?
是需要调整Chat_Gradio里面的模型参数吗?
感觉效果差的好离谱
因为不是一个模型,建议使用atom7B ,社区开放的chinese 版本,都是没有基于中文在继续预训练的。
因为不是一个模型,建议使用atom7B ,社区开放的chinese 版本,都是没有基于中文在继续预训练的。
7B也是一个样,本地部署和family结果差距巨大,有所保留
因为不是一个模型,建议使用atom7B ,社区开放的chinese 版本,都是没有基于中文在继续预训练的。
7B也是一个样,本地部署和family结果差距巨大,有所保留
加社区微信,然后加开飞机的乔巴或者直接加我微信,我来告诉你,当前开源的和family上的是一样的参数的模型。