LiemLin
LiemLin
> > 我也遇到了同样的问题,13B的效果比7B的要差不少。我是自己转换的模型,不知道问题出在哪里。 模型用的是下面两个: https://huggingface.co/minlik/chinese-alpaca-7b-merged https://huggingface.co/minlik/chinese-alpaca-13b-merged > > 我下载了您发布的7b模型,问答效果效果几乎没有,只会重复问题: > >  prompt的格式改成下面的 prompt = “Below is an instruction that describes a task. Write a response that appropriately completes the...
> > Error solved by upgrading to gcc-11. Try that first. > > That's what I did, and the error resolved. Is your operating system centos?
python server.py --listen --api
训练步骤是什么样的
基于源llama和chinese-llama-plus-lora的合并版本再训练alpaca可能会好些

@sszyl 朋友你微调用了多少GPU显存,我24G显存OOM
@sszyl 兄弟你这个解决了吗  我微调训练出来的有14G,方便的话加微信LiemLin666探讨一下啊
 试试这个
 测了一下线上的ziya,也不太准确