Facico
Facico
Here is a similar issue: #12 Thank you for your interest in our project. LLaMA is a multilingual model and does have some proficiency in Chinese. Considering the lack of...
可以,但那样就会变成一个类似没有意图的生成器(训练难度也会变大),如果任务都是一个意图的话那可能问题不大
This error may pop up whenever the program interrupts abnormally, and there are so many factors that determine this error. You might be able to add a TORCH_DISTRIBUTED_DEBUG=DETAIL in front...
我们的程序除了c++推理部分基本都是基于python写的,你说的东西应该是和前端有关的。我们的前端是用gradio写的,如果你想了解相关的文件可以参考[gradio这个项目](https://github.com/gradio-app/gradio/blob/9840e87e829062246808fc130dd05b4b2176ee7f/website/homepage/.gitignore),一般这两个东西是不会上传的。
把依赖对齐:https://github.com/Facico/Chinese-Vicuna/blob/master/requirements_4bit.txt
遇不到eos?你的tokenizer是对的吗,可以用这个[脚本](https://github.com/Facico/Chinese-Vicuna/blob/master/test_tokenizer.py)测一下
因为finetune_chat是后来开发的(我们开发的人不同也会有一些不同步的问题),可以用这个检查一下tokenizer:https://github.com/Facico/Chinese-Vicuna/blob/master/test_tokenizer.py
你这个看起来是爆内存了,你跑的多大的模型?不过对于训练lora来说deepspeed省的显存并不明显 4090跑这个脚本13B应该是可以放下的,不过batch size得设置小一点
报错信息是什么,我猜应该是网络的问题?
peft这个仓库还在开发阶段,更新的比较快,建议还是固定用一个版本