LLM-Tuning
LLM-Tuning copied to clipboard
Tuning LLMs with no tears💦, sharing LLM-tools with love❤️.
作者好 目前用 model = PeftModel.from_pretrained(model, "weights/simple_math_4op").half() 加载Lora,能否提供一个功能merge一下了
微调的时候如何让模型记住一些特有的知识呢?比如问你是谁,由谁开发的场景,需要模型回答固定的答案这样,类似于faq
我这里大概有1000条多轮对话的数据,可以用这个脚本进行微调吗?如果可以应该怎么构造数据结构?
Chinese-LLaMA-Alpaca有计划安排加入到本项目吗?
@st.cache_resource def get_model(): tokenizer = AutoTokenizer.from_pretrained("chatglm2-6b", trust_remote_code=True) model = AutoModel.from_pretrained("chatglm2-6b", trust_remote_code=True).cuda() model = PeftModel.from_pretrained(model, "weights/sentiment_comp_ie_chatglm2").half() # 多显卡支持,使用下面两行代替上面一行,将num_gpus改为你实际的显卡数量 # from utils import load_model_on_gpus # model = load_model_on_gpus("chatglm2-6b", num_gpus=2) model = model.eval()...
chatglm2_loar运行错误,提示glm2没有实现这个方法 model.enable_input_require_grads() NotImplementedError
运行bash train.sh 后报错 
多卡运行后报错
请问有用过多卡训练过吗?我单卡是通的,但是多卡会报错诶
我这里有个总结文章内容,得出结论的需求,但是在微调这总是会因为文章内容太长OOM,我现在的文章稳定在2w字左右,其实这个长度推理是没问题的,但是做微调就立马爆