LLM-Tuning icon indicating copy to clipboard operation
LLM-Tuning copied to clipboard

Tuning LLMs with no tears💦, sharing LLM-tools with love❤️.

Results 31 LLM-Tuning issues
Sort by recently updated
recently updated
newest added

作者好 目前用 model = PeftModel.from_pretrained(model, "weights/simple_math_4op").half() 加载Lora,能否提供一个功能merge一下了

微调的时候如何让模型记住一些特有的知识呢?比如问你是谁,由谁开发的场景,需要模型回答固定的答案这样,类似于faq

我这里大概有1000条多轮对话的数据,可以用这个脚本进行微调吗?如果可以应该怎么构造数据结构?

Chinese-LLaMA-Alpaca有计划安排加入到本项目吗?

@st.cache_resource def get_model(): tokenizer = AutoTokenizer.from_pretrained("chatglm2-6b", trust_remote_code=True) model = AutoModel.from_pretrained("chatglm2-6b", trust_remote_code=True).cuda() model = PeftModel.from_pretrained(model, "weights/sentiment_comp_ie_chatglm2").half() # 多显卡支持,使用下面两行代替上面一行,将num_gpus改为你实际的显卡数量 # from utils import load_model_on_gpus # model = load_model_on_gpus("chatglm2-6b", num_gpus=2) model = model.eval()...

chatglm2_loar运行错误,提示glm2没有实现这个方法 model.enable_input_require_grads() NotImplementedError

运行bash train.sh 后报错 ![image](https://github.com/beyondguo/LLM-Tuning/assets/86952796/e07f537b-5a97-4688-96de-b13164ddbb9d)

请问有用过多卡训练过吗?我单卡是通的,但是多卡会报错诶

我这里有个总结文章内容,得出结论的需求,但是在微调这总是会因为文章内容太长OOM,我现在的文章稳定在2w字左右,其实这个长度推理是没问题的,但是做微调就立马爆