swift icon indicating copy to clipboard operation
swift copied to clipboard

ms-swift: Use PEFT or Full-parameter to finetune 250+ LLMs or 25+ MLLMs

Results 206 swift issues
Sort by recently updated
recently updated
newest added

**Describe the feature** 该方法的三次迭代中对Llama 2 70B进行了微调,得到了一个优于AlpacaEval 2.0排行榜上许多现有系统的模型,包括Claude 2、Gemini Pro和GPT-4 0613,感觉还挺强的 方法里是通过自己生成数据来训练模型,感觉能通过少量数据通过增加机时获得更好的模型 **Paste any useful information** https://arxiv.org/abs/2401.10020 **Additional context** 如果数据种子也可以通过指定LLM、数据集生成就更好了

**Describe the bug** 1.8的脚本没问题,已经完成过训练,刚刚升级了2.0就出错了,回退后一切正常 **Your hardware and system info** torch 2.2.0 py 3.10 cuda 11.8 A100-40g ![ec6bf8fb22f5e027bb88ae60d64988d](https://github.com/modelscope/swift/assets/126460983/58502b5c-b9f7-4d7e-8c97-cb91c24dd4aa)

是否支持在continue pretrain的时候加入sft 指令数据呢

question

感激各位对Swift开发和维护,这是一个非常好用的项目!想请教一个关于多轮数据在训练时的问题。 在训练多轮对话的数据时,需要将一个多轮对话拆成多条递进的对话数据吗?Swift是否会将多轮对话的中的每一条assistant发话都进行loss回传?如果不,将数据拆分是否会带来性能的提升? 比如在训练一条3轮对话,需要将数据拆解成 turn1, turn1,2, turn1,2,3 ... 吗?

question

Hello, As only the chat model '' fine-tune is described in Internlm-Xcomposer2 Best Practice, can I fine-tune the base model? Or does it need you to add the model for...

more models

自我认知微调最佳实践 报错 UnicodeDecodeError: 'utf-8' codec can't decode byte 0xb5 in position 128: invalid start byte,这应该是编码问题,求大佬怎么解决

question

我看到grok-1的微调说明中提到项目团队“额外准备了符合transformers标准的tokenizer”。请问它与原生的grok-1 tokenizer有什么不同呢?

**Describe the bug** What the bug is, and how to reproduce, better with screenshots(描述bug以及复现过程,最好有截图) 用最新代码,下面获取数据集会错误 ```python from swift.llm.utils import get_dataset get_dataset("hh-rlhf-cn") ``` **Your hardware and system info** Write your system...

question

请问使用swift微调多模态模型的时候,在哪里设置vision encoder是否参与训练

question

用qwen1.5-7b采用swift官网的自我认知微调后,开始使用CUDA_VISIBLE_DEVICES=0 swift export --ckpt_dir xxx --merge_lora true 进行权重合并,结果合并后模型变成了二十几个GB的大小,比原模型大出一倍? 是因为我在lora微调时dtype是auto自动选择fp32而不是fp16的原因吗?

question