Linly
Linly copied to clipboard
Linly-ChatFlow-7B可以基于peft实现LoRA微调吗?
hf版本的应该可以哈
可以的,不过你要先模型转化为hf格式的,linly是基于llama训练的,你可以先将TXpretrain版本的权重转化为llama版本(txp有相关代码),再将llama版本转化为hf格式
方便稍微具体说一下么?我试了下linly直接增量训练或者微调是可以的,但是lora微调 loss不下降。是lora需要先转换一下版本么?
权重转了hf了么?
---- 回复的原邮件 ---- | 发件人 | @.> | | 日期 | 2023年06月09日 10:57 | | 收件人 | @.> | | 抄送至 | @.>@.> | | 主题 | Re: [CVI-SZU/Linly] Linly-ChatFlow-7B可以基于peft实现LoRA微调吗? (Issue #70) |
方便稍微具体说一下么?我试了下linly直接增量训练或者微调是可以的,但是lora微调 loss不下降。是lora需要先转换一下版本么?
— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you commented.Message ID: @.***>
感谢回复!我训练的时候没有转hf,我看lora也是基于tencentpretrain做的。linly也可以直接拿来做微调,应该就是tencentpretrain的格式。所以没有转成hf的。我不太理解为什么lora的时候需要转成hf格式的?
看你是用啥微调吧,用TXp就不用转,用peft库就需要
---- 回复的原邮件 ---- | 发件人 | @.> | | 日期 | 2023年06月09日 11:03 | | 收件人 | @.> | | 抄送至 | @.>@.> | | 主题 | Re: [CVI-SZU/Linly] Linly-ChatFlow-7B可以基于peft实现LoRA微调吗? (Issue #70) |
感谢回复!我训练的时候没有转hf,我看lora也是基于tencentpretrain做的。linly也可以直接拿来做微调,应该就是tencentpretrain的格式。所以没有转成hf的。我不太理解为什么lora的时候需要转成hf格式的?
— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you commented.Message ID: @.***>