ChatGPTX-Uni
ChatGPTX-Uni copied to clipboard
13b和 6b 特征size都不一样 lora 怎么能复用额
感谢您的提问,这也曾是之前我们认真思考过的问题。以基础范例来看,LLAMA是7B,ChatGLM是6B,虽然接近,但如果从特征向量来看则完全不同。因而,Lora实际上是一种相对独立的微调模型组件,而非大模型的直接权值,预训练模型及其权值是存放于bin或pth文件之中,即使我们不使用任何Lora等模型,这些预训练模型也是可以正常运行的。我们在此将13B Lora上传。
@StarRing2022 等等,我不确定我理解你回答中的逻辑