rayvzn119
rayvzn119
目前感觉中文开源大模型效果最好的就是chatglm6b,大佬有内部测试过吗?
i'd like to see whether Chinese data works in LLAMA finetune
和原版vicuna相比,这个的效果如何,尤其是中文方面
### Is your feature request related to a problem? Please describe. _No response_ ### Solutions 如题 ### Additional context _No response_
看了介绍,似乎是准备把羊驼的lora权重加在glm6b上面?据实测,羊驼中文能力很一般,glm中文挺强的,不知道融完后是1+1>2还是小于2呢
首先膜拜一下大佬,代码我大概看懂了,写的很牛逼。有一个疑问就是,lora的训练数据是怎么构造的?我发现输入:给我画一根火柴,ChatGLM输出结果为:, a light stick。说明应该是用lora对GLM进行了finetune,我好奇的是,这个finetune是咋做的?训练数据能公开一下吗?我自己也用lora对GLM做过finetune,但不如大佬这个这么稳定,几乎每次都能识别是t2i还是t2t。希望能够得到大佬的解答,感谢!