MOSS
MOSS copied to clipboard
请问中文表现和chatglm6b相比哪个好
目前感觉中文开源大模型效果最好的就是chatglm6b,大佬有内部测试过吗?
目前感觉中文开源大模型效果最好的就是chatglm6b,大佬有内部测试过吗?
你是来砸场子的么?
我怀疑你在搞事情
(⊙_⊙)
+1
哪位大佬用gpt4给来个测评
理论上来说16B的模型效果肯定比6B的好
实际上的效果6b大于16B
能细细说下吗
亲测,一个略显尴尬的事实,ChatGLM-6B强不少
亲测,ChatGLM-6B强一些。例如你让它写一段react代码,感觉这个模型在胡言乱语
确实对效果挺好奇的。。。评测应该很快就有人做了
实测了一下,和chatglm6b效果有不少差距,例如在做prompt tuning时,moss经常会无法准确理解用户的意图,导致回答很奇怪。不过考虑到moss基座只有16b,glm的基座是130b,语义理解能力有差距很正常。感谢moss团队的开源,期待后续尝试更大的基座,看能否有进一步提高
理论上来说16B的模型效果肯定比6B的好
不是参数量越大越好的,moss16b实测效果不如glm6b,感觉跟基座模型能力有关
实测了一下,和chatglm6b效果有不少差距,例如在做prompt tuning时,moss经常会无法准确理解用户的意图,导致回答很奇怪。不过考虑到moss基座只有16b,glm的基座是130b,语义理解能力有差距很正常。感谢moss团队的开源,期待后续尝试更大的基座,看能否有进一步提高
chatglm 6B的基座就是6B
我看来看去,哪里写了16B?
我看来看去,哪里写了16B?
看不懂readme的中文啊
实测了一下,和chatglm6b效果有不少差距,例如在做prompt tuning时,moss经常会无法准确理解用户的意图,导致回答很奇怪。不过考虑到moss基座只有16b,glm的基座是130b,语义理解能力有差距很正常。感谢moss团队的开源,期待后续尝试更大的基座,看能否有进一步提高
chatglm 6B的基座就是6B
glm有个130b的基座,6b是基于这个优化训练而来的
实测了一下,和chatglm6b效果有不少差距,例如在做prompt tuning时,moss经常会无法准确理解用户的意图,导致回答很奇怪。不过考虑到moss基座只有16b,glm的基座是130b,语义理解能力有差距很正常。感谢moss团队的开源,期待后续尝试更大的基座,看能否有进一步提高
chatglm 6B的基座就是6B
glm有个130b的基座,6b是基于这个优化训练而来的
“基于”其实基于数据和经验,并非基于130B的模型(6B不是130B蒸馏得到的),所以从模型规模来说,这就是6B。
我看来看去,哪里写了16B?
看不懂readme的中文啊
这个README我是看不懂,一堆没用的中文,ctrl+F 16b 在哪呢?
我看来看去,哪里写了16B?
看不懂readme的中文啊
这个README我是看不懂,一堆没用的中文,ctrl+F 16b 在哪呢?
16b就是160亿的意思,moss介绍里说了,它的参数量是160亿
@MrToy @rayvzn119 @ykk648 @CodePothunter @YYGe01 @Aida-yy @ScottishFold007 @Siegfried-qgf @upupc @iron-js 之前README中给出的repetition penalty会导致代码生成质量低下,参考https://github.com/OpenLMLab/MOSS/issues/42