MOSS icon indicating copy to clipboard operation
MOSS copied to clipboard

请问中文表现和chatglm6b相比哪个好

Open rayvzn119 opened this issue 2 years ago • 20 comments

目前感觉中文开源大模型效果最好的就是chatglm6b,大佬有内部测试过吗?

rayvzn119 avatar Apr 21 '23 02:04 rayvzn119

目前感觉中文开源大模型效果最好的就是chatglm6b,大佬有内部测试过吗?

你是来砸场子的么?

ScottishFold007 avatar Apr 21 '23 05:04 ScottishFold007

我怀疑你在搞事情

Siegfried-qgf avatar Apr 21 '23 05:04 Siegfried-qgf

(⊙_⊙)

upupc avatar Apr 21 '23 07:04 upupc

+1

iron-js avatar Apr 21 '23 07:04 iron-js

哪位大佬用gpt4给来个测评

zzcgithub avatar Apr 21 '23 07:04 zzcgithub

理论上来说16B的模型效果肯定比6B的好

terrifyzhao avatar Apr 21 '23 12:04 terrifyzhao

实际上的效果6b大于16B

kylin-zhou avatar Apr 21 '23 12:04 kylin-zhou

能细细说下吗

YYGe01 avatar Apr 21 '23 13:04 YYGe01

亲测,一个略显尴尬的事实,ChatGLM-6B强不少

CodePothunter avatar Apr 21 '23 14:04 CodePothunter

亲测,ChatGLM-6B强一些。例如你让它写一段react代码,感觉这个模型在胡言乱语

MrToy avatar Apr 21 '23 19:04 MrToy

确实对效果挺好奇的。。。评测应该很快就有人做了

Ricardokevins avatar Apr 22 '23 07:04 Ricardokevins

实测了一下,和chatglm6b效果有不少差距,例如在做prompt tuning时,moss经常会无法准确理解用户的意图,导致回答很奇怪。不过考虑到moss基座只有16b,glm的基座是130b,语义理解能力有差距很正常。感谢moss团队的开源,期待后续尝试更大的基座,看能否有进一步提高

rayvzn119 avatar Apr 23 '23 01:04 rayvzn119

理论上来说16B的模型效果肯定比6B的好

不是参数量越大越好的,moss16b实测效果不如glm6b,感觉跟基座模型能力有关

rayvzn119 avatar Apr 23 '23 01:04 rayvzn119

实测了一下,和chatglm6b效果有不少差距,例如在做prompt tuning时,moss经常会无法准确理解用户的意图,导致回答很奇怪。不过考虑到moss基座只有16b,glm的基座是130b,语义理解能力有差距很正常。感谢moss团队的开源,期待后续尝试更大的基座,看能否有进一步提高

chatglm 6B的基座就是6B

CodePothunter avatar Apr 23 '23 01:04 CodePothunter

我看来看去,哪里写了16B?

ykk648 avatar Apr 23 '23 01:04 ykk648

我看来看去,哪里写了16B?

看不懂readme的中文啊

Ricardokevins avatar Apr 23 '23 02:04 Ricardokevins

实测了一下,和chatglm6b效果有不少差距,例如在做prompt tuning时,moss经常会无法准确理解用户的意图,导致回答很奇怪。不过考虑到moss基座只有16b,glm的基座是130b,语义理解能力有差距很正常。感谢moss团队的开源,期待后续尝试更大的基座,看能否有进一步提高

chatglm 6B的基座就是6B

glm有个130b的基座,6b是基于这个优化训练而来的

rayvzn119 avatar Apr 23 '23 03:04 rayvzn119

实测了一下,和chatglm6b效果有不少差距,例如在做prompt tuning时,moss经常会无法准确理解用户的意图,导致回答很奇怪。不过考虑到moss基座只有16b,glm的基座是130b,语义理解能力有差距很正常。感谢moss团队的开源,期待后续尝试更大的基座,看能否有进一步提高

chatglm 6B的基座就是6B

glm有个130b的基座,6b是基于这个优化训练而来的

“基于”其实基于数据和经验,并非基于130B的模型(6B不是130B蒸馏得到的),所以从模型规模来说,这就是6B。

CodePothunter avatar Apr 23 '23 03:04 CodePothunter

我看来看去,哪里写了16B?

看不懂readme的中文啊

这个README我是看不懂,一堆没用的中文,ctrl+F 16b 在哪呢?

ykk648 avatar Apr 24 '23 01:04 ykk648

我看来看去,哪里写了16B?

看不懂readme的中文啊

这个README我是看不懂,一堆没用的中文,ctrl+F 16b 在哪呢?

16b就是160亿的意思,moss介绍里说了,它的参数量是160亿

rayvzn119 avatar Apr 24 '23 01:04 rayvzn119

@MrToy @rayvzn119 @ykk648 @CodePothunter @YYGe01 @Aida-yy @ScottishFold007 @Siegfried-qgf @upupc @iron-js 之前README中给出的repetition penalty会导致代码生成质量低下,参考https://github.com/OpenLMLab/MOSS/issues/42

txsun1997 avatar Apr 26 '23 05:04 txsun1997