GLM-130B
GLM-130B copied to clipboard
是不是chatglm与这个GLM-130b开源模型中间还有很多问题待解决?
我在hugging faceGLM-130B上体验了以下翻译任务,发现回答根本没办法看,我又把同样的问题到内测版本的chatglm上 https://chatglm.cn/ 试了下,很明显后者和前者不是一个档次。 所以说chat模型和预训练模型中间还做了很多工作吗?不是直接由问题生成的答案吗?
确实,根本不能用呀
这不是明显的嘛,开源权重只是预训练模型权重,后续还有指令微调,ppo等很多步骤,怎么可能只用预训练模型就得到好的问答