GLM-130B
GLM-130B copied to clipboard
内测的ChatGLM(https://chatglm.cn)使用感受还不如本地部署的chatGLM-6B量化模型,这是为啥?
如题,内测的ChatGLM(https://chatglm.cn)不是使用参数规模更大的GLM-130B作为基座模型的SFT模型吗?为啥使用感受还不如本地部署的chatGLM-6B量化模型呢?
不是吧,感觉比6B好多了。