gpt_academic
gpt_academic copied to clipboard
关于ChatGLM部署
您好,在部署 ChatGLM 的时候遇到显存不足的错误。经过查看后发现程序默认采用的是fp16版本的模型。请问能否考虑修改这部分代码,让其可以根据显存容量自动选择不同的版本呢?
您好,我们欢迎类似的改进PR
非常重要
可以考虑将request_llm/bridge_chatglm.py中"THUDM/chatglm2-6b"修改为"THUDM/chatglm2-6b-int4",不够完善但能满足需求