Langchain-Chatchat
Langchain-Chatchat copied to clipboard
将langchain和微调后的chatglm3结合
请问后续会添加将langchain和与微调后的chatglm3结合的功能吗 由于chatglm3是目前国内主流的开源大模型,在国内有很大的需求。理论上讲,使用垂域的数据集微调chatglm3,结合langchain模型能够极大提升模型的表现性能
🤖
嘿,@153zml!很高兴再次见到你。希望你最近一切都好!
根据我对Langchain-Chatchat的理解,该项目已经支持与ChatGLM3等其他语言模型的集成。在配置文件中,LLM_MODELS列表包括"chatglm3-6b"作为其中一个模型。此外,"chatglm3-6b"也包含在SUPPORT_AGENT_MODEL列表中,表明它被支持作为一个代理模型。这是相关的代码:
LLM_MODELS = ["chatglm3-6b", "zhipu-api", "openai-api"]
...
SUPPORT_AGENT_MODEL = [
"openai-api", # GPT4 模型
"qwen-api", # Qwen Max模型
"zhipu-api", # 智谱AI GLM4模型
"Qwen", # 所有Qwen系列本地模型
"chatglm3-6b",
"internlm2-chat-20b",
"Orion-14B-Chat-Plugin",
]
源码链接:configs/model_config.py.example
关于微调ChatGLM3模型的问题,虽然配置文件中列出了"chatglm3-6b",但并未提供关于微调ChatGLM3模型的信息。
如果你想将微调后的ChatGLM3模型与Langchain模型集成,你需要将模型添加到LLM_MODELS
列表,并在MODEL_PATH
下的llm_model
字典中指定模型路径。这是相关的代码:
LLM_MODELS = ["chatglm3-6b", "zhipu-api", "openai-api"]
MODEL_PATH = {
"llm_model": {
"chatglm3-6b": "THUDM/chatglm3-6b",
...
},
...
}
在LLM_MODELS
列表中,"chatglm3-6b"是ChatGLM3模型的名称。在llm_model
字典中,"chatglm3-6b": "THUDM/chatglm3-6b"指定了ChatGLM3模型的路径。如果你有一个微调后的ChatGLM3模型,你可以将"THUDM/chatglm3-6b"替换为你的微调模型的路径。
源码链接:configs/model_config.py.example
希望这些信息对你有所帮助。如果你有任何其他问题或需要进一步的澄清,请随时提问。
Sources
About Dosu
This response is meant to be useful and save you time. It is not meant to be a precise solution, but rather a starting point for your own research.
Help me be more useful! Please leave a 👍 if this is helpful and 👎 if it is irrelevant.
If you want to continue the conversation, start your reply with @dosu-bot.
查看wiki