Langchain-Chatchat icon indicating copy to clipboard operation
Langchain-Chatchat copied to clipboard

将langchain和微调后的chatglm3结合

Open 153zml opened this issue 1 year ago • 1 comments

请问后续会添加将langchain和与微调后的chatglm3结合的功能吗 由于chatglm3是目前国内主流的开源大模型,在国内有很大的需求。理论上讲,使用垂域的数据集微调chatglm3,结合langchain模型能够极大提升模型的表现性能

153zml avatar Feb 26 '24 13:02 153zml

🤖

嘿,@153zml!很高兴再次见到你。希望你最近一切都好!

根据我对Langchain-Chatchat的理解,该项目已经支持与ChatGLM3等其他语言模型的集成。在配置文件中,LLM_MODELS列表包括"chatglm3-6b"作为其中一个模型。此外,"chatglm3-6b"也包含在SUPPORT_AGENT_MODEL列表中,表明它被支持作为一个代理模型。这是相关的代码:

LLM_MODELS = ["chatglm3-6b", "zhipu-api", "openai-api"]

...

SUPPORT_AGENT_MODEL = [
    "openai-api",  # GPT4 模型
    "qwen-api",  # Qwen Max模型
    "zhipu-api",  # 智谱AI GLM4模型
    "Qwen",  # 所有Qwen系列本地模型
    "chatglm3-6b",
    "internlm2-chat-20b",
    "Orion-14B-Chat-Plugin",
]

源码链接:configs/model_config.py.example

关于微调ChatGLM3模型的问题,虽然配置文件中列出了"chatglm3-6b",但并未提供关于微调ChatGLM3模型的信息。

如果你想将微调后的ChatGLM3模型与Langchain模型集成,你需要将模型添加到LLM_MODELS列表,并在MODEL_PATH下的llm_model字典中指定模型路径。这是相关的代码:

LLM_MODELS = ["chatglm3-6b", "zhipu-api", "openai-api"]

MODEL_PATH = {
    "llm_model": {
        "chatglm3-6b": "THUDM/chatglm3-6b",
        ...
    },
    ...
}

LLM_MODELS列表中,"chatglm3-6b"是ChatGLM3模型的名称。在llm_model字典中,"chatglm3-6b": "THUDM/chatglm3-6b"指定了ChatGLM3模型的路径。如果你有一个微调后的ChatGLM3模型,你可以将"THUDM/chatglm3-6b"替换为你的微调模型的路径。

源码链接:configs/model_config.py.example

希望这些信息对你有所帮助。如果你有任何其他问题或需要进一步的澄清,请随时提问。

Sources

About Dosu

This response is meant to be useful and save you time. It is not meant to be a precise solution, but rather a starting point for your own research.

Help me be more useful! Please leave a 👍 if this is helpful and 👎 if it is irrelevant.

If you want to continue the conversation, start your reply with @dosu-bot.

dosubot[bot] avatar Feb 26 '24 13:02 dosubot[bot]

查看wiki

zRzRzRzRzRzRzR avatar Mar 02 '24 06:03 zRzRzRzRzRzRzR