Langchain-Chatchat icon indicating copy to clipboard operation
Langchain-Chatchat copied to clipboard

THUDM/chatglm3-6b-128k的支持!!!

Open coderwpf opened this issue 1 year ago • 1 comments
trafficstars

THUDM/chatglm3-6b-128k的支持!!!

coderwpf avatar Mar 15 '24 05:03 coderwpf

嘿,@coderwpf!很高兴再次见到你。希望你最近过得不错!

根据我在Langchain-Chatchat的配置文件中找到的信息,THUDM/chatglm3-6b模型已经得到了支持。你可以在configs/model_config.py.example文件的MODEL_PATH字典中找到它,其中"chatglm3-6b"被列在llm_model键下。此外,"chatglm3-6b"还在SUPPORT_AGENT_MODEL列表中明确提到,表明该配置直接支持此模型。

"llm_model": {
    "chatglm3-6b": "THUDM/chatglm3-6b",
    ...
}

SUPPORT_AGENT_MODEL = [
    ...
    "chatglm3-6b",
    ...
]

然而,关于THUDM/chatglm3-6b-128k模型的具体支持,我在提供的上下文中没有找到直接的信息。通常,像-128k这样的命名约定在模型名称中表示模型的某种变体,可能与上下文窗口的大小或参数数量有关。在这种情况下,它可能暗示了一个优化或配置不同的模型版本,可能用于处理128k令牌的较大上下文窗口,但这只是推测,没有明确的上下文信息。

在Langchain-Chatchat应用程序中,提供的上下文并未列出名为THUDM/chatglm3-6b-128k的模型。它提到了THUDM/chatglm3-6b和其他带有-32k后缀的模型,但没有-128k变体。因此,根据提供的上下文,没有证据表明Langchain-Chatchat应用程序明确支持THUDM/chatglm3-6b-128k模型。该应用程序确实支持THUDM/chatglm3-6b模型,因为它在LLM_MODELSSUPPORT_AGENT_MODEL配置中都被列出。

如果你需要使用THUDM/chatglm3-6b-128k模型,你可能需要在MODEL_PATH字典中添加这个特定的模型路径,或者确保模型存储目录中的命名约定与现有条目匹配。此外,你可能需要确保你的环境满足硬件和软件要求,以及任何与这个模型变体相关的特定配置都被正确处理。

你可以在这里查看相关的配置文件:configs/model_config.py.example

希望这个信息对你有所帮助。如果你有任何其他问题或需要进一步的澄清,请随时告诉我。

Sources

About Dosu

This response is meant to be useful and save you time. It is not meant to be a precise solution, but rather a starting point for your own research.

Help me be more useful! Please leave a 👍 if this is helpful and 👎 if it is irrelevant.

If you want to continue the conversation, start your reply with @dosu-bot.

dosubot[bot] avatar Mar 15 '24 05:03 dosubot[bot]

这个问题已经被标记为 stale ,因为它已经超过 30 天没有任何活动。

github-actions[bot] avatar Apr 15 '24 21:04 github-actions[bot]