[Feature]: 希望增加Deepseek V3的API支持
Class | 类型
大语言模型
Feature Request | 功能请求
希望增加Deepseek V3的API支持
这个已经支持deepseek了啊。你用的是什么版本?
这个已经支持deepseek了啊。你用的是什么版本?
现在使用的是3.91版本。 已经研究明白该怎么用了,把AVAIL_LLM_MODELS里吧deepseek-chat加进去就好了。非常感谢!
用不了啊
这个已经支持deepseek了啊。你用的是什么版本?
原始版本是这样,我改了之后,能选v3,还用不了
这个已经支持deepseek了啊。你用的是什么版本?
现在使用的是3.91版本。 已经研究明白该怎么用了,把AVAIL_LLM_MODELS里吧deepseek-chat加进去就好了。非常感谢!
怎么做到的?不存在bridge_deepseek.py这个文件啊,bridge_deepseekcoder.py是本地模型。加上就能用吗?
#config_private.py中,把deepseek-chat填到AVAIL_LLM_MODELS 中,也可以在LLM_MODEL = "deepseek-chat"中默认选中(也可以后期选) LLM_MODEL = "deepseek-chat" # 可选 ↓↓↓ AVAIL_LLM_MODELS = ["gpt-4-1106-preview", "qianfan","spark", "deepseek-chat" ,"deepseek-coder","sparkv2", "sparkv3", "sparkv3.5", "sparkv4","qwen-turbo", "qwen-plus", "qwen-max", "gemini-1.5-flash", "gemini-1.5-pro", "chatglm3" 。。。。。。。。 #找到下面,填入key就可以了。
深度求索(DeepSeek) API KEY,默认请求地址为"https://api.deepseek.com/v1/chat/completions"
DEEPSEEK_API_KEY =
我看到现在有个deepseek-R1了,我在模型预选那里填了deepseek-V1和deepseek-V3,但是都连不了,填deepseek-chat可以连,但是不知道连的是哪个模型啊?
@LiJieqin 我看到现在有个deepseek-R1了,我在模型预选那里填了deepseek-V1和deepseek-V3,但是都连不了,填deepseek-chat可以连,但是不知道连的是哪个模型啊?
Deepseek API 提供的就是 deepseek-chat / deepseek-coder / deepseek-reasoner 三个模型,调用 deepseek-chat 实际上就是 V3 模型。API endpoint 里写 V1 是为了兼容 OpenAI 的 BaseUrl。(参见:https://api-docs.deepseek.com/zh-cn/ )
用不了啊
请问你解决了吗?我也遇到同样的问题
用不了啊
请问你解决了吗?我也遇到同样的问题
同问,我按照上面的回复写了deepseek-chat还是不行儿