Jianxiang Ma
Jianxiang Ma
 用不了啊
> 这个已经支持deepseek了啊。你用的是什么版本?  原始版本是这样,我改了之后,能选v3,还用不了
> > 这个已经支持deepseek了啊。你用的是什么版本? > > 现在使用的是3.91版本。 已经研究明白该怎么用了,把AVAIL_LLM_MODELS里吧deepseek-chat加进去就好了。非常感谢! 怎么做到的?不存在bridge_deepseek.py这个文件啊,bridge_deepseekcoder.py是本地模型。加上就能用吗?
>  > >  > > 未复现,请检查系统提示词 deepseek-v3确实有自我认知问题 系统提示:无系统提示和默认系统提示结果完全一样 --- 1.官方版 -经过提醒后纠正 2.本地部署 -使用test.llm测试,deepseek-v3误认为自己是gpt-3 正在测试模型: deepseek-chat 问题: 你基于什么模型? 正在等待响应... 回答结果: 我是一个基于OpenAI的GPT-3模型的人工智能助手。GPT-3,即生成预训练变换器3,是一种先进的语言处理模型,它能够理解和生成自然语言文本 。我的设计旨在通过文本交互提供信息、解答问题、执行任务和进行对话。 --- deepseek-r1、qwen等模型自我认知正常 
ollama部署的模型qwq、Gemma似乎不支持多线程。希望上线更多模型的多线程支持 
 配置了,可用模型也加了,但是没有deepseek-v3,甚至很多其它模型也没有