sendrolon
sendrolon
@luduling 有个软开关。 每个prompt前面加上 "/no_thinking\n" 就可以了。 这个时候会输出 空的 think label,这样速度比较快。
谢谢大佬们的关注 @tuhahaha @yaojunr fix了我的MCP问题后,确认了 @yaojunr 的现象。 qwen2.5 没有进行工具调用: > YOU> Greeting! > [ASSISTANT] Hello! How can I assist you today? 用来qwen3的话,我用/no_think关闭thinking,可以调用: > YOU> Greeting > [ASSISTANT] > > > >...
> 我使用Qwen2.5-1.5B-Instruct的模型,然后直接用的MCP的demo,确实没有进行工具调用,返回的message中function_call是None,是因为模型不支持吗?试了一下Qwen3-1.7B是可以的,无论是打开还是关闭think > > 'generate_cfg': { > 'fncall_prompt_type': 'nous', > "extra_body": { > "top_k": 20, > "chat_template_kwargs": {"enable_thinking": False}, > }, > } 感谢帮助验证。 请问你用的是ollama吗?我的ollama版本是: ollama version is 0.6.8 我复制这段generate_cfg到我的llm_cfg里,没有关闭thinking.....