FastGPT is deployed locally, and the problem classification function is not available.
- [x] 我已确认目前没有类似 issue
- [x] 我已完整查看过项目 README,以及项目文档
- [x] 我使用了自己的 key,并确认我的 key 是可正常使用的
- [x] 我理解并愿意跟进此 issue,协助测试和提供反馈
- [x] 我理解并认可上述内容,并理解项目维护者精力有限,不遵循规则的 issue 可能会被无视或直接关闭
你的版本
- [x ] 私有部署版本
问题描述
使用chatGML3-6b模型,使用高级编排的功能时,问题分类不可用,总是返回最后一个指定回复,
fastGPT镜像返回
Your model may not support toll_call SyntaxError: Unexpected end of JSON input
at JSON.parse (python\ntool_call(type='wqre')\n" name=None function_call=FunctionCallResponse(name='classify_question', arguments='{"type": "wqre"}')
复现步骤
chatglm3-6b直接接入fastgpt
预期结果
正常分类
相关截图
Why is the problem classification feature not open when deployed locally? Why!
结案:你的接口返回的ChatCompletionMessage返回的是function_call,而fastgpt里面是通过tool_calls的参数识别的调用,所以报错了 解决方案:
- 改你本地的接口
- 或者改fastgpt的源码
结案:你的接口返回的ChatCompletionMessage返回的是function_call,而fastgpt里面是通过tool_calls的参数识别的调用,所以报错了 解决方案:
- 改你本地的接口
- 或者改fastgpt的源码
或者使用 prompt 模式
结案:你的接口返回的ChatCompletionMessage返回的是function_call,而fastgpt里面是通过tool_calls的参数识别的调用,所以报错了 解决方案:
- 改你本地的接口
- 或者改fastgpt的源码
如果不是openAI 的gpt模型 ,在config.local.json配置文件中,把模型配置的 toolChoice字段置为false就行了,因为gpt-3.5-turbo默认toolChoice设置为True,所以会调用相关代码,非GPT模型调用就会报错。
结案:你的接口返回的ChatCompletionMessage返回的是function_call,而fastgpt里面是通过tool_calls的参数识别的调用,所以报错了 解决方案:
- 改你本地的接口
- 或者改fastgpt的源码
如果不是openAI 的gpt模型 ,在config.local.json配置文件中,把模型配置的
toolChoice字段置为false就行了,因为gpt-3.5-turbo默认toolChoice设置为True,所以会调用相关代码,非GPT模型调用就会报错。
大佬,这个文件的路径在哪,我早容器里面找到/app/projects/app/src这个路径后,里面没看到service的文件夹,和你上图的长得不一样
遇到一样的问题,请问您解决了吗?
