本地模型知识库问答出现乱答、编造等情况
- [√ ] 我已确认目前没有类似 issue
- [√ ] 我已完整查看过项目 README,以及项目文档
- [ √] 我使用了自己的 key,并确认我的 key 是可正常使用的
- [ √] 我理解并愿意跟进此 issue,协助测试和提供反馈
- [√] 我理解并认可上述内容,并理解项目维护者精力有限,不遵循规则的 issue 可能会被无视或直接关闭
问题描述, 日志截图,配置文件等 我查看对话详情,引用内容已经正确了,但回答还是达不到要求。模型是ollama部署的deepseek32b,我把问答和参考信息直接问模型也没有问题
效果就像没提供参考信息
定位了下,感觉是分段过大(3000)ollama接收不到
哎呦,我也是这个问题,问一下兄弟,这个怎么解决啊,我以前用 lm studio ,现在用 ollama 了,也是知识库不检索,索引过大。
哎呦,我也是这个问题,问一下兄弟,这个怎么解决啊,我以前用 lm studio ,现在用 ollama 了,也是知识库不检索,索引过大。
修改ollama运行模型的最大token(默认2048)即可解决,PARAMETER num_ctx 8192
哦,原来这样啊。好滴,感谢!
哎呦,我也是这个问题,问一下兄弟,这个怎么解决啊,我以前用 lm studio ,现在用 ollama 了,也是知识库不检索,索引过大。
修改ollama运行模型的最大token(默认2048)即可解决,PARAMETER num_ctx 8192
兄弟,我在 modelfile 中写入了该参数,并重新创建新模型,发觉这个参数无效啊。还是 2k 的上下文。啥毛病啊?
哎呦,我也是这个问题,问一下兄弟,这个怎么解决啊,我以前用 lm studio ,现在用 ollama 了,也是知识库不检索,索引过大。
修改ollama运行模型的最大token(默认2048)即可解决,PARAMETER num_ctx 8192
搞定了,搞定了。哈哈哈
哎呦,我也是这个问题,问一下兄弟,这个怎么解决啊,我以前用 lm studio ,现在用 ollama 了,也是知识库不检索,索引过大。
修改ollama运行模型的最大token(默认2048)即可解决,PARAMETER num_ctx 8192
搞定了,搞定了。哈哈哈
你好,麻烦请问一下,我用ollama作为模型管理平台,知识库中的图片经过ollama中的大模型后并不能在fastgpt输出,如果用llama.cpp加载模型,能输出图片。你遇到过吗?
哎呦,我也是这个问题,问一下兄弟,这个怎么解决啊,我以前用 lm studio ,现在用 ollama 了,也是知识库不检索,索引过大。
修改ollama运行模型的最大token(默认2048)即可解决,PARAMETER num_ctx 8192
搞定了,搞定了。哈哈哈
你好,麻烦请问一下,我用ollama作为模型管理平台,知识库中的图片经过ollama中的大模型后并不能在fastgpt输出,如果用llama.cpp加载模型,能输出图片。你遇到过吗?
我有使用知识库中包含图片的场景,也遇到过知识库图片引用失败的问题,原因很多,单你说的 llama 环境加载,我未使用过,知识库图片无法加载,我这里的主要原因是 2 个:1、知识库在处理初期,知识库中的图片已经被系统自动清理了,这个 bug 见这里的 issues 的相关讨论。 2、大模型未能有效指令遵循,再引用知识库的图片时,加入了绝对路径照成的,这个你在模型提示词中纠正就行。