ai123
ai123
4.8.7 请问知识库--直接分段的最佳实践是什么?处理方式:使用自动还是使用自定义规则。 如果为了更加精准匹配,是不是自定义规则更好一些? 【分块大小】和【每个分块的完整度】之间如何取舍? 每个分块是不是尽可能小? 每个分块是不是尽可能包含一个完整的内容? 如果一段完整的内容超过了理想分块长度(假设默认700),系统此时会分为两个分块,但是第二个分块由于没有上文的相关标题或者说明,会不会在知识库引用时无法引导第二个分块的内容,导致回答的问题不全面。 比如: 第一个分块是: 如何报销,具体操作如下,第一步:xxx,第二步xxx...............,相关图片如下 此时达到了分块长度700 第二个分块是:(注意,第一个分块中的图片,截取到了第二个分块中) 【截图1】(图片的url),第三步xxxx,第四步yyyy 此时达到了分块长度700 第三个分块是:(注意,第二个分块的最后一句话截取了半句) yyyy,第五步xxxx 如果按照以上示例的分块模式,用户搜索【报销的相关操作】时,是不是无法获取第二个分块、第三个分块的内容。 如果内容已经无法再精简了,这种情况该如何处理?
本地最新版 强烈建议高级编排取消自动保存,这个自动保存太不好了,原来没问题的编排,尝试着调试些新的功能,结果自动保存了,问题是经过调试整个流程出问题了,导致原来的配置也都被更改了,还没办法回复原来的配置,只能重新再做一遍。 希望有个按键由用户自行决定是否保存。
文本内容提取效果不如ai对话提取的效果好。 如果不用文本内容提取模块,改为AI对话进行提取,后面还得需要文本内容提取才可以输出变量,虽然可以提高准确性,但是多浪费了token 功能有什么限制吗
 
通义千问VL:qwen-vl-v1模型,通过oneapi渠道测试成功。 使用CURL命令测试,提示URL错误(img图片的连接是可以打开的 )。针对多模态模型后面的地址对吗:/v1/chat/completions curl --location --request POST 'http://172.16.1.219:3001/v1/chat/completions' --header 'Authorization: Bearer sk-fastgpt' --header 'Content-Type: application/json' --data '{ "model": "qwen-vl-v1", "max_tokens": 400, "messages": [ { "role": "user", "content": [ {"image": "https://q8.itc.cn/c_lfill,w_640,h_426,g_face/images03/20240727/f2b8942be4c74a7b94e55f6b900632aa.jpeg"},...
本地部署的whisperapi,basic模型 small模型都一样
### 前置确认 - [X] 我确认我运行的是最新版本的代码,并且安装了所需的依赖,在[FAQS](https://github.com/zhayujie/chatgpt-on-wechat/wiki/FAQs)中也未找到类似问题。 ### ⚠️ 搜索issues中是否已存在类似问题 - [X] 我已经搜索过issues和disscussions,没有跟我遇到的问题相关的issue ### 操作系统类型? Linux ### 运行的python版本是? other ### 使用的chatgpt-on-wechat版本是? Latest Release ### 运行的`channel`类型是? wx(个人微信, itchat) ### 复现步骤 🕹 扫码登陆后,发消息,然后日志如下 Please...
### ⚠️ 搜索是否存在类似issue - [X] 我已经搜索过issues和disscussions,没有发现相似issue ### 总结 拉取docker镜像网络超时,是否有国内镜像 ### 举例 _No response_ ### 动机 _No response_
使用fastgpt--onapi调用ollama本地模型 或者 xference模型 ,下载了好几个多模态的模型,图片识别效果都不准确。 有没有好一点的可以识别图片信息的模型 据说qwen2-vl 效果可以,但是目前ollama还不支持,而xinference下载又总报错 以下几个都测试了,效果不好 minicpm-v:8b llava:13b bakllava blackened/llama-3-8b-gpt-4o-ru1.0:latest gemma2:27b llava-llama3