lijiajun1997
lijiajun1997
一千多万行?会不会是你数据太多了
> 能否应用模型能力对知识库中的每个文件生成摘要和对单个文档打上标签 需要对全文提问一遍提取摘要,太费token,而且效果不一定好。和QA拆分以及增强处理感觉差不太多。 如果一定要做的话,可以直接在问答拆分模式下调整提示词,让输出的Q是对文档内容进行摘要,A是输出文档原文。
支持 RAG产品的灵魂就是知识库的索引方式 针对不同用户按照使用场景去做自动评测,计算哪种方式召回率最高 可以是产品的竞争力之一
同意 另外如果按行分块的话 建议补全表头
如果组合不多,可以通过变量输入+判断器进行分支,不同的分支接入不同的知识库。
我用docker部署没遇到类似的问题,你这个路径看上去不是docker部署的?你是源码部署吗?
建议用gpt写一个python,多次请求fastgpt的api 估计作者暂时没有这个计划
应用日志是否考虑增加导出功能,以帮助用户可以整理和评价AI应用的准确性和可靠性,优化编排流程和prompt
可否在AI回复的每个段落句子标记对应知识的来源编号,帮助用户可以验证引用知识的准确性?类似new bing那种
在知识库问答拆分的选项中,增加理想分块大小,否则会默认按模型的token上限分块。例如用8k的模型,AI回答大概1k的内容,会导致知识QA完会损耗约7/8的信息量。