plancktree
plancktree
请问最终解决了吗
> 耗时是因为BM25_retriever在每一轮回答中都对知识库中的所有chunk做了一遍预处理,具体可参见: [#4565 (comment)](https://github.com/chatchat-space/Langchain-Chatchat/issues/4565#issuecomment-2268152564) 。这里我提供一个简单的、经过验证的补丁方案,即服务启动前完成预处理操作并将结果固化为txt,之后在对话时只需读取该txt直接获得预处理结果即可,代码分为两块: > > ### 提前预处理 > ``` > import os > import json > os.environ['CHATCHAT_ROOT'] = "***/libs/chatchat-server/chatchat" > import jieba > from tqdm import tqdm >...
> > > bm25的锅,/chatchat-server/chatchat/server/file_rag/retrievers/ensemble.py中的from_vectorstore方法修改,暂时将bm25_retriever初始化的那段代码发光掉,只用faiss_retriever可以明显提速 > > > > > > 并没有很大的提升 > > 我刚试了 能达到0.2版本的效率 我这边注释掉后召回非常差,比0.2.0版本差很多
> > > 耗时是因为BM25_retriever在每一轮回答中都对知识库中的所有chunk做了一遍预处理,具体可参见: [#4565 (comment)](https://github.com/chatchat-space/Langchain-Chatchat/issues/4565#issuecomment-2268152564) 。这里我提供一个简单的、经过验证的补丁方案,即服务启动前完成预处理操作并将结果固化为txt,之后在对话时只需读取该txt直接获得预处理结果即可,代码分为两块: > > > ### 提前预处理 > > > ``` > > > import os > > > import json > > > os.environ['CHATCHAT_ROOT']...
> We would support it soon. 2024926新版本是否已支持该功能呢?