Langchain-Chatchat
Langchain-Chatchat copied to clipboard
[BUG] 离线知识库问答响应速度太慢
问题描述 / Problem Description 离线知识库问答响应速度太慢,经测试离线知识库问题的回答总结能力尚可,准确率大约在80%,我的离线知识库文件大多为pdf,向量数据库采用faiss。
当向量数据库index.faiss大小为140M时,在RTX 3090上的检索响应时长为101秒左右; 当向量数据库大小为77M时,在RTX 3090上的检索响应时长为55秒左右;可以得出结论离线知识库的检索效率与向量库的大小成正相关。
预期的结果 / Expected Result 向量检索速度应保持在10秒以内
实际结果 / Actual Result 77M的向量文件检索速度时间在55秒,耗时过长感觉是有异常存在的。且在日志中出现警告/home/test/.conda/envs/langchain311/lib/python3.11/site-packages/langchain_core/vectorstores.py:342: UserWarning: No relevant docs were retrieved using the relevance score threshold 2.0 warnings.warn( 告警显示在执行文本检索或查询时,没有找到任何相关的文档,但是对话界面却依旧回答出了正确答案,这是为什么?
环境信息 / Environment Information
- Langchain-Chatchat 版本 / commit 号:0.3.1.3
- 部署方式:源码部署
- 使用的模型推理框架:Xinference
- 使用的 LLM 模型:GLM-4-9B
- 使用的 Embedding 模型:bge-large-zh-v1.5
- 使用的向量库类型 (faiss / milvus / pg_vector 等): faiss
- 操作系统及版本 / Operating system and version: CentOS7
- Python 版本 / Python version: 3.11
- 推理使用的硬件(GPU / CPU / MPS / NPU 等) / Inference hardware (GPU / CPU / MPS / NPU, etc.): GPU
- 其他相关环境信息 / Other relevant environment information: 硬件指标:RTX3090 24G显存,6核CPU
以下是详细的日志信息:
duplicate of #4339
这个问题已经被标记为 stale ,因为它已经超过 30 天没有任何活动。
这个问题已经被自动关闭,因为它被标为 stale 后超过 14 天没有任何活动。