Langchain-Chatchat icon indicating copy to clipboard operation
Langchain-Chatchat copied to clipboard

Langchain-Chatchat(原Langchain-ChatGLM)基于 Langchain 与 ChatGLM 等语言模型的本地知识库问答 | Langchain-Chatchat (formerly langchain-ChatGLM), local knowledge based LLM (like ChatGLM) QA app with la...

Results 929 Langchain-Chatchat issues
Sort by recently updated
recently updated
newest added

操作系统:Linux-5.15.146.1-microsoft-standard-WSL2-x86_64-with-glibc2.35. python版本:3.11.9 (main, Apr 19 2024, 16:48:06) [GCC 11.2.0] 项目版本:v0.2.10 langchain版本:0.0.354. fastchat版本:0.2.35 当前使用的分词器:ChineseRecursiveTextSplitter 当前启动的LLM模型:['Qwen1.5-14B-Chat-GPTQ-Int4'] @ cuda {'device': 'cuda', 'host': '0.0.0.0', 'infer_turbo': False, 'model_path': '/home/wb/models/Qwen1.5-14B-Chat-GPTQ-Int4', 'model_path_exists': True, 'port': 20002} 当前Embbedings模型: bge-large-zh-v1.5...

bug

![image](https://github.com/chatchat-space/Langchain-Chatchat/assets/56523374/e29be54a-6555-4b5c-9b96-0fe17a2714d0) 由于没有权限无法更改inotify watch数量,请问在代码的哪个部分可以关闭?

bug

可以通过url的方式调用知识库问答吗

bug

` docs = await run_in_threadpool(search_docs, query=query, knowledge_base_name=knowledge_base_name, top_k=top_k, score_threshold=score_threshold) # 加入reranker if USE_RERANKER: reranker_model_path = MODEL_PATH["reranker"].get(RERANKER_MODEL,"BAAI/bge-reranker-large") print("-----------------model path------------------") print(reranker_model_path) reranker_model = LangchainReranker(top_n=top_k, device=embedding_device(), max_length=RERANKER_MAX_LENGTH, model_name_or_path=reranker_model_path ) print(docs) docs = reranker_model.compress_documents(documents=docs,...

enhancement

在知识库问答模式如何同时使用多个知识库

bug

在知识库问答模式时,如何同时选择使用多个知识库

enhancement

能否出个只访问各种模型api的版本。 版本本身不去使用各种模型,主要就是调用各种框架或者模型的api:向量模型、llm模型、多模态模型等。 主打轻量化部署应用。 类似dify

enhancement

SupportedVSType类应该修改为枚举类 ![image](https://github.com/chatchat-space/Langchain-Chatchat/assets/6251172/3f1bad0b-1794-4bf7-8480-9e5121b4d962) 因为在类似下图传参的地方,如果不是枚举类,无法传类似`SupportedVSType.FAISS` 这样的枚举成员给第二个值,也就意味着第二个值是无效的 ![image](https://github.com/chatchat-space/Langchain-Chatchat/assets/6251172/0f3dcc7f-ff92-464d-8d1f-16d29819c484) 修改为枚举类型之后,不影响下面代码的正常运行,可以通过getattr 取到类似 `SupportedVSType.FAISS` 这样的枚举成员,可以通过 `SupportedVSType.FAISS == vector_store_type` 这样的判断 ``` if isinstance(vector_store_type, str): vector_store_type = getattr(SupportedVSType, vector_store_type.upper()) if SupportedVSType.FAISS == vector_store_type: ```

size:XS

这个框架没做并发啊 _Originally posted by @zRzRzRzRzRzRzR in https://github.com/chatchat-space/Langchain-Chatchat/issues/3899#issuecomment-2088197039_ 有计划做多并发处理吗?

![QQ截图20240522110201](https://github.com/chatchat-space/Langchain-Chatchat/assets/73679865/0ffe8669-06dc-4e88-8736-5ddc0ab045f6) **创建删除知识库和对应构建向量库报错/error when post /knowledge_base/delete_docs :time out ** **复现问题的步骤 / Steps to Reproduce** 1、尝试创建知识库失败 2、尝试将文件直接存至知识库文件夹下并依据源文件重建向量库失败 3、删除已有的知识库失败 **环境信息 / Environment Information** - langchain-ChatGLM 版本:v 0.2.10 - 是否使用 Docker 部署:否 - 使用的模型:...

bug