Langchain-Chatchat icon indicating copy to clipboard operation
Langchain-Chatchat copied to clipboard

Langchain-Chatchat(原Langchain-ChatGLM)基于 Langchain 与 ChatGLM 等语言模型的本地知识库问答 | Langchain-Chatchat (formerly langchain-ChatGLM), local knowledge based LLM (like ChatGLM) QA app with la...

Results 929 Langchain-Chatchat issues
Sort by recently updated
recently updated
newest added

报错代码如下: Traceback (most recent call last): File "D:\chat\lianchain-chatglm\langchain-ChatGLM\cli_demo.py", line 2, in from chains.local_doc_qa import LocalDocQA File "D:\chat\lianchain-chatglm\langchain-ChatGLM\chains\local_doc_qa.py", line 1, in from langchain.chains import RetrievalQA File "C:\Program Files\JetBrains\PyCharm Community Edition 2022.3.3\jbr\bin\new_dirs_name\rwkv-lm\lib\site-packages\langchain\__init__.py",...

加载较大量级的私有知识库后,原本的知识会被覆盖 问题:“你是谁” 回答:“根据已知信息,我无法回答该问题。没有提供足够的相关信息,无法确定身份或地区。请提供更多信息,以便我能够更好地帮助您。”

When i tried to change the knowledge vector store through `init_knowledge_vector_store`, the error `TypeError: cannot unpack non-iterable NoneType object` came out.

全新python3.10环境安装requirements.txt 时缺失wheel, pexpect

When i tried to use the non-streaming, `ValueError: too many values to unpack (expected 2)` error came out.

添加了Dockerfile-cuda,更新了README.md , 提供GPU Docker支持。

RT,纯离线环境安装,依赖安装的十分艰难,最后碰到pycocotools,始终无法安装上,求教方法!

在win、ubuntu。下载完模型后,没办法修改代码以执行本地模型,每次都要重新输入路径; LLM 模型、Embedding 模型支持也都在官网下的,在其他项目(wenda)下可以使用

利用 fastapi 实现 API 部署方式