Langchain-Chatchat
Langchain-Chatchat copied to clipboard
Langchain-Chatchat(原Langchain-ChatGLM)基于 Langchain 与 ChatGLM 等语言模型的本地知识库问答 | Langchain-Chatchat (formerly langchain-ChatGLM), local knowledge based LLM (like ChatGLM) QA app with la...
报错代码如下: Traceback (most recent call last): File "D:\chat\lianchain-chatglm\langchain-ChatGLM\cli_demo.py", line 2, in from chains.local_doc_qa import LocalDocQA File "D:\chat\lianchain-chatglm\langchain-ChatGLM\chains\local_doc_qa.py", line 1, in from langchain.chains import RetrievalQA File "C:\Program Files\JetBrains\PyCharm Community Edition 2022.3.3\jbr\bin\new_dirs_name\rwkv-lm\lib\site-packages\langchain\__init__.py",...
加载较大量级的私有知识库后,原本的知识会被覆盖 问题:“你是谁” 回答:“根据已知信息,我无法回答该问题。没有提供足够的相关信息,无法确定身份或地区。请提供更多信息,以便我能够更好地帮助您。”
When i tried to change the knowledge vector store through `init_knowledge_vector_store`, the error `TypeError: cannot unpack non-iterable NoneType object` came out.
全新python3.10环境安装requirements.txt 时缺失wheel, pexpect
When i tried to use the non-streaming, `ValueError: too many values to unpack (expected 2)` error came out.
添加了Dockerfile-cuda,更新了README.md , 提供GPU Docker支持。
如题,谢谢大佬
RT,纯离线环境安装,依赖安装的十分艰难,最后碰到pycocotools,始终无法安装上,求教方法!
在win、ubuntu。下载完模型后,没办法修改代码以执行本地模型,每次都要重新输入路径; LLM 模型、Embedding 模型支持也都在官网下的,在其他项目(wenda)下可以使用
利用 fastapi 实现 API 部署方式