dosubot[bot]

Results 4246 comments of dosubot[bot]

_🤖_ Hey there @codingbutstillalive! Good to see you back in action on the LangChain battlefield. Hope you're ready for another exciting round of bug-bashing! 🎯 Thank you for bringing this...

Hey there, @majestichou! Great to see you diving into another interesting challenge. To enable streaming output for a conversational application when integrating with the Qwen API, you can set the...

_🤖_ It seems like you've got this under control, if you want help or have specific questions, let me know what I can do for you! --- This response is...

_🤖_ 嘿,@MarshalW!又见面了,遇到新问题了吗?希望这次我们也能快乐地解决它! 这个问题可能是由于在将文档添加到 Elasticsearch 索引后,索引没有被刷新。在 Elasticsearch 中,通过索引、更新或删除操作所做的更改并不会立即对搜索可见。你需要刷新索引以使更改可见。 在 `do_add_doc` 方法中,调用 `_load_es` 方法添加文档后,你应该刷新索引。你可以通过在 `es_client_python` 对象上调用 `refresh` 方法来实现。 以下是更新后的 `do_add_doc` 方法: ```py def do_add_doc(self, docs: List[Document], **kwargs): '''向知识库添加文件''' print(f"server.knowledge_base.kb_service.es_kb_service.do_add_doc 输入的docs参数长度为:{len(docs)}") print("*"*100) self._load_es(docs=docs,...

Hi, @JavaFXpert! I'm Dosu, and I'm helping the LangChain team manage their backlog. I wanted to let you know that we are marking this issue as stale. From what I...

Hi, @einarbmag! I'm Dosu, and I'm helping the LangChain team manage their backlog. I wanted to let you know that we are marking this issue as stale. From what I...

It looks like you're having trouble installing a specific version of the `google-generativeai` package. Here's a more focused approach to tackle the issue: 1. **Verify Package Availability**: First, ensure that...

_🤖_ 嘿,@cq134cq!很高兴再次看到你在这里提问。希望你最近一切都好! 根据您提供的信息,您在运行 `python init_database.py --recreate-vs` 时遇到了 "CUDA not enabled" 的错误,尽管您已经安装了 CUDA 11.8 和 PyTorch 2.1.2。这个问题可能是由于您的 CUDA 版本和 PyTorch 版本之间的兼容性问题。 首先,我注意到您提到的 PyTorch 版本是 2.1.2,但是这个版本并不存在。目前 PyTorch 的最新版本是 1.10.0。如果您的意思是 PyTorch 1.2.0,那么这个版本是不支持 CUDA...

嘿,@Andy1018!很高兴再次见到你。希望一切都好! 根据我在Langchain-Chatchat仓库中找到的信息,你可以通过以下步骤在Langchain-Chatchat交互中调用到ChatGLM3-6B模型的自定义函数: 1. 首先,你需要在`model_config.py`文件中包含你的本地API地址,如[这个issue](https://github.com/chatchat-space/Langchain-Chatchat/issues/2417)中所建议的。 2. 然后,你需要查看`server/chat/chat.py`文件中的`get_ChatOpenAI`函数,这个函数可能负责获取语言模型。这个函数接受`model_name`、`temperature`、`max_tokens`和`callbacks`等参数,这些参数是OpenAI API调用的典型参数。如果`get_ChatOpenAI`的实现是通过HTTP请求,你可能需要修改它以指向你的本地API。 3. 最后,你需要将OpenAI API端点替换为你自己的,并使用`openai-api`作为模型名称。 以下是一个如何在Langchain-Chatchat交互中调用到ChatGLM3-6B模型的自定义函数的示例: ```py from langchain.chains.llm import BaseLanguageModel from langchain.tools.base import BaseTool # 假设我们有一个自定义函数,我们想要在ChatGLM3-6B模型中调用它 def custom_function(param1, param2): # 这里是自定义函数的逻辑 return f"处理了参数 {param1}...

It sounds like you're encountering an issue where the "Save" button on the Bedrock settings page isn't working even with the correct AWS configuration details entered. This could be due...