chatchat.init_database:worker:61 - 向量库 samples 加载失败。
你好,我先进行chatchat init,然后运行chatchat kb -r 出现以下错误:
2024-07-25 18:06:36.050 | INFO | chatchat.server.knowledge_base.kb_cache.faiss_cache:load_vector_store:109 - loading vector store in 'samples/vector_store/quentinz/bge-large-zh-v1.5' from disk. 2024-07-25 18:06:36.070 | ERROR | chatchat.server.knowledge_base.kb_cache.faiss_cache:load_vector_store:140 - Error raised by inference endpoint: HTTPConnectionPool(host='127.0.0.1', port=11434): Max retries exceeded with url: /api/embeddings (Caused by NewConnectionError('<urllib3.connection.HTTPConnection object at 0x7f0945d1dd50>: Failed to establish a new connection: [Errno 111] Connection refused')) 2024-07-25 18:06:36.070 | ERROR | chatchat.init_database:worker:61 - 向量库 samples 加载失败。
以上问题怎么解决?
xif可用么
xif可用么 llm没问题
但 2024-07-25 23:25:13,224 transformers.dynamic_module_utils 20594 INFO Patched resolve_trust_remote_code: (False, '/root/.xinference/cache/bge-base-zh-v1.5', True, False) {} 2024-07-25 23:25:13,227 transformers.modeling_utils 20594 INFO loading weights file /root/.xinference/cache/bge-base-zh-v1.5/pytorch_model.bin 2024-07-25 23:25:13,287 transformers.modeling_utils 20594 INFO All model checkpoint weights were used when initializing BertModel.
2024-07-25 23:25:13,287 transformers.modeling_utils 20594 INFO All the weights of BertModel were initialized from the model checkpoint at /root/.xinference/cache/bge-base-zh-v1.5. If your task is similar to the task the model of the checkpoint was trained on, you can already use BertModel for predictions without further training. 2024-07-25 23:25:13,297 transformers.dynamic_module_utils 20594 INFO Patched resolve_trust_remote_code: (False, '/root/.xinference/cache/bge-base-zh-v1.5', True, False) {}
xif可用么
xif可用,但是还是报以上错误。
感觉是没有从Xinference中读到运行的embedding 导致的
xif可用么
xif可用,但是还是报以上错误。 默认选用的 Embedding 名称: bge-m3
用bge-m3后这步能过去,但仅限于这步,后面上传文件还会报错 File is not a zip file
小白这里蹲一个解决方案
试一下pip install xinference-client
解决了吗,我这边也是碰到这样的问题
蹲一下,Error raised by inference API HTTP code: 404 {"error":"model"bge-large-zh-v1.5" not found, try pulling it first"}, 也是向量数据库samples加载失败,求问怎么解决
不是bug,是因为你服务没开,把服务启动起来!
Windows
xinference-local --host 127.0.0.1 --port 9997
Linux
xinference-local --host 0.0.0.0 --port 9997
终于 找这个问题了, 在 xinference 的 网址 里面去 注册本地的2个模型(先下到 本地,数据量太大,要下很久), 然后再 部署, 这样才成功了.
我遇到相同的问题,目前已经解决。原因是我将model_settings.yaml中的api_base_url配置写错了:将“api_base_url: http://127.0.0.1:9997/V1”中的“V1”,改成小写的“v1”后问题解决。
这个问题已经被标记为 stale ,因为它已经超过 30 天没有任何活动。
这个问题已经被自动关闭,因为它被标为 stale 后超过 14 天没有任何活动。