inference
inference copied to clipboard
Xinference 只提供bge的rerank模型???
fastgpt 调用 xinference rerank接口报错
fastgpt的配置
使用bce的reank会有下面的错误
使用bge的reank则是正常
但是直接curl 调用xinference 的rerank 接口是返回正常
Xinference 如果 curl 没问题,感觉是 FastGPT 那边的问题。
Xinference 如果 curl 没问题,感觉是 FastGPT 那边的问题。 是的,curl 是没问题的,fastgpt那边我也提了issue.
dify上复现了类似的报错。 dify调用部署在0.10.1和0.10.3版本xinference上的bce reranker模型都会报类似的错误,但0.10.2.post1版本可以正常使用。
但是只有0.10.2post1用的是FlagEmbedding推理的,0.10.3又改回了sentence transformers推理因为很多用户说FlagEmbedding出错。
v0.11.0上问题依然存在。我检查了一下具体的http request,当documents为较长的代码片段(1500~1700字符)时,使用bce模型会报错,使用bge模型可以正常rerank
xinference上运行的模型如图
使用bce模型会报错
bge模型可以正常使用
具体post request如下
bce.request.json
xinference错误日志如下
xinference.error.log
This issue is stale because it has been open for 7 days with no activity.
This issue was closed because it has been inactive for 5 days since being marked as stale.