inference icon indicating copy to clipboard operation
inference copied to clipboard

Xinference 只提供bge的rerank模型???

Open liangpn opened this issue 9 months ago • 5 comments

fastgpt 调用 xinference rerank接口报错 fastgpt的配置 image

使用bce的reank会有下面的错误 69cb08bb59c01b9eea328d3d2a898f6 61622e47e94db52755c596b9f40dac0 使用bge的reank则是正常 f2a56b93a0dba4f31eaad604966129f cc0b1ab03cd32142d7743ba5e109f8f

但是直接curl 调用xinference 的rerank 接口是返回正常 image

liangpn avatar Apr 28 '24 03:04 liangpn

Xinference 如果 curl 没问题,感觉是 FastGPT 那边的问题。

qinxuye avatar Apr 28 '24 07:04 qinxuye

Xinference 如果 curl 没问题,感觉是 FastGPT 那边的问题。 是的,curl 是没问题的,fastgpt那边我也提了issue.

liangpn avatar May 06 '24 04:05 liangpn

dify上复现了类似的报错。 dify调用部署在0.10.1和0.10.3版本xinference上的bce reranker模型都会报类似的错误,但0.10.2.post1版本可以正常使用。

NaiveYan avatar May 09 '24 07:05 NaiveYan

但是只有0.10.2post1用的是FlagEmbedding推理的,0.10.3又改回了sentence transformers推理因为很多用户说FlagEmbedding出错。

codingl2k1 avatar May 09 '24 20:05 codingl2k1

v0.11.0上问题依然存在。我检查了一下具体的http request,当documents为较长的代码片段(1500~1700字符)时,使用bce模型会报错,使用bge模型可以正常rerank xinference上运行的模型如图 Screenshot 2024-05-13 at 16-29-17 Xinference 使用bce模型会报错 bce bge模型可以正常使用 bge 具体post request如下 bce.request.json xinference错误日志如下 xinference.error.log

NaiveYan avatar May 13 '24 03:05 NaiveYan

This issue is stale because it has been open for 7 days with no activity.

github-actions[bot] avatar Aug 06 '24 19:08 github-actions[bot]

This issue was closed because it has been inactive for 5 days since being marked as stale.

github-actions[bot] avatar Aug 12 '24 03:08 github-actions[bot]