sunisstar
sunisstar
support! and it seems that the author has abandon this project.
感觉xinference在deepseek-r1发布后对模型的支持一直不行,不是不能用就是跑起来奇慢无比,纯纯的cpu感。 我已经再次转投ollama了,虽然功能有限,但好歹部署一个是一个,没这么多幺蛾子。
同样的问题,最新的版本,请问有解决办法了吗?
Good news, xinference has supported Z1 series after v1.5.0! but I haven't tested it yet.
> > * Azure OpenAI:**>= 0.0.11** > > * OpenAI:**> = 0.0.14** > > * OpenRouter:**>=0.0.6** > > OpenAI:= 0.0.14 OpenRouter:=0.0.6 > > It hasn't been released yet。 > >...
基本所有的生产环境都有这个需求,如果容忍模型自己乱答,终归只能是个玩具。
研究了一下,貌似dify-plugin-daemon:0.3.2-local之后在运行环境上做了升级,目前本项目的打包环境已经不适配了...