ZZ
ZZ

本地模型可以支持啊,只要支持OpenAI API调用就行了。Ollama本身是兼容OpenAI的,作为实验性功能,目前也是可以用的。此外你也可以尝试使用vllm(或者直接用vllm的官方docker),但是Ollama对于单发请求有更高的响应速度且对性能要求更低,所以你直接Ollama使用OpenAI API填上去即可啊
可以啊,我试过了,请求是没任何问题,毕竟千问是兼容openAI的API的 
希望能特别提供一组基于chroot容器制作的版本