Results 4 comments of ZZ

![Image](https://github.com/user-attachments/assets/894b863e-ec6e-453e-8536-8a66685088b6)

本地模型可以支持啊,只要支持OpenAI API调用就行了。Ollama本身是兼容OpenAI的,作为实验性功能,目前也是可以用的。此外你也可以尝试使用vllm(或者直接用vllm的官方docker),但是Ollama对于单发请求有更高的响应速度且对性能要求更低,所以你直接Ollama使用OpenAI API填上去即可啊

可以啊,我试过了,请求是没任何问题,毕竟千问是兼容openAI的API的 ![Image](https://github.com/user-attachments/assets/2638cbf5-d8c6-4b9b-9113-d6c12bc625cf)

希望能特别提供一组基于chroot容器制作的版本