提供独立 Qwen 设置项
qwen新出的一些模型最近挺热的。另外对于国人来说调用API相较于openai、gemini等也更容易一些,能降低使用门槛
Qwen 兼容 OpenAPI,可以直接调用
如果你指的是 Qwen 的 API 的话,他们的 API 应该兼容 OpenAI API 格式,你可以直接把相关的参数填写在 openai_compatible_llm 设置下来使用。
不过我们可以添加一个 qwen 的设置项来帮助小白用户轻松的使用。
如果你指的是 Qwen 的 API 的话,他们的 API 应该兼容 OpenAI API 格式,你可以直接把相关的参数填写在
openai_compatible_llm设置下来使用。不过我们可以添加一个 qwen 的设置项来帮助小白用户轻松的使用。
嗯嗯,既然可以在 openai_compatible_llm 使用,那没必要再单独写qwen的了,我认为可以在注释里列举上qwen的base_url作为提醒。当然这样的话不局限与qwen,其他能兼容OpenAI API 格式的也可以列举上。
其实我们项目里除了 Claude, llamacpp 和 ollama (加了模型内存管理) 以外,其他全都是 openai_compatible_llm 的马甲😂,只是改了 base_url 和一些别的设定方便用户直接用而已。所以添加一个 qwen api的也很合理。
你好,这个功能已经实现了,请参考我最新的有关于添加中国供应商的pull request