Qwen-Agent
Qwen-Agent copied to clipboard
在远程服务器上跑的,但是本地链接上去问一个问题就报连接错误
请问这个怎么解决
python run_server.py --model_server http://127.0.0.1:7905/v1,这里把127.0.0.1改成你的服务器ip
上面的启动Qwen那里用改吗
还是拒绝连接,而且我发现在启动Qwen时返回的那个连接也上不去,不知道是不是这个原因
启动Qwen那里的命令不用改,上不去的具体报错是什么?
@iaoxuesheng 目前更新了一版代码,我这边测试可以比较好的支持远程服务的情况,你可以先用dashscope api访问qwen,来测试是否是qwen部署问题。
python run_server.py --model_server http://127.0.0.1:7905/v1,这里把127.0.0.1改成你的服务器ip
能否出一个本地部署qwen-agent并使用的完整案例,我看网上本地部署的教程中,都有“启动模型服务 这一步骤,python openai_api.py --server-name 0.0.0.0 --server-port 7905 -c Qwen/Qwen-7B-Chat,但是现在的仓库中 并没有openai_api.py这个文件”?
python run_server.py --model_server http://127.0.0.1:7905/v1,这里把127.0.0.1改成你的服务器ip
能否出一个本地部署qwen-agent并使用的完整案例,我看网上本地部署的教程中,都有“启动模型服务 这一步骤,python openai_api.py --server-name 0.0.0.0 --server-port 7905 -c Qwen/Qwen-7B-Chat,但是现在的仓库中 并没有openai_api.py这个文件”?
openai_api.py是Qwen1用的,不支持Qwen1.5。我们现在推荐大家参考 Qwen1.5 的文档部署一个 openai 兼容的 api,就能使用了。vllm、ollama等等框架都能提供这个 openai 兼容的api。
python run_server.py --model_server http://127.0.0.1:7905/v1,这里把127.0.0.1改成你的服务器ip
能否出一个本地部署qwen-agent并使用的完整案例,我看网上本地部署的教程中,都有“启动模型服务 这一步骤,python openai_api.py --server-name 0.0.0.0 --server-port 7905 -c Qwen/Qwen-7B-Chat,但是现在的仓库中 并没有openai_api.py这个文件”?
openai_api.py是Qwen1用的,不支持Qwen1.5。我们现在推荐大家参考 Qwen1.5 的文档部署一个 openai 兼容的 api,就能使用了。vllm、ollama等等框架都能提供这个 openai 兼容的api。
谢谢,能否出一个完整的部署案例教程
python run_server.py --model_server http://127.0.0.1:7905/v1,这里把127.0.0.1改成你的服务器ip
能否出一个本地部署qwen-agent并使用的完整案例,我看网上本地部署的教程中,都有“启动模型服务 这一步骤,python openai_api.py --server-name 0.0.0.0 --server-port 7905 -c Qwen/Qwen-7B-Chat,但是现在的仓库中 并没有openai_api.py这个文件”?
openai_api.py是Qwen1用的,不支持Qwen1.5。我们现在推荐大家参考 Qwen1.5 的文档部署一个 openai 兼容的 api,就能使用了。vllm、ollama等等框架都能提供这个 openai 兼容的api。
谢谢,能否出一个完整的部署案例教程
vllm参考 https://qwen.readthedocs.io/en/latest/deployment/vllm.html#openai-api-compatible-api-service ,启动 python -m vllm.entrypoints.openai.api_server --model Qwen/Qwen1.5-7B-Chat
后就能有 openai 兼容的服务了。
ollama参考 https://github.com/ollama/ollama/blob/main/docs/openai.md 。
我们近期找时间更新下文档补充下。如果您跑vllm、ollama遇到困难也可以随时提issues(vllm支持高吞吐、ollama则支持本地cpu&gpu部署)