Qwen-Agent icon indicating copy to clipboard operation
Qwen-Agent copied to clipboard

在远程服务器上跑的,但是本地链接上去问一个问题就报连接错误

Open iaoxuesheng opened this issue 1 year ago • 9 comments

2 请问这个怎么解决

iaoxuesheng avatar Oct 20 '23 05:10 iaoxuesheng

python run_server.py --model_server http://127.0.0.1:7905/v1,这里把127.0.0.1改成你的服务器ip

tuhahaha avatar Oct 20 '23 07:10 tuhahaha

上面的启动Qwen那里用改吗

iaoxuesheng avatar Oct 20 '23 08:10 iaoxuesheng

还是拒绝连接,而且我发现在启动Qwen时返回的那个连接也上不去,不知道是不是这个原因

iaoxuesheng avatar Oct 20 '23 08:10 iaoxuesheng

启动Qwen那里的命令不用改,上不去的具体报错是什么?

tuhahaha avatar Oct 23 '23 01:10 tuhahaha

@iaoxuesheng 目前更新了一版代码,我这边测试可以比较好的支持远程服务的情况,你可以先用dashscope api访问qwen,来测试是否是qwen部署问题。

tuhahaha avatar Nov 01 '23 02:11 tuhahaha

python run_server.py --model_server http://127.0.0.1:7905/v1,这里把127.0.0.1改成你的服务器ip

能否出一个本地部署qwen-agent并使用的完整案例,我看网上本地部署的教程中,都有“启动模型服务 这一步骤,python openai_api.py --server-name 0.0.0.0 --server-port 7905 -c Qwen/Qwen-7B-Chat,但是现在的仓库中 并没有openai_api.py这个文件”?

cheng18175030250 avatar Mar 04 '24 09:03 cheng18175030250

python run_server.py --model_server http://127.0.0.1:7905/v1,这里把127.0.0.1改成你的服务器ip

能否出一个本地部署qwen-agent并使用的完整案例,我看网上本地部署的教程中,都有“启动模型服务 这一步骤,python openai_api.py --server-name 0.0.0.0 --server-port 7905 -c Qwen/Qwen-7B-Chat,但是现在的仓库中 并没有openai_api.py这个文件”?

openai_api.py是Qwen1用的,不支持Qwen1.5。我们现在推荐大家参考 Qwen1.5 的文档部署一个 openai 兼容的 api,就能使用了。vllm、ollama等等框架都能提供这个 openai 兼容的api。

JianxinMa avatar Mar 04 '24 09:03 JianxinMa

python run_server.py --model_server http://127.0.0.1:7905/v1,这里把127.0.0.1改成你的服务器ip

能否出一个本地部署qwen-agent并使用的完整案例,我看网上本地部署的教程中,都有“启动模型服务 这一步骤,python openai_api.py --server-name 0.0.0.0 --server-port 7905 -c Qwen/Qwen-7B-Chat,但是现在的仓库中 并没有openai_api.py这个文件”?

openai_api.py是Qwen1用的,不支持Qwen1.5。我们现在推荐大家参考 Qwen1.5 的文档部署一个 openai 兼容的 api,就能使用了。vllm、ollama等等框架都能提供这个 openai 兼容的api。

谢谢,能否出一个完整的部署案例教程

cheng18175030250 avatar Mar 04 '24 09:03 cheng18175030250

python run_server.py --model_server http://127.0.0.1:7905/v1,这里把127.0.0.1改成你的服务器ip

能否出一个本地部署qwen-agent并使用的完整案例,我看网上本地部署的教程中,都有“启动模型服务 这一步骤,python openai_api.py --server-name 0.0.0.0 --server-port 7905 -c Qwen/Qwen-7B-Chat,但是现在的仓库中 并没有openai_api.py这个文件”?

openai_api.py是Qwen1用的,不支持Qwen1.5。我们现在推荐大家参考 Qwen1.5 的文档部署一个 openai 兼容的 api,就能使用了。vllm、ollama等等框架都能提供这个 openai 兼容的api。

谢谢,能否出一个完整的部署案例教程

vllm参考 https://qwen.readthedocs.io/en/latest/deployment/vllm.html#openai-api-compatible-api-service ,启动 python -m vllm.entrypoints.openai.api_server --model Qwen/Qwen1.5-7B-Chat 后就能有 openai 兼容的服务了。

ollama参考 https://github.com/ollama/ollama/blob/main/docs/openai.md 。

我们近期找时间更新下文档补充下。如果您跑vllm、ollama遇到困难也可以随时提issues(vllm支持高吞吐、ollama则支持本地cpu&gpu部署)

JianxinMa avatar Mar 04 '24 09:03 JianxinMa