Jianhong Tu
Jianhong Tu
你好,如果你只是使用code interpreter工具,可以参考[这里](https://github.com/QwenLM/Qwen-Agent/blob/main/examples/image_gen.py)的例子在generate_cfg方便的调整llm的各种参数。如果是使用gradio界面中的code interpreter接口,目前没有在前端设置修改参数的接口,同样可以在[代码](https://github.com/QwenLM/Qwen-Agent/blob/main/qwen_server/workstation_server.py#L29)中调整llm config哈。 @shuangwei123
我这边用单张40G的显卡,跑Qwen-7B-Chat没问题,你是用的多少B模型呢?可以考虑设置max_ref_token=3000或更小来避免OOM。
python run_server.py --model_server http://127.0.0.1:7905/v1,这里把127.0.0.1改成你的服务器ip
启动Qwen那里的命令不用改,上不去的具体报错是什么?
@iaoxuesheng 目前更新了一版代码,我这边测试可以比较好的支持远程服务的情况,你可以先用dashscope api访问qwen,来测试是否是qwen部署问题。
看起来是交互页面的服务没起成功,你是在本地部署的服务吗?如果服务部署在本地,那请粘贴后台输出到这里我看看报什么错;如果服务部署在远程,那需要在Customize Address那里输入你的ip地址
This issue should be a small probability event (almost impossible to occur), I suspect it was caused by an error and the page was not refreshed after restarting.. But I...
你好,这里有个逻辑是浏览器插件传输网页url到文件,然后对话框读取文件获得网页url,也许是浏览器网络传输问题导致失败,但是一般不会出现这个问题,我这边测试最新的代码没有出现这个问题,你那边是必现吗?
请问你添加页面后再问答,这个问题是必现吗?@bobogo
请问你是直接点击进入 http://127.0.0.1:7863网址,还是点击网页右上角插件进入的对话框呢?如果是后者,具体网址是?我排查下是否是网页权限问题。 @xrenaissance