xrenaissance

Results 10 comments of xrenaissance

![issue1](https://github.com/QwenLM/Qwen-Agent/assets/8351204/2d516a6f-c8c1-45f8-9963-c9e66e01c59c) 终于上传好图片了

> 请问你添加页面后再问答,这个问题是必现吗?@bobogo 是的,每一次都这样,拉了最新的Qwen-Agent代码依然是这样。 我用了Qwen1.5-14B-Chat, 用vllm deploy的,不用qwen-agent的代码,所有的api调用测试都没有问题。

> 请问你是直接点击进入 [http://127.0.0.1:7863网址,还是点击网页右上角插件进入的对话框呢?如果是后者,具体网址是?我排查下是否是网页权限问题。](http://127.0.0.1:7863%E7%BD%91%E5%9D%80%EF%BC%8C%E8%BF%98%E6%98%AF%E7%82%B9%E5%87%BB%E7%BD%91%E9%A1%B5%E5%8F%B3%E4%B8%8A%E8%A7%92%E6%8F%92%E4%BB%B6%E8%BF%9B%E5%85%A5%E7%9A%84%E5%AF%B9%E8%AF%9D%E6%A1%86%E5%91%A2%EF%BC%9F%E5%A6%82%E6%9E%9C%E6%98%AF%E5%90%8E%E8%80%85%EF%BC%8C%E5%85%B7%E4%BD%93%E7%BD%91%E5%9D%80%E6%98%AF%EF%BC%9F%E6%88%91%E6%8E%92%E6%9F%A5%E4%B8%8B%E6%98%AF%E5%90%A6%E6%98%AF%E7%BD%91%E9%A1%B5%E6%9D%83%E9%99%90%E9%97%AE%E9%A2%98%E3%80%82) @xrenaissance 点进去是好的,可是只要是对话就有这个报错

> > ![issue1](https://private-user-images.githubusercontent.com/8351204/302571030-2d516a6f-c8c1-45f8-9963-c9e66e01c59c.jpg?jwt=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJnaXRodWIuY29tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3MDg3ODExMTcsIm5iZiI6MTcwODc4MDgxNywicGF0aCI6Ii84MzUxMjA0LzMwMjU3MTAzMC0yZDUxNmE2Zi1jOGMxLTQ1ZjgtOTk2My1jOWU2NmUwMWM1OWMuanBnP1gtQW16LUFsZ29yaXRobT1BV1M0LUhNQUMtU0hBMjU2JlgtQW16LUNyZWRlbnRpYWw9QUtJQVZDT0RZTFNBNTNQUUs0WkElMkYyMDI0MDIyNCUyRnVzLWVhc3QtMSUyRnMzJTJGYXdzNF9yZXF1ZXN0JlgtQW16LURhdGU9MjAyNDAyMjRUMTMyMDE3WiZYLUFtei1FeHBpcmVzPTMwMCZYLUFtei1TaWduYXR1cmU9MDBjYzYyNDMyMWU5YzIwYTM5NTcxMTU3MDg1Njc2MzI1ZDBhMmYzMjE1MGNkOTAxYzQxMDU4YTNkNmVlNzk5OSZYLUFtei1TaWduZWRIZWFkZXJzPWhvc3QmYWN0b3JfaWQ9MCZrZXlfaWQ9MCZyZXBvX2lkPTAifQ.Odbfs5EFauZSLwzajU_sUWXL5Y3lYUd294dUskkpTtQ) 终于上传好图片了 > > 直接点击进入会报错的,代码逻辑访问/endpoint的时候触发web_listening,再触发update_pop_url,先添加阅读清单再打开就可以了 好,我试试

> openai_api.py 目前只支持 qwen1,还没适配 qwen1.5。qwen1.5 我们目前建议参考 https://github.com/QwenLM/Qwen1.5?tab=readme-ov-file#deployment 部署 vllm 来获得 openai 兼容的接口。如果 vllm 部署遇到问题,可以提相关 issues,我们会争取尽量简化流程。 > > vllm更适合部署在服务器上,应对高吞吐的情况。如果您只是个人电脑本地使用,也可以考虑 ollama,它似乎也提供了 openai 兼容的接口,参见 https://ollama.com/blog/openai-compatibility ![04ee9fd4-a070-4375-ab3a-084c78b34c03](https://github.com/QwenLM/Qwen-Agent/assets/8351204/040846b4-a798-4302-be39-9b66b720445d) 我用的vllm 0.3 deploy的openai的api server,也是不支持,我用的是qwen1.5-14b-chat

I have same issued, log showed correct response chart, but only show scatter plots

> @xrenaissance @Mike4Ellis The current chart type recommendations are based on the capabilities of the [antv](https://github.com/antvis) framework. We are working with the developers of `antv` to find relevant solutions Hi...

> @xrenaissance @Mike4Ellis The current chart type recommendations are based on the capabilities of the [antv](https://github.com/antvis) framework. We are working with the developers of `antv` to find relevant solution any...

> > 不在同一台机子上,服务端部署在服务器上,如果有这个限制,应用范围就比较窄了,只能部署一套一个人用 > > 有个单独的页面(workstation/工作台)可以上传本地pdf,然后在那个页面问答。至于chrome插件这个问题,我们在看。 通过workstation,上传本地pdf,然后在gradio的页面中回答有没有专门的api抽象出来呀?能不能给个示例?