落枫_rain
落枫_rain
我测下来好像是http那边没有实时返回数据 , 导致一条数据老长时间返回 , 这边没做兼容 , 等待更新吧
> 我测试了一下,的确我这儿有问题,chatgpt本体我与它的对话速度非常快,代理速度也还行,但不知道为什么我本地编写了一个测试调用api连续对话的代码,竟然要平均25s才能收发消息,前几天都是正常的,请问你知道问题可能出在哪里吗? 我也是 , 前几天正常 , 但是这两天对话异常慢 , api接口也确认走了代理 , 但是就是经常超时
> > > 我测试了一下,的确我这儿有问题,chatgpt本体我与它的对话速度非常快,代理速度也还行,但不知道为什么我本地编写了一个测试调用api连续对话的代码,竟然要平均25s才能收发消息,前几天都是正常的,请问你知道问题可能出在哪里吗? > > > > > > 我也是 , 前几天正常 , 但是这两天对话异常慢 , api接口也确认走了代理 , 但是就是经常超时 > > 是不是它对免费用户限流了。。。 我也在其他几个gpt项目测了api , 使用的自己的key , 有些是正常的 , 有些不正常 ,...
> 暂不清楚原因 , 昨天卡的飞起 , 今天又不卡了 , 也没做充值之类的操作 , 推测是他们开发对stream续流出现了问题, 应该是官方bug . 今天已经可以正常使用了
同款环境下一样的问题,在本机无泄漏情况,同版本在服务器上就不停增加直至崩溃
> @tisoz 什么样的服务器环境呀,另外可以提供一个最小可复现demo吗 我去改写下demo,晚点发过来
> @tisoz 什么样的服务器环境呀,另外可以提供一个最小可复现demo吗 `环境信息` ``` annotated-types==0.5.0 anyio==3.7.1 astor==0.8.1 asttokens==2.4.1 async-timeout==4.0.2 attrdict==2.0.1 Babel==2.14.0 backcall==0.2.0 bce-python-sdk==0.9.6 beautifulsoup4==4.12.3 better-exceptions==0.3.3 blinker==1.7.0 bs4==0.0.2 cachetools==5.3.3 certifi==2023.7.22 cffi==1.16.0 charset-normalizer==3.3.2 click==8.1.6 colorama==0.4.6 colored==1.4.4 coloredlogs==15.0.1 contourpy==1.1.1 cryptography==42.0.5 cssselect==1.2.0 cssutils==2.10.2...
> > > @tisoz 什么样的服务器环境呀,另外可以提供一个最小可复现demo吗 > > > > > > 我去改写下demo,晚点发过来 > > 我在windows上面内存就会一直累加,使用多进程可以解决。 > >  使用memory_profile持续监控,内存变化符合预期。 这种实际情况下不太适合内嵌和整合代码,单客户端的时候比较麻烦
> 用线程池会不会好一点 2024-05-22 16:22:20.476 | INFO | __main__::12 - 200,{"memory_usage_mb":5061.09765625,"ocr_result":[null] 截至目前已经增加到了5G,我推测可能是因为导致的问题,但也不好说,因为线程池没有webapi的功能
> 设置 `FLAGS_allocator_strategy=naive_best_fit` 会不会有缓解 > > https://github.com/PaddlePaddle/PaddleOCR/blob/e73eb76271b441be9bd7981789417696f3f27ae0/tools/infer/predict_system.py#L22 > > https://www.paddlepaddle.org.cn/documentation/docs/zh/guides/flags/memory_cn.html 没用