落枫_rain

Results 13 comments of 落枫_rain

我测下来好像是http那边没有实时返回数据 , 导致一条数据老长时间返回 , 这边没做兼容 , 等待更新吧

> 我测试了一下,的确我这儿有问题,chatgpt本体我与它的对话速度非常快,代理速度也还行,但不知道为什么我本地编写了一个测试调用api连续对话的代码,竟然要平均25s才能收发消息,前几天都是正常的,请问你知道问题可能出在哪里吗? 我也是 , 前几天正常 , 但是这两天对话异常慢 , api接口也确认走了代理 , 但是就是经常超时

> > > 我测试了一下,的确我这儿有问题,chatgpt本体我与它的对话速度非常快,代理速度也还行,但不知道为什么我本地编写了一个测试调用api连续对话的代码,竟然要平均25s才能收发消息,前几天都是正常的,请问你知道问题可能出在哪里吗? > > > > > > 我也是 , 前几天正常 , 但是这两天对话异常慢 , api接口也确认走了代理 , 但是就是经常超时 > > 是不是它对免费用户限流了。。。 我也在其他几个gpt项目测了api , 使用的自己的key , 有些是正常的 , 有些不正常 ,...

> 暂不清楚原因 , 昨天卡的飞起 , 今天又不卡了 , 也没做充值之类的操作 , 推测是他们开发对stream续流出现了问题, 应该是官方bug . 今天已经可以正常使用了

同款环境下一样的问题,在本机无泄漏情况,同版本在服务器上就不停增加直至崩溃

> @tisoz 什么样的服务器环境呀,另外可以提供一个最小可复现demo吗 我去改写下demo,晚点发过来

> @tisoz 什么样的服务器环境呀,另外可以提供一个最小可复现demo吗 `环境信息` ``` annotated-types==0.5.0 anyio==3.7.1 astor==0.8.1 asttokens==2.4.1 async-timeout==4.0.2 attrdict==2.0.1 Babel==2.14.0 backcall==0.2.0 bce-python-sdk==0.9.6 beautifulsoup4==4.12.3 better-exceptions==0.3.3 blinker==1.7.0 bs4==0.0.2 cachetools==5.3.3 certifi==2023.7.22 cffi==1.16.0 charset-normalizer==3.3.2 click==8.1.6 colorama==0.4.6 colored==1.4.4 coloredlogs==15.0.1 contourpy==1.1.1 cryptography==42.0.5 cssselect==1.2.0 cssutils==2.10.2...

> > > @tisoz 什么样的服务器环境呀,另外可以提供一个最小可复现demo吗 > > > > > > 我去改写下demo,晚点发过来 > > 我在windows上面内存就会一直累加,使用多进程可以解决。 > > ![image](https://private-user-images.githubusercontent.com/59350597/332694048-340736d5-6c78-4b93-9746-9a652e6c5f62.png?jwt=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJnaXRodWIuY29tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3MTYzNjE5MTQsIm5iZiI6MTcxNjM2MTYxNCwicGF0aCI6Ii81OTM1MDU5Ny8zMzI2OTQwNDgtMzQwNzM2ZDUtNmM3OC00YjkzLTk3NDYtOWE2NTJlNmM1ZjYyLnBuZz9YLUFtei1BbGdvcml0aG09QVdTNC1ITUFDLVNIQTI1NiZYLUFtei1DcmVkZW50aWFsPUFLSUFWQ09EWUxTQTUzUFFLNFpBJTJGMjAyNDA1MjIlMkZ1cy1lYXN0LTElMkZzMyUyRmF3czRfcmVxdWVzdCZYLUFtei1EYXRlPTIwMjQwNTIyVDA3MDY1NFomWC1BbXotRXhwaXJlcz0zMDAmWC1BbXotU2lnbmF0dXJlPTViYzljYTg5NGZhNjcyMmQ2M2NiMWI5ZjlkMzUyNTRmZDZiYzQ3MGNhNjYzZjczZjMyYjQ0NDVkMGFmMmY3YzQmWC1BbXotU2lnbmVkSGVhZGVycz1ob3N0JmFjdG9yX2lkPTAma2V5X2lkPTAmcmVwb19pZD0wIn0.HBTu_WiZKFd4AuPSfA2fGsEoL6F1nVZEaK5cvdEjpiA) 使用memory_profile持续监控,内存变化符合预期。 这种实际情况下不太适合内嵌和整合代码,单客户端的时候比较麻烦

> 用线程池会不会好一点 2024-05-22 16:22:20.476 | INFO | __main__::12 - 200,{"memory_usage_mb":5061.09765625,"ocr_result":[null] 截至目前已经增加到了5G,我推测可能是因为导致的问题,但也不好说,因为线程池没有webapi的功能

> 设置 `FLAGS_allocator_strategy=naive_best_fit` 会不会有缓解 > > https://github.com/PaddlePaddle/PaddleOCR/blob/e73eb76271b441be9bd7981789417696f3f27ae0/tools/infer/predict_system.py#L22 > > https://www.paddlepaddle.org.cn/documentation/docs/zh/guides/flags/memory_cn.html 没用