txy

Results 9 comments of txy

> @txy00001 感谢反馈 > > 麻烦描述一下您的业务场景、部署场景,然后通过百度云提供一下ONNX模型吧~ > > 另外,也需要您描述一下为什么会有转到Paddle部署的需求呢? 是将训练好的[pytorch](https://so.csdn.net/so/search?q=pytorch&spm=1001.2101.3001.7020)模型转成paddlepaddle的inference_model,然后直接使用paddlepaddle载入使用。官方提供的X2paddle 模型链接:链接:https://pan.baidu.com/s/1FmZfrv9L606xLIzSo8-WCA 提取码:4562

> @txy00001 具体业务场景可以描述一下吗,然后为什么会有转到Paddle的需求呢~ 利用paddle推理模型与pytorch进行对比

> 请问FastDeploy的PP_OCR_v3是否支持FP32、FP16、INT8的推理部署?另外多batch推理如何开启? ![image](https://github.com/PaddlePaddle/FastDeploy/assets/47891269/0f9d9770-65ed-4364-9997-a3695b8b8aba) 我改为了fp16,但为啥我推理同一张图片和fp32时间几乎一样?请问这是为啥呢?

> 看起来像是用法不对,从代码报错来看这个det_model现在是个str, 可以贴下更完整的代码,或者调试看下det_model的值是否符合你的预期。 现在跑通了,出来的结果也符合预期,但是我开启FP16,速度和fp32的基本一样,没有明显的加速,是为啥呢? 以下是我的代码 ![image](https://github.com/PaddlePaddle/FastDeploy/assets/47891269/3ba44a82-1f7e-40c4-8e5e-78ce9eb5c44c) ![image](https://github.com/PaddlePaddle/FastDeploy/assets/47891269/c87a04fc-f07a-4b9b-a0ad-78dc043ccde5) ![image](https://github.com/PaddlePaddle/FastDeploy/assets/47891269/a9123bb3-0f1b-4d1e-86c1-4c945cec7003) 是我开启fp16的方法错了么?,可以正常保存cache_16.trt

> 你这个加速的问题现在解决了吗@txy00001 我已经改掉了,有0.02-0.04s的提升

![image](https://github.com/open-mmlab/mmagic/assets/47891269/bad2cbcd-2c68-4f3f-ac26-4a23e194d985) ![image](https://github.com/open-mmlab/mmagic/assets/47891269/dc4b8c7b-6862-4a5b-8d99-7f2f306d6a5b),没有新视频输出

> 路过回复下(非官方),我猜测是传入模型的帧数太多了,比如你说的1s视频,1280x720,如果是30帧,需要的显存也不少了,应该在几十G的量级。 所以你需要确定: > > 1. editor.infer传入video, 是解码所有帧然后将所有帧调用模型;还是使用max_seq_len参数来窗口调用;具体逻辑见代码:https://github.com/open-mmlab/mmagic/blob/main/mmagic/apis/inferencers/video_restoration_inferencer.py#L126 > 2. 如果1.是将所有帧传入,那么就是因为帧数过多导致oom;如果1是已经只传部分帧,那么在你这个分辨率下,需要将部分帧减少(max_seq_len参数),来避免oom 至于如何修改max_seq_len参数,你需要找下怎么对inferencer传参,整体的模型参数逻辑在 [https://github.com/open-mmlab/mmagic/blob/main/mmagic/apis/mmagic_inferencer.py#L150,看起来是会读取一个默认的配置文件](https://github.com/open-mmlab/mmagic/blob/main/mmagic/apis/mmagic_inferencer.py#L150%EF%BC%8C%E7%9C%8B%E8%B5%B7%E6%9D%A5%E6%98%AF%E4%BC%9A%E8%AF%BB%E5%8F%96%E4%B8%80%E4%B8%AA%E9%BB%98%E8%AE%A4%E7%9A%84%E9%85%8D%E7%BD%AE%E6%96%87%E4%BB%B6) 感谢,我试一下

在train里添加 ![image](https://github.com/megvii-research/NAFNet/assets/47891269/d67936e0-635d-4732-925b-5786d4c6dc22)

I would like to ask what is the detection effect of the target covered by the occlusion, and what is the detection rate?