txy
txy
> @txy00001 感谢反馈 > > 麻烦描述一下您的业务场景、部署场景,然后通过百度云提供一下ONNX模型吧~ > > 另外,也需要您描述一下为什么会有转到Paddle部署的需求呢? 是将训练好的[pytorch](https://so.csdn.net/so/search?q=pytorch&spm=1001.2101.3001.7020)模型转成paddlepaddle的inference_model,然后直接使用paddlepaddle载入使用。官方提供的X2paddle 模型链接:链接:https://pan.baidu.com/s/1FmZfrv9L606xLIzSo8-WCA 提取码:4562
> @txy00001 具体业务场景可以描述一下吗,然后为什么会有转到Paddle的需求呢~ 利用paddle推理模型与pytorch进行对比
> 请问FastDeploy的PP_OCR_v3是否支持FP32、FP16、INT8的推理部署?另外多batch推理如何开启?  我改为了fp16,但为啥我推理同一张图片和fp32时间几乎一样?请问这是为啥呢?
> 看起来像是用法不对,从代码报错来看这个det_model现在是个str, 可以贴下更完整的代码,或者调试看下det_model的值是否符合你的预期。 现在跑通了,出来的结果也符合预期,但是我开启FP16,速度和fp32的基本一样,没有明显的加速,是为啥呢? 以下是我的代码    是我开启fp16的方法错了么?,可以正常保存cache_16.trt
> 你这个加速的问题现在解决了吗@txy00001 我已经改掉了,有0.02-0.04s的提升
 ,没有新视频输出
> 路过回复下(非官方),我猜测是传入模型的帧数太多了,比如你说的1s视频,1280x720,如果是30帧,需要的显存也不少了,应该在几十G的量级。 所以你需要确定: > > 1. editor.infer传入video, 是解码所有帧然后将所有帧调用模型;还是使用max_seq_len参数来窗口调用;具体逻辑见代码:https://github.com/open-mmlab/mmagic/blob/main/mmagic/apis/inferencers/video_restoration_inferencer.py#L126 > 2. 如果1.是将所有帧传入,那么就是因为帧数过多导致oom;如果1是已经只传部分帧,那么在你这个分辨率下,需要将部分帧减少(max_seq_len参数),来避免oom 至于如何修改max_seq_len参数,你需要找下怎么对inferencer传参,整体的模型参数逻辑在 [https://github.com/open-mmlab/mmagic/blob/main/mmagic/apis/mmagic_inferencer.py#L150,看起来是会读取一个默认的配置文件](https://github.com/open-mmlab/mmagic/blob/main/mmagic/apis/mmagic_inferencer.py#L150%EF%BC%8C%E7%9C%8B%E8%B5%B7%E6%9D%A5%E6%98%AF%E4%BC%9A%E8%AF%BB%E5%8F%96%E4%B8%80%E4%B8%AA%E9%BB%98%E8%AE%A4%E7%9A%84%E9%85%8D%E7%BD%AE%E6%96%87%E4%BB%B6) 感谢,我试一下
在train里添加 
I would like to ask what is the detection effect of the target covered by the occlusion, and what is the detection rate?