SunYF-0729
SunYF-0729
> @SunYF-0729 你导出模型的时候不能直接使用paddle.jit.save,需要使用quanter.save_quantized_model接口导出模型 就是用quanter.save_quantized_model替换ppdet/tools/export_model吗,那这个接口在哪
> @SunYF-0729 你导出模型的时候不能直接使用paddle.jit.save,需要使用quanter.save_quantized_model接口导出模型 paddle2.2.2 paddledet develop paddleslim develop 用det/tools/export_model导出模型还是不行
https://github.com/PaddlePaddle/Paddle-Lite/issues/9266#issue-1309977645 @hong19860320 麻烦您帮我看下这个问题,跟这个差不多
@wanghaoshuang @yingshengBD 你好,我这里有个问题跟他差不多,可以麻烦帮我解答下吗,谢谢!!! https://github.com/PaddlePaddle/PaddleSlim/issues/1305#issue-1308604097
> @SunYF-0729 剪裁完部署到arm和intel fpga上速度变慢的问题我们找相关同学看下,你使用paddle Inference在GPU上部署预测速度怎么样? 还没有在gpu上试过,我搜查文献,在硬件上推理变慢是因为对权重的非结构化剪裁会产生一定的编码问题,所以部署到硬件反而会让速度变慢,但是我看我的这个应该是直接对卷积核进行剪裁去除,应该没这个问题,所以很费解
> @SunYF-0729 剪裁完部署到arm和intel fpga上速度变慢的问题我们找相关同学看下,你使用paddle Inference在GPU上部署预测速度怎么样? 我这个网络结构的pruned-params也是根据prune_config的print_params来设置的,这个是我调用不了static/slim/sensitive/sensitive.py对我自己模型的结构进行print_params才采用的无奈之举。全设为0.3也是因为调用不了sensitive.py没办法进行敏感度分析。
https://github.com/PaddlePaddle/PaddleDetection/issues/6453#issue-1306564809 @yghstill 前辈,还有这个问题我也很困扰,麻烦您找人看下,万分感谢您的回复,期待您指导!
> 麻烦提供下剪枝后的模型文件(*.pdmodel) @SunYF-0729 这里不支持传输文件,请您给个其他方式吧
> 直接将文件拽入输入框即可~ > > > > 麻烦提供下剪枝后的模型文件(*.pdmodel) @SunYF-0729 > > > > > > 这里怎么提供 
> 请问你们现在能做到多少ms,这个裁剪率已经很高了 只有量化的能到350,裁剪加量化没做出来呢