PaddleSlim icon indicating copy to clipboard operation
PaddleSlim copied to clipboard

PaddleSlim is an open-source library for deep model compression and architecture search.

Results 231 PaddleSlim issues
Sort by recently updated
recently updated
newest added

Hi, I run [`run.py`](https://github.com/PaddlePaddle/PaddleSlim/blob/develop/example/auto_compression/semantic_segmentation/run.py) as follow in `PaddleSlim/example/auto_compression/semantic_segmentation`: ```python args.config_path = "configs/pp_liteseg/pp_liteseg_mine.yaml" args.save_dir = './save_sparse_model' ``` but I got: ```python 2022-07-22 12:59:49,955-INFO: quant_aware config {'weight_quantize_type': 'channel_wise_abs_max', 'activation_quantize_type': 'moving_average_abs_max', 'weight_bits': 8,...

TinyPose qat全量化版本bug! #1288 问题和log描述非常详细,请帮忙检查下为啥 无法export出paddledet提供的模型呢?(具体在1288这个issue最开始的帖子里) 建议您仔细看下 [tinypose_128x96-lcl.zip](https://github.com/PaddlePaddle/PaddleSlim/files/9108898/tinypose_128x96-lcl.zip) [tinypose_128x96-yml-lcl.zip](https://github.com/PaddlePaddle/PaddleSlim/files/9108922/tinypose_128x96-yml-lcl.zip) 这是两个包,你要的都在,对吗? BR

版本: ![image](https://user-images.githubusercontent.com/109390344/179612740-420eba0b-4375-4faf-b733-887f6d0455ea.png) 问题: 剪裁0.3%后,flops减少,在验证集上预测速度变快,但量化后部署到arm和intel fpga上推理速度反而变慢 剪裁前: ![R_WVA%XZC3NDRTVXQ4P9H D](https://user-images.githubusercontent.com/109390344/179614192-e3bd9e85-4bb6-40a7-b8b6-b07773c5b9ba.png) ![7YY8_C (KVDCBFS DWECHWG](https://user-images.githubusercontent.com/109390344/179614209-4426b589-f1e2-4c0c-bf40-95f792814977.png) 剪裁后: ![{A_HX5YEMZ{CW6X}_F7QTYJ](https://user-images.githubusercontent.com/109390344/179614241-f99a2bf9-6ad4-470f-9a7f-1c919908e6b6.png) ![5_6DQ}QV06@A@X)V1`({BGQ](https://user-images.githubusercontent.com/109390344/179614261-644a7b0b-1207-41df-8d13-e71c6eec8017.png) 以下是我的训练过程: ![image](https://user-images.githubusercontent.com/109390344/179612808-25b4e690-a3d0-4b1d-9ca0-becac42be2bf.png) 我参照量化的congfig的设置方式加了个prune的congfig,在train中加入slim_config_prune,config如下: ![image](https://user-images.githubusercontent.com/109390344/179613085-b03bda03-e408-469f-a21e-b8a86ea8f865.png) 这里训练的时候我其实设的全为0.3。这里的参数名称我不清楚该裁剪哪个,不让剪裁的系统会自己跳过,所以都写上去。 剪裁后导出的静态模型从23.4M变为14.7M,但是部署到板子上推理照片的速度从350ms变为了610ms,求大佬解答!!!

Hi, 1 请问下 TinyPose模型的自动化压缩代码无bug版本的整理好了吗? 2 是否有文档,确保过程无误? 3 coco数据集qat全量化后掉点多少,业务最终掉点多少呢? 多谢

使用Android nnapi方式,硬件为mtk设备。经过将自己的yolov3模型,经过x2paddle转换后,在经过静态离线量化,最后经过动态量化后,性能对比不经过静态量化有150ms变为了250ms。具体见文件: [apu_question.zip](https://github.com/PaddlePaddle/PaddleSlim/files/9098525/apu_question.zip) ![2022-07-13 10-45-21 的屏幕截图](https://user-images.githubusercontent.com/82625719/178639877-9a563e7e-45c7-495e-acd2-4b2d0626c91c.png)

敏感度分析完后,怎么确定剪枝的层和剪枝率,因为介绍用python绘制的话该怎么做,那个网页404了

hi, 初学深度学习,从github上拿了一个pytorch模型文件(大概170M),转换成paddle模型后,大小差不多。 使用动态图量化后,权重文件减小并不明显,减小到137M。模型使用resnet-18,和文档介绍的1/4相差较多。 目前来看,没有达到预期的优化结果,我是想把模型往移动端进行移植,但是目前的大小无法进行移动端的开发 1.想咨询下是我优化方法不对,还是本身的动态图离线量化就只能做到这种程度? 2.看到释放了最新的paddleslim,但是还是无法安装成功(2.2安装ok)

Traceback (most recent call last): File "run.py", line 167, in main(args) File "run.py", line 149, in main ac = AutoCompression( File "/home/hongyang/codebase/paddle_code/PaddleSlim/paddleslim/auto_compression/compressor.py", line 153, in __init__ self.train_dataloader = wrap_dataloader(train_dataloader, File...

在运行demo_yolofastest.py时, 将eval参数中的False改为True, 报上述错误。

## 问题1 fake_quant_xxx算子的InScale和OutScale,在计算下一个节点的输入Scale的时候,应该取InScale还是OutScale除((1