YOLOv3-complete-pruning
YOLOv3-complete-pruning copied to clipboard
提供对YOLOv3及Tiny的多种剪枝版本,以适应不同的需求。
Support quantization (tensorRT) later pruning?
Does this repo simply set the parameter to zero? I think we're going to change the structure of the network?
作者您好,本人是个学生,我参考了您说的那篇论文,但是通过您的代码,似乎没看到无须微调的相关算法,所以冒昧的打扰您一下,能讲讲您无需微调的原理吗?感激不尽
能否提供以下模型的耗时: 
稀疏后normal_prune.py后生成的cfg文件怎么是我的附图上格式的,是我剪裁哪里出问题了嘛? 
完全按照作者的程序,用作者的数据集就出现,RuntimeError: shape '[256, 128, 3, 3]' is invalid for input of size 246683 刷自己的数据集同样出现
Traceback (most recent call last): File "normal_prune.py", line 28, in model.load_state_dict(torch.load(opt.model, map_location=device)['model']) File "/usr/local/lib/python3.6/dist-packages/torch/nn/modules/module.py", line 839, in load_state_dict self.__class__.__name__, "\n\t".join(error_msgs))) RuntimeError: Error(s) in loading state_dict for Darknet: size mismatch for...
首先非常感谢作者的开源,但是我在使用tiny剪枝时遇到了错误,BrokenPipeError: [Errno 32] Broken pipe RuntimeError: The "freeze_support()" line can be omitted if the program大致是线程之类的错误,我用的使自己训练的四分类网络就是标准的yolo-tiny只更改了yolo层符合我的四个输出。望作者解答
请问在稀疏训练时会产生新的cfg吗,我在剪枝时用的还是稀疏化时的cfg,剪枝时为什么会有三次map,第一次map0.99多,后两次时0,很疑惑