Bolano

Results 27 comments of Bolano
trafficstars

sorry, I didn't train it in voc ,coco or kitti. my weight just comes from a project.

这个在coco的集上还没有进行测试过,在我目前参与的项目的集上,yolov2剪枝50%的flops下降了2/3,实际去跑快了2~3倍,项点的Precision和未减枝模型保持一致,recall上升了18%

现在的版本已经可以对yolov2剪枝了

@hewumars 剪枝之后呢,我觉得稀疏化训练应该到达loss平稳而且γ系数也没有变化为止

@hewumars Rethinking the Smaller-Norm-Less-Informative Assumption in Channel Pruning of Convolution Layers这篇文章除了替换了惩罚项以外,还想办法保留了bn层的被减通道的偏置,这样剪枝之后的精度损失就很小,可以减少微调的epoch。关于shortcut我暂时没有好的想法。。所以就直接省掉不减

@Ariel-JUAN gtx1060,请问你剪枝后的总bflops有没有减少,另外是否是一边播放一边测试的

@Ariel-JUAN 并没有写过。。不过我认为这篇论文相比于networkslimming来说,主要提出在剪bn的γ时也会减去bn的bias,于是将bn层减去的参数的bias作为常量添加到下一层卷积的bias或bn层running mean中,相比于之前的算法减小了剪枝造成的误差;更换了惩罚项,感觉他的惩罚项类似于梯度截断法(实际用起来有γ发散的问题);此外还有考虑各层运算量的大小,对不同bn层梯度下降时施以不同的惩罚,有些区分层的重要性的感觉。还有一个小trick,在稀疏化训练前将bn层γ权重缩小α倍,同时将同层的卷积权重放大α倍,这样输出的feature map没有变,方便快速稀疏化γ权重(但感觉这个trick实际没有什么用)

hi, may be some problem happen in 'darknet53.cfg'? does your cfg have the 'yolo' layer ? i suggest that you can try yolov3.cfg first . And if your cfg have...

maybe reduce the '0.5' of lines 105 ‘nProposals = int((pred_conf > 0.5).sum().item())’ in yolomodel.py.

yes,it can work in win10 .see my repository https://github.com/talebolano/TensorRT-Yolov3/tree/win10