YOLOv3-model-pruning icon indicating copy to clipboard operation
YOLOv3-model-pruning copied to clipboard

训练得到的mAP低

Open zhangyu96 opened this issue 6 years ago • 18 comments

我按照博主的方法一步步操作,但是训练baseline_model时在训练迭代3,4个epoch时达到过0.73左右,但是在迭代100个epoch后,mAP只有0.69左右。请问您是怎么训练的,我为什么会出现这种情况?

zhangyu96 avatar Aug 15 '19 07:08 zhangyu96

目前我也是按照博主的方法操作,baseline_model,在90个epoch是0.68左右,同问?

hitzht avatar Aug 15 '19 08:08 hitzht

我一开始按默认的配置也是这样,后来调整了学习率,效果甚至比博主的还略高了。

songwsx avatar Aug 16 '19 02:08 songwsx

1

songwsx avatar Aug 16 '19 03:08 songwsx

1

请问,你初始学习率设置的是多少,是否添加了衰减策略,目前你这个0.776的mAP是训练多少轮获得的结果?谢谢

hitzht avatar Aug 16 '19 03:08 hitzht

同样的问题,测试AP值较低 (颜色浅的为实际AP,深的是平滑的值) image

lz20061213 avatar Aug 20 '19 02:08 lz20061213

同样的问题,测试AP值较低 (颜色浅的为实际AP,深的是平滑的值) image

请问你测试作者剪枝后的模型了吗,为什么感觉测试的时间并没有变少啊

yyx1107 avatar Aug 20 '19 06:08 yyx1107

同样的问题,测试AP值较低 (颜色浅的为实际AP,深的是平滑的值) image

请问你测试作者剪枝后的模型了吗,为什么感觉测试的时间并没有变少啊

对 我用的TitanXp 时间少的不多

lz20061213 avatar Aug 20 '19 06:08 lz20061213

同样的问题,测试AP值较低 (颜色浅的为实际AP,深的是平滑的值) image

请问你测试作者剪枝后的模型了吗,为什么感觉测试的时间并没有变少啊

对 我用的TitanXp 时间少的不多

你是和自己的剪枝模型和训练的baseline对比了吗?感觉自己的剪了也没有变多快,设的0.48,弄不明白

yyx1107 avatar Aug 20 '19 06:08 yyx1107

同样的问题,测试AP值较低 (颜色浅的为实际AP,深的是平滑的值) image

请问你测试作者剪枝后的模型了吗,为什么感觉测试的时间并没有变少啊

对 我用的TitanXp 时间少的不多

你是和自己的剪枝模型和训练的baseline对比了吗?感觉自己的剪了也没有变多快,设的0.48,弄不明白

用的作者的代码 ratio=0.85 采用final模型 裁剪11369/13376 层 剪枝前后对比如下: image

lz20061213 avatar Aug 20 '19 06:08 lz20061213

同样的问题,测试AP值较低 (颜色浅的为实际AP,深的是平滑的值) image

请问你测试作者剪枝后的模型了吗,为什么感觉测试的时间并没有变少啊

对 我用的TitanXp 时间少的不多

你是和自己的剪枝模型和训练的baseline对比了吗?感觉自己的剪了也没有变多快,设的0.48,弄不明白

用的作者的代码 ratio=0.85 采用final模型 裁剪11369/13376 层 剪枝前后对比如下: image

差不多的情况,但是我没有稀疏化好,只能最大设成0.48,剪完精度就掉0了。你是怎么稀疏的呀,有没有修改什么参数呢,用了多少个epoch呀

| mAP | 0.743434 | 0.000000 | | Parameters | 61523734 | 35518315 | | Inference | 0.0104 | 0.0095 |

yyx1107 avatar Aug 20 '19 06:08 yyx1107

同样的问题,测试AP值较低 (颜色浅的为实际AP,深的是平滑的值) image

请问你测试作者剪枝后的模型了吗,为什么感觉测试的时间并没有变少啊

对 我用的TitanXp 时间少的不多

你是和自己的剪枝模型和训练的baseline对比了吗?感觉自己的剪了也没有变多快,设的0.48,弄不明白

用的作者的代码 ratio=0.85 采用final模型 裁剪11369/13376 层 剪枝前后对比如下: image

差不多的情况,但是我没有稀疏化好,只能最大设成0.48,剪完精度就掉0了。你是怎么稀疏的呀,有没有修改什么参数呢,用了多少个epoch呀

| mAP | 0.743434 | 0.000000 | | Parameters | 61523734 | 35518315 | | Inference | 0.0104 | 0.0095 |

python train.py --model_def config/yolov3-hand.cfg -sr --s 0.01 什么参数都没改 用最后一个保存的模型测试的 稀疏化训练和裁剪都没问题 主要是模型精度 估计需要衰减学习率

lz20061213 avatar Aug 20 '19 06:08 lz20061213

我没有训练baseline,直接开始稀疏化训练,有问题吗

Gavin666Github avatar Aug 20 '19 09:08 Gavin666Github

同样的问题,测试AP值较低 (颜色浅的为实际AP,深的是平滑的值) image

请问你测试作者剪枝后的模型了吗,为什么感觉测试的时间并没有变少啊

对 我用的TitanXp 时间少的不多

你是和自己的剪枝模型和训练的baseline对比了吗?感觉自己的剪了也没有变多快,设的0.48,弄不明白

用的作者的代码 ratio=0.85 采用final模型 裁剪11369/13376 层 剪枝前后对比如下: image

差不多的情况,但是我没有稀疏化好,只能最大设成0.48,剪完精度就掉0了。你是怎么稀疏的呀,有没有修改什么参数呢,用了多少个epoch呀

| mAP | 0.743434 | 0.000000 | | Parameters | 61523734 | 35518315 | | Inference | 0.0104 | 0.0095 |

你是在自己的数据集上做的剪枝麽,我percent最大只能设置到0.35,剪枝后也是0了,肿么破,请大佬赐教

baidu88vip avatar Aug 21 '19 09:08 baidu88vip

1

请问,你初始学习率设置的是多少,是否添加了衰减策略,目前你这个0.776的mAP是训练多少轮获得的结果?谢谢

warmup和学习率衰减策略有效

paojianghu avatar Sep 16 '19 08:09 paojianghu

@songwsx 请问学习率是怎么调整的?

alanMachineLeraning avatar Sep 29 '19 06:09 alanMachineLeraning

@songwsx 你的baseline能跑出和博主相同的mAP(甚至超过),请问你对哪些超参进行了调整呢?学习率?学习率衰减?

huangxiang360729 avatar Apr 28 '20 19:04 huangxiang360729

代码里的默认超参可能不是最好的(mAP最高0.72),多调多试一下。

Detecting objects: 100%|██████████| 103/103 [00:18<00:00, 5.53it/s] Computing AP: 100%|██████████| 1/1 [00:00<00:00, 14.89it/s] Average Precisions:

  • Class '0' (hand) - AP: 0.8698023980235626 mAP: 0.8698023980235626

ps:没有改动训练方式。

bluoluo avatar Oct 07 '20 10:10 bluoluo

代码里的默认超参可能不是最好的(mAP最高0.72),多调多试一下。

Detecting objects: 100%|██████████| 103/103 [00:18<00:00, 5.53it/s] Computing AP: 100%|██████████| 1/1 [00:00<00:00, 14.89it/s] Average Precisions:

  • Class '0' (hand) - AP: 0.8698023980235626 mAP: 0.8698023980235626

ps:没有改动训练方式。

请问是怎么调参的呢?

yanyangchun avatar Dec 10 '20 06:12 yanyangchun