yolov4-tiny-keras
yolov4-tiny-keras copied to clipboard
这是一个YoloV4-tiny-keras的源码,可以用于训练自己的模型。
Bumps [opencv-python](https://github.com/skvark/opencv-python) from 4.1.2.30 to 4.2.0.32. Release notes Sourced from opencv-python's releases. 4.2.0.32 opencv-python: https://pypi.org/project/opencv-python/ opencv-contrib-python: https://pypi.org/project/opencv-contrib-python/ opencv-python-headless: https://pypi.org/project/opencv-python-headless/ opencv-contrib-python-headless: https://pypi.org/project/opencv-contrib-python-headless/ OpenCV version 4.2.0. Changes: macOS environment updated from xcode8.3...
I saw in your table the mAP 21.8 is on COCO17 val. But in the paper, it reports mAP 21.7% on COCO17 test-dev. Did you try do evaluation on test-dev...
我用作者的这个训练的安全帽和人检测,摄像头实时检测的fps只有50左右,这是为什么呢
``` true_boxes[..., 0:2] = boxes_xy/input_shape[:] true_boxes[..., 2:4] = boxes_wh/input_shape[:] ``` 应该是 ``` true_boxes[..., 0:2] = boxes_xy/input_shape[::-1] true_boxes[..., 2:4] = boxes_wh/input_shape[::-1] ``` input_shape排序是(h, w),对应上box的xy和wh的话,应该反一下;通常训练正方形数据时无所谓,但在在训练宽高不一致的数据时会溢出
在计算anchor和true_box的iou时(train.py文件第107行开始),用到了归一化的true_boxes尺寸(在train.py的81和82行),但是anchor却没有进行归一化就与true_box进行的iou计算,从而来判断true_box属于哪个anchor,这肯定是有问题的,一个数值很大,一个只有0-1范围,从而导致anchor不能正确匹配,我是在单步调试过程中发现。不知道up主怎样认为
你好up主,之前看过你视频提到tiny-yolov4的anchor_mask是对编号1,2,3,3,4,5这几个anchor进行提取,其中编号3重复使用了两次,但是你没有说原因。在我详读代码过程中我发现这视乎有点小问题,比如在train.py文件72行,使用了这种方法获得anchor_mask,但是在107--116行计算真实框和哪个先验框最契合这个步骤中是对整个anchors进行比对,也就是说编号0的anchor也是算在内的,但是在118--129行,特别是第120行来对box匹配anchor时,由于anchor_mask选取问题并没有考虑到编号为0的情况,因此这部分box在训练中应该是被省略了。通过修改,我训练了我自己的数据集发现修改了anchor_mask后模型效果确实有提升,并且视乎对小目标预测效果更好。
第113行:place_y = [0,int(h*min_offset_y),int(w*min_offset_y),0],这里是不是有误,w应该改成h。masaic处理依次粘贴图片代码中体现的是按左上,左下,右下,右上顺序,这里的第三个数据应该是右下角图片的纵坐标,应该是int(h*min_offset_y)。
博主强大