Wang

Results 24 comments of Wang

loss为0是数据集的问题,我现在用voc中提取到的行人数据来做行人识别,训练的时候也遇到了loss=0的问题,暂时没找到是哪里出了点毛病,数据集生成方式和步骤和wider face都是一样的。@cherryxiongyw

![自定义数据训练_训练size512测试](https://user-images.githubusercontent.com/32231771/68352925-ed5d3780-0142-11ea-89c6-043f64ee97c8.jpg) ![自定义数据训练_原图size测试](https://user-images.githubusercontent.com/32231771/68352933-f2ba8200-0142-11ea-92c8-4c887c3b3dc3.jpg) 这两张图片分别是自定义数据集上训练,使用训练size和原图size测试的结果,训练size测试结果的偏移比较严重。 现在可以排除的是训练和测试代码(两个数据集训练的代码都是完全一致的),我仅在读取Label的时候有些不同,因为自定义数据无landmark,以下是我修改后的代码。 # for idx, label in enumerate(labels): # num = len(label) # gt_num = num // 4 # annotation = np.zeros((1, 15)) # # bbox # for...

找到原因啦,因为自定义数据集上(512x512)的检测框是扁平状的,我把它转换成正方形的检测框,中心点计算错了。。因为WIDERFACE上的检测框基本是正方形所以没影响。

![test6](https://user-images.githubusercontent.com/32231771/68466001-8331b900-024e-11ea-9466-edb5096dc1c8.jpg) ![test7](https://user-images.githubusercontent.com/32231771/68466010-87f66d00-024e-11ea-9295-4c398df561f7.jpg) 我又使用你的RetinaFace模型在WIDER FACE上测试,第一张是把图片resize至 640 x 640后输入网络的结果,第二张是原图,可见结果差异很大。网络训练的时候size是 640 x 640,为什么这里用640训练结果这么差。 这是我resize插入的位置: img_raw = cv2.imread(image_path, cv2.IMREAD_COLOR) img = np.float32(img_raw) img = cv2.resize(img,(640,640),interpolation=cv2.INTER_LINEAR) im_height, im_width, _ = img.shape scale = torch.Tensor([img_raw.shape[1], img_raw.shape[0],...

@S201961152 可以的,你可以参照作者给的标注格式,把自己数据关键点都改为-1

@S201961152 是的,推荐使用LabelImg,标注左上右下顶点坐标,自己写个标注结果的转换脚本。

统计标准视情况而定,如果是被人挡住了,完全没有露脸通常算误检;如果是带口罩面罩遮住人脸,是可以算检测正确的。 ---原始邮件--- 发件人: "S201961152"