Wang
Wang
loss为0是数据集的问题,我现在用voc中提取到的行人数据来做行人识别,训练的时候也遇到了loss=0的问题,暂时没找到是哪里出了点毛病,数据集生成方式和步骤和wider face都是一样的。@cherryxiongyw
@hematank @jackyfriend @tianhan2014 @leadalion https://pan.baidu.com/s/1ZqA3mhMbtaO9JoFku0zRJQ
  这两张图片分别是自定义数据集上训练,使用训练size和原图size测试的结果,训练size测试结果的偏移比较严重。 现在可以排除的是训练和测试代码(两个数据集训练的代码都是完全一致的),我仅在读取Label的时候有些不同,因为自定义数据无landmark,以下是我修改后的代码。 # for idx, label in enumerate(labels): # num = len(label) # gt_num = num // 4 # annotation = np.zeros((1, 15)) # # bbox # for...
@biubug6 非常感谢
找到原因啦,因为自定义数据集上(512x512)的检测框是扁平状的,我把它转换成正方形的检测框,中心点计算错了。。因为WIDERFACE上的检测框基本是正方形所以没影响。
  我又使用你的RetinaFace模型在WIDER FACE上测试,第一张是把图片resize至 640 x 640后输入网络的结果,第二张是原图,可见结果差异很大。网络训练的时候size是 640 x 640,为什么这里用640训练结果这么差。 这是我resize插入的位置: img_raw = cv2.imread(image_path, cv2.IMREAD_COLOR) img = np.float32(img_raw) img = cv2.resize(img,(640,640),interpolation=cv2.INTER_LINEAR) im_height, im_width, _ = img.shape scale = torch.Tensor([img_raw.shape[1], img_raw.shape[0],...
@S201961152 可以的,你可以参照作者给的标注格式,把自己数据关键点都改为-1
@S201961152 是的,推荐使用LabelImg,标注左上右下顶点坐标,自己写个标注结果的转换脚本。
统计标准视情况而定,如果是被人挡住了,完全没有露脸通常算误检;如果是带口罩面罩遮住人脸,是可以算检测正确的。 ---原始邮件--- 发件人: "S201961152"