kkzh2313
kkzh2313
按照链接https://github.com/mitmul/caltech-pedestrian-dataset-converter 最终得到的data文件夹下只有images(文件夹)和annotation.json。 请问是需要自己写程序来生成对应的TXT文件吗?你那边方便提供吗 谢谢
你好,我按照你提供的网盘链接https://drive.google.com/drive/folders/1tUov0iY88CWYAA0IP4nkOWCii0AN8Hem下载了预测结果,然后运行python utils/6_fold_cv.py,可视化发现预测的分割效果很差,地面存在各种颜色,墙壁也是。另外指标也很低。 下面该图是labels=original_data['class'] groud-truth的效果  下面该图是预测的效果。  下面该图是最终的评价指标结果  请问是哪里有问题导致效果跟你出入很大?
你好,我有把你参考链接里作者的训练好的模型(https://github.com/biubug6/Pytorch_Retinaface) 放到你项目里直接evaluation。发现AP低了一些,尤其是hard低的更多,直接到50%了,请问这是怎么回事  另外把你的model_data/下面的模型也放到他代码里测试,AP也比较低, easy Val AP:0.8109 Medium val AP : 0.7539 Hard val AP : 0.5593