LUO77123
LUO77123
python train.py --workers 8 --device 0 --batch-size 1 --data data/coco128.yaml --img 640 640 --cfg cfg/training/yolov7.yaml --weights 'yolov7.pt' --name yolov7-custom  第一个epoch占用2.59,第二个epoch突增到了7G, 改成--batch-size 2,也是一样,第一个epoch占用2.59,第二个epoch突增到了7G,  这是什么原因喃? 不收敛,map基本不增加 
大佬您好,我自己根据SwinTransformer源码将YOLOV5的6.1版本的backbone全部按SwinTransformer结构修改,遇到的半精度训练报错问题看您的train文件添加了'--nohalf'参数后成功了,但是我的GFLOPs很大,光depth_multiple: 0.33,width_multiple: 0.75的yolov5swin_tiny就409.9GFLOPs,而depth_multiple: 1,width_multiple:1的yolov5swin_base达到离谱的1307GFLOPs,就算导入并冻结预训练权重也训练很慢。大佬是否遇到GFLOPs过大的问题,过大是否需要剪枝(还没接触过剪枝,请大佬赐教。感谢
 我不知道错在哪里喃
大佬,我在本地运行就可以,一到服务器上,就显示这个warning: missing return statement at end of non-void function "compare_vertices",还是可以install,但是运行起来就全部是nan
源码改建 (当我导入swinv2_tiny_patch4_window8_256.pth,使用窗口为8时候,可以正常跑代码;但是当我导入swinv2_tiny_patch4_window16_256.pth,使用窗口为16时候,导入权重出现不匹配情况;不知道如何处理,请大佬解答一下。 问题如下:) RuntimeError: Error(s) in loading state_dict for Model: size mismatch for model.7.blocks.0.attn.relative_coords_table: copying a param with shape torch.Size([1, 15, 15, 2]) from checkpoint, the shape in current model...
When I import (swinv2_tiny_patch4_window8_256.pth) and use window 8, I can run the code normally; However, when I import (swinv2_tiny_patch4_window16_256.pth) and the usage window is 16, the import weights do not...
大佬,rbox2poly是采用逆时针计算点坐标  看了杨学大佬写的旋转定义,长边法很多用的顺时针呀  然而我改成顺时针后,训练验证没问题,最高能达到77,但是测试提交就只有47,不知道什么缘由?
大佬,我用cal_iou求解旋转iou时候,进行广播机制,导致B和N就特别大,导致直接爆掉了,A100我降batchsize没用,有没有解决的办法喃。 
关于KLD损失的疑问
作者你好,感谢你分享的工作,在阅读源码时有几个问题。 您给出的KLD损失绘图如下,显示分类损失一直为0,而角度损失一直下降。  但是,我在阅读compute_loss_KLD中,langle 初始值为0 ,  而后,langle 未参与其他计算,就到达最后损失计算,langle *= h['angle'] *S,所以 langle=0,即 langle 一直为0,角度仅在Box损失计算中参与Iou的计算。如下图  我试着训练DOTA数据集,效果不好。想知道您给的数据集label是什么格式(poly的4点坐标,还是由poly经过CV外接最小矩形的带角度的坐标,由OpenCV法转化为长边法的代码在哪里喃),谢谢 PS,这是我用CSL测全部16类后,得到的ship:0.8941434649109584, 但是现在KLD得到效果不好
大佬,我发现经过使cost最小的正样本anchor后匹配的GT,不像yolov5限定值在[-0.5,1.5],但是find_3_positive函数是寻找GT附近3个正样本anchor,在此基础上后续操作怎么会变成很远的框来预测当前的GT,这是为什么喃   图上aaaaaa是我添加的,相对于特征图的GT框与正样本左上角x,y的差值,竟然不在【-0.5,1.5】之间 从下图的selected_tbox[:, :2] -= grid也能看出来pxy = ps[:, :2].sigmoid() * 2. - 0.5值域在【-0.5,1.5】,而selected_tbox很大 