YOLOv5-Multibackbone-Compression icon indicating copy to clipboard operation
YOLOv5-Multibackbone-Compression copied to clipboard

YOLOv5 Series Multi-backbone(TPH-YOLOv5, Ghostnet, ShuffleNetv2, Mobilenetv3Small, EfficientNetLite, PP-LCNet, SwinTransformer YOLO), Module(CBAM, DCN), Pruning (EagleEye, Network Slimming), Quantizat...

Results 58 YOLOv5-Multibackbone-Compression issues
Sort by recently updated
recently updated
newest added

利用自己的数据集训练了一个5s的网络,但是不知道为啥执行prune_eagleeyy.py进行剪枝的时候测试出来的map一直都特别特别低

is:issue is:open detect,大佬您好为什么运行detect.py报错 return flops * img_size[0] / stride * img_size[1] / stride UnboundLocalError: local variable 'flops' referenced before assignment ![image](https://user-images.githubusercontent.com/57949429/144423373-d15104b5-ecda-4f76-9545-e43a37e6d7a2.png)

训练是可以正常训练的,验证的时候就报错,大家有知道这是什么原因吗?

您好,想问一下您在使用MQbench提供的工具量化yolov5之后,效果如何?

您好,请问YOLOv5x-TPH的结果也是在val验证集上得到的吗?还有就是对应YOLOv5x-TPH的yaml文件是哪个呢?我尝试了一些yaml文件都没有得到对应大小的模型,自己复现的TPH-YOLOv5x则是GFLOPS达到了九百多....

以下是我的训练命令行: nohup python train.py --cfg yolov5xP2CBAM-TPH-BiFPN-SPP.yaml --weights 'weights/yolov5x.pt' --img 640 --data myVisDrone.yaml --hyp data/hyps/hyp.visdrone.yaml --epochs 81 --device 0,1 --batch-size 2 --name '5x_tph_ori_640_526' & 然后我训练了81轮 我的metrics/mAP_0.5:0.95只有0.024101 以下是我的train_batch.jpg ![image](https://user-images.githubusercontent.com/50826229/171127048-bf6d84e4-2b31-4e40-a2be-ae9a8294c62c.png) 这是我的数据集文件 # Train/val/test...

请问大佬 剪枝的yaml模型文件是需要自己写吗

1. 项目能支持v5.0版本的YOLOv5的剪枝和压缩吗?(我看您发布的用的是v6.0的YOLOv5) 2. Pruning for YOLOs部分能支持对Slighter Model进行pruning吗?如果可以的话,步骤同Pruning for YOLOs吗?

大佬,请问一下啊。您替换为 swin 后,map 能到多少呢?很感谢~

大佬,我想麻烦请问下我看论文中swin transformer block都是成对出现的,你代码中SwinTransformerLayer的具体结构是不是只是下面的一半,比如1个C3STR模块内部堆叠了4个SwinTransformerLayer,那这3个并不一定完全是按照W-MSA,SW-MSA,W-MSA,SW-MSA,这样排的吗? 也可能是W-MSA,W-MSA,SW-MSA,W-MSA这样排的对吗? 我也刚接触swin transformer ,可能说的不太清楚,主要就是对这个代码中的SwinTransformerLayer网络结构不太清楚,谢谢您了。 ![1](https://user-images.githubusercontent.com/59409902/162577020-866eeaca-6e8a-4328-8003-2b9d4fbe65b4.png)