YOLOv5-Multibackbone-Compression
YOLOv5-Multibackbone-Compression copied to clipboard
YOLOv5 Series Multi-backbone(TPH-YOLOv5, Ghostnet, ShuffleNetv2, Mobilenetv3Small, EfficientNetLite, PP-LCNet, SwinTransformer YOLO), Module(CBAM, DCN), Pruning (EagleEye, Network Slimming), Quantizat...
大佬您好,我自己根据SwinTransformer源码将YOLOV5的6.1版本的backbone全部按SwinTransformer结构修改,遇到的半精度训练报错问题看您的train文件添加了'--nohalf'参数后成功了,但是我的GFLOPs很大,光depth_multiple: 0.33,width_multiple: 0.75的yolov5swin_tiny就409.9GFLOPs,而depth_multiple: 1,width_multiple:1的yolov5swin_base达到离谱的1307GFLOPs,就算导入并冻结预训练权重也训练很慢。大佬是否遇到GFLOPs过大的问题,过大是否需要剪枝(还没接触过剪枝,请大佬赐教。感谢

当YOLOv5x为主体与标准结构的区别是:(1)首先去掉14和19的CBAM模块(2)降低与P2关联的通道数(128)(3)在输出头之前会添加SPP模块,注意SPP的kernel随着P的像素减小而减小(4)在CBAM之后进行输出(5)只保留backbone以及最后一层输出的TransBlock(6)采用BiFPN作为neck 我看官方实现的TPH的代码中也和您对网络做了同样的更改,想请问下为什么不用论文中的那个网络结构图而要做出这些修改呢
预训练权重
您好,请问修改了网络结构之后(例如YOLOv5s-ghost),用原来的权重文件(例如yolov5s.pt)效果会不理想,这种情况该怎么办呀?非常感谢您能答复!
模型用的yolov5xP2CBAM-Swin-BiFPN-SPP.yaml
hyperparameters: lr0=0.01, lrf=0.1, momentum=0.937, weight_decay=0.0005, warmup_epochs=3.0, warmup_momentum=0.8, warmup_bias_lr=0.1, box=0.05, cls=0.5, cls_pw=1.0, obj=1.0, obj_pw=1.0, iou_t=0.2, anchor_t=4.0, fl_gamma=0.0, hsv_h=0.015, hsv_s=0.7, hsv_v=0.4, degrees=0.0, translate=0.1, scale=0.5, shear=0.0, perspective=0.0, flipud=0.0, fliplr=0.5, mosaic=1.0, mixup=0.0, copy_paste=0.0 TensorBoard:...
Traceback (most recent call last): File "train.py", line 678, in main(opt) File "train.py", line 575, in main train(opt.hyp, opt, device, callbacks) File "train.py", line 230, in train train_loader, dataset =...
大佬,如果我想把模型改小一点,改成yolov5sP2CBAM-Swin-BiFPN-SPP.yaml的话,除了调整width和depth的乘参数外还有别的调整方式嘛?有没有可能存在更适用于小网络的改法嘞?