Hudaodao99

Results 3 issues of Hudaodao99

您好~在使用YOLO-World过程中,注意到yolo_world_l_dual_vlpan_2e-4_80e_8gpus_mask-refine_finetune_coco.py和yolo_world_l_efficient_neck_2e-4_80e_8gpus_mask-refine_finetune_coco.py文件中的pretrain weight均为 `load_from = 'pretrained_models/yolo_world_l_clip_base_dual_vlpan_2e-3adamw_32xb16_100e_o365_goldg_train_pretrained-0e566235.pth'`即不含有efficient neck的训练权重。pretrain的config文件中也没有efficient neck的区分。但在finetune中,他们有efficient neck的区分。 **请问pretrain和finetune的结构上是否存在差别?如果结构不一样的话,会有进行什么操作使他们对齐呢?如果pretrain中直接使用efficient neck的话,会对使用efficient neck的finetune结果有提升吗?** 感谢解答

您好! 我配置了环境想复现yolo_world_l在coco上的finetune结果,但实际跑出来的结果介于s和m模型结果的中间。 过程详细按照finetune的文档进行实验: 1. 由于加入efficient neck的yolo_world_l代码网页报错404,此次复现使用的是未加入efficient neck的yolo_world_l。 2. 论文仅给出L的finetune模型在O365,GoldG,CC3M上进行pretrain。为了完全复现,将原文档中的加载权重`load_from='pretrained_models/yolo_world_l_clip_base_dual_vlpan_2e-3adamw_32xb16_100e_o365_goldg_train_pretrained-0e566235.pth'`改为`load_from='pretrained_models/yolo_world_l_clip_base_dual_vlpan_2e-3adamw_32xb16_100e_o365_goldg_cc3mlite_train_pretrained-7a5eea3b.pth'` 3. 超参数:8a800*16bs 4. 训练过程及结果: 02/23 21:54:41 - mmengine - INFO - Epoch(train) [80][800/925] base_lr: 2.0000e-04 lr: 6.9500e-06 eta: 0:01:05 time: 0.5054...

由于刚开始接触mm系列代码,想询问论文中所述公式在代码中出现的对应文件及位置。 (loss乘权重并相加的相关代码位置,L(I) = Lcon + λI · (Liou + Ldfl) ) 期待您的指教!