wenqiuL
wenqiuL
> @IronmanVsThanos 我把COCO和GQA数据集混合起来微调,出来的结果还可以,你看下issues/299 你好,请问可以给一份训练config文件作为参考吗?我混合数据集报各种参数错误
> @mandyxiaomeng 你好,我这边代码可以跑了。 我使用的是configs/pretrain/yolo_world_v2_l_vlpan_bn_2e-3_100e_4x8gpus_obj365v1_goldg_train_lvis_val.py文件,做了一点小改动,代码如下: > > _base_ = ('../../third_party/mmyolo/configs/yolov8/' 'yolov8_l_syncbn_fast_8xb16-500e_coco.py') custom_imports = dict(imports=['yolo_world'], allow_failed_imports=False) > # hyper-parameters > > num_classes = 80 num_training_classes = 80 max_epochs = 30 # Maximum...
@tomgotjack 好的,我根据以下代码发现了可以只加载QGA数据 train_dataloader = dict(batch_size=train_batch_size_per_gpu, collate_fn=dict(type='yolow_collate'), dataset=dict(delete=True, type='ConcatDataset', datasets=[ # obj365v1_train_dataset, # flickr_train_dataset, coco_train_dataset, mg_train_dataset ], ignore_keys=['classes', 'palette'])) 但是问题是 data.md提供的下载链接似乎已经失效了,找不到final_mixed_train_no_coco.json,能否方便提供一下这部分内容的链接呢?非常感谢 mg_train_dataset = dict(type='YOLOv5MixedGroundingDataset', data_root='data/mixed_grounding/', ann_file='annotations/final_mixed_train_no_coco.json', data_prefix=dict(img='gqa/images/'), filter_cfg=dict(filter_empty_gt=False, min_size=32), pipeline=train_pipeline)
@zyh1122 这个问题我也遇到过,依稀记得是与类别有关的bug。再详细的解决办法时间太久记不太清了。后续混合之后由于效果下降太多就放弃了这个方法。
@wondervictor 你好作者,请问在这个json文件的同一行中,对于同一类别,如果要加入一类text或者一个文本描述又应该如何编写,能给出一个例子嘛?
@xyl3902596 我使用的是我自己方向的数据集,没有与作者提供的表格里的权重mAP作比较。与方向数据相比,大概与目前的SOTA相当且个别数据集超过SOTA。 另外,请问你是否知道对自定义数据集进行微调如何保证开放词汇的效果呢?
请问你使用的config文件是config/fine_tuning还是config/pretrain里的呢?如果是pretrain里的,或许你可以参考一下[#299]的最后进行修改,通过自定义数据集和GQA进行混合训练。至于精度这方面我不太清楚,抱歉
@xyl3902596 另外你是否有关于GQA的 final_mixed_train_no_coco.json文件呢,作者提供的链接似乎已经失效了
@tm924222 加了,保留了config文件原本的权重没变
@qiiiiiiiiiiiiiiiii 没有解决