wang yilan
wang yilan
对,ava就是rank的时候用用,rankiqa本质是给tid和live设计的,所以前边rank之后,再在tid上finetune regression任务
I think you need to give some examples in `Class `commit, thanks for your work! It is very helpful! @piercus
这是个挺常见的想法,如果你从文字检测的paper开始看,大家shrink gt得到localization的点算是基操了。
好久不做这个方向了……但是我印象中,比如Retinanet这种也会卡iou阈值,比如>0.7算pos,<0.3算neg,这种点我记得卡一卡,最后都被消化了;其次是loss有个调正负样本权重的参数,这个也保证了他们权重差不多 发自 网易邮箱大师 ---- 回复的原邮件 ---- | 发件人 | ***@***.***> | | 日期 | 2021年11月01日 10:21 | | 收件人 | ***@***.***> | | 抄送至 | wang ***@***.******@***.***> | | 主题...
> 比如说你用4个gpu,mega.pytorch/configs/BASE_RCNN_4gpu.yaml solver和test 的ims_per_batch是4 > 如果你用8个gpu或者更多。把上述两个参数改成对应的8或其他 > SOLVER: > BASE_LR: 0.001 > WEIGHT_DECAY: 0.0001 > STEPS: (80000, ) > MAX_ITER: 120000 > **IMS_PER_BATCH: 4** > WARMUP_ITERS: 500 > TEST: >...
学习率一般不能直接倍增吧,很容易搞得不收敛,前边wam up长一点试试?
没事没事~老哥你8卡训一次大概多久呀?
> > 没事没事~老哥你8卡训一次大概多久呀? > > 你训练完了如果达到了他的效果能麻烦告诉我下你的日志情况吗? 我发你在GitHub上留的邮箱了,我没加det的数据,能复现ap50到76,应该是没问题的~
I run 20w steps, very strange results, but it is do improve codebook seraching ability. Maybe only this loss not works...
although the date is 9/17/2023,I still think the losses of stage2 are wrong set. the lq_feat from traing model is from encoder, but the gt is from quantize.get_codebook_feat, i.e., the...