lzx101

Results 17 comments of lzx101

if not self.every_n_iters(runner, self.interval): 大佬好,我想知道every_n_iters是聚合教师的关键代码吗,但是我找不到位置

非常感谢您的回复,我还有一个疑问,EMAHook是原本的EMA吗,然后resnet_rla.py关于聚合教师的代码在哪一块呀?感谢大佬

大佬你好,我有一个疑问,聚合教师的公式是这样的:xl+1=θl+1[xl + hl] + xl,hl+1=g2[g1[θl+1[xl + hl] + hl]。RLA_Bottleneck返回out, y, h。out是对应xl+1,y是对应xl,这个理解对吗

for layers, bns, conv_out, recurrent_conv in zip(self.stages, self.stage_bns, self.conv_outs, self.recurrent_convs): for layer, bn in zip(layers, bns): #返回三个输出 x残差表示残差块的输出特征,h是隐藏状态 x, y, h = layer(x, h) # RLA module updates #conv_out=g1 y_out...

> @lzx101 h 用于下一次的x计算 > > https://github.com/chenbinghui1/DSL/blob/f06a4112fd708185323363891df1e3d938982b19/mmdet/models/backbones/resnet_rla.py#L305 明白了,謝謝大佬

大佬,我想将聚合教师用于denseteacher(这是一个基于FCOS的半监督目标检测),只将模型的backbone改为resnet_rla.py,10/17 17:04:07 - mmengine - INFO - Iter(train) [ 5900/180000] lr: 2.5000e-03 eta: 1 day, 12:11:09 time: 0.7321 data_time: 0.0055 memory: 8939 loss: 1.9870 sup_loss_cls: 0.8551 sup_loss_bbox: 0.4710 sup_loss_centerness: 0.6610...

你好,我使用了下载并加载与训练的resnet_rla模型,但是效果还是很不好,我用的数据集是COCO2017,而不是DSL风格的COCO数据集,请问和这个有关系吗 10/18 20:56:45 - mmengine - INFO - Iter(train) [ 4700/180000] lr: 2.5000e-03 eta: 1 day, 11:59:11 time: 0.7001 data_time: 0.0056 memory: 8277 loss: 1.9277 sup_loss_cls: 0.8194 sup_loss_bbox: 0.4496 sup_loss_centerness:...