joe660
joe660
你还记得当时python是3.6还是3.7?谢谢?我就是在Ubuntu下安装,出现了错误。难受。。。。
> 我是3.8。 发自我的iPhone > […](#) > 在 2021年4月8日,下午10:33,joe660 ***@***.***> 写道: 你还记得当时python是3.6还是3.7?谢谢?我就是在Ubuntu下安装,出现了错误。难受。。。。 — You are receiving this because you authored the thread. Reply to this email directly, view it on...
> 我是3.8。 发自我的iPhone > […](#) > 在 2021年4月8日,下午10:33,joe660 ***@***.***> 写道: 你还记得当时python是3.6还是3.7?谢谢?我就是在Ubuntu下安装,出现了错误。难受。。。。 — You are receiving this because you authored the thread. Reply to this email directly, view it on...
> 应该不支持,因为用了retinanet就无法用ROI-Align, 无法build_roi_heads,因此detector_losses = {}。没有detector_losses还怎么训练 请问你复现过MEGA,求回复 谢谢!
你使用FGFA效果怎么样?????和原始的FasterRCNN、MEGA相比。。
> > > 没事没事~老哥你8卡训一次大概多久呀? > > > > > > 你训练完了如果达到了他的效果能麻烦告诉我下你的日志情况吗? > > 我发你在GitHub上留的邮箱了,我没加det的数据,能复现ap50到76,应该是没问题的~ MEGA怎样指定GPU使用呢?谢谢1
> > 没事没事~老哥你8卡训一次大概多久呀? > > 你训练完了如果达到了他的效果能麻烦告诉我下你的日志情况吗? MEGA怎样指定GPU使用呢? 麻烦你了 谢谢
> 你好,请问baseline是直接用faster-rcnn对每一张图片进行检测嘛? > 另一个是baseline那勾选了local是什么意思呢? >  在吗 我也发现这个问题了 在我自己数据集上,直接使用FasterRCNN和MEGA、FGFA效果都差不多,可能数据太简单,但是!!!1代码中Faster-RCNN的实现是加了local吗?
> 看了您code中FGFA中的部分,发现了一个问题,在测试的时候,您的代码没有导入flownet的预训练模型,经过我试验得到的结果就是,对于一个相同的图像序列,我用您的demo中的FGFA方法进行检测,什么都不改变,检测两遍会得到不同的结果,结果差别比较大,但是在demo中加入checkpointer.load_flownet(),进行多遍检测,结果是一样的,希望您和使用者周知。 可以加个好友吗? 我按照你说的添加了 还可以 我使用自己的数据集训练,AP从大到小一次是FGFA>MEGA>Fasterrcnn。但是在demo显示的时候 FGFA显示相比MEGA和Faster还是很差,这是什么原因呢? 光流还需要重新训练???
> > cbam注意力是放在shoutcut层里面还是后面呢?谢谢 > > 里面 请问作者在YOLOv4中添加了注意力机制并没有获得性能提升 不知道作者跑实验的情况是什么样的