Lanezzz

Results 5 issues of Lanezzz

您好,我想请问一下最终的损失值大概是多少,我最终的视频帧的损失函数在0.45左右徘徊

您好,真值的边界不应该也属于难例中的一部分吗?并且网络应该更加注重这部分的学习,赋予更高的权重。为什么在做边界的难例挖掘时,要扣除这部分?

您好,我打算将您公布的pytorch版本的RCCA模块应用到视频的不同帧之间,以获得帧与帧之间的注意力进而增强视频帧的特征表示。主要问题是loss没有完全收敛,维持在1-2中间。我想排除一下是不是我网络改的有问题,需要您的帮助!!! 主要任务是视频的显著性检测,取同一视频中任意两帧经过同一ResNet-101,获得 B x 256 x 47 x 47的特征,然后再输入到RCCA模块,先得到 Q_X , K_X , V_X , Q_Y, K_Y, V_Y,即得到两帧映射到Q,K,V空间的特征。然后再用 Q_X 和 K_Y 做相关性矩阵,作用到V_Y,然后是Q_Y 和 K_X 做相关性,作用到 V_X。 代码的实现如下,几乎没怎么改动,希望您能帮我看一眼,或者能提供给我一点训练或者调参的建议吗?感谢!!! `class RCCAModule(nn.Module): def...

您好,我打算将您写的pytorch版本的RCCA模块应用到视频的不同帧之间,以获得帧与帧之间的注意力进而增强视频帧的特征表示。主要问题是loss没有完全收敛,维持在1-2中间。我想排除一下是不是我网络改的有问题,需要您的帮助!!! 主要任务是视频的显著性检测,取同一视频中任意两帧经过同一ResNet-101,获得 B x 256 x 47 x 47的特征,然后再输入到RCCA模块,先得到 Q_X , K_X , V_X , Q_Y, K_Y, V_Y,即得到两帧映射到Q,K,V空间的特征。然后再用 Q_X 和 K_Y 做相关性矩阵,作用到V_Y,然后是Q_Y 和 K_X 做相关性,作用到 V_X。 代码的实现如下,几乎没怎么改动,希望您能帮我看一眼,感谢! `class RCCAModule(nn.Module): def...

前辈您好,我在复现您RCRNet的结果时,基本上没怎么改您的代码,用您训练好的伪标签生成器每5帧生成1帧伪标签,目前DAVIS和FBMS数据集上的性能都差不多,但是VOS 的 test 数据集的性能差了5-6个点。后来干脆不用伪标签,直接将伪标签生成器的frame_between_label_num设置为0,这样的话,相当于直接生成的是20%的真值。 我用这个训练,VOS test数据集的指标还是差了5-6个点。 但是用您提供的best_model直接跑inference,VOS的指标又是一样的。目前猜测是VOS文件配置问题? DAVIS数据集配置:JPEGImages是帧间隔为1,伪标签文件夹里的标签(真值)帧间隔为5 FBMS数据集配置:JPEGImages是帧间隔不定,对应原始100%真值的图(一般间隔为20帧),伪标签文件夹里的标签(真值)帧间隔再 乘以 5 VOS数据集配置:JPEGImages是帧间隔为1,伪标签文件夹里的标签(真值)帧间隔为15 x 5 =75 我不太确定到底是哪里错了,能帮我对一下VOS数据集配置有问题吗