githubuser

Results 21 comments of githubuser

> > 您好,感谢分享代码。在实验中,您已经使用生成的建议报告了时间动作检测的 mAP 性能。你能分享一下采用这些propsals进行动作检测的相关代码和过程吗?在之前的几部作品中,很少介绍这个过程的细节,通常在论文中用几句话来描述。对于不熟悉“通过提案分类检测”过程的学生,很难实现和计算性能。希望你能分享一下它的细节。谢谢。 > > 您好,抱歉回复晚了。ActivityNet v1.3的检测代码在[这里](https://zenodo.org/record/6513172#.YnCXiodBxPY)。您需要修改文件路径和“bash run.sh”。 您好,你提供的视频分类分数cuhk_val_simp_share.json,获得该分数的模型有利用时间边界注释进行训练吗?还是仅仅使用视频级动作标签进行训练?

> > I3D的特征是以原始帧频提取的 > > Hi, the I3D features are extracted at the original frame rate. 那请问您,是您自己提的特征吗?

> > I3D的特征是以原始帧频提取的 > > Hi, the I3D features are extracted at the original frame rate. i3d的特征是RGB和光流特征拼接后进行线性插值的吗?

> > > > I3D的特征是以原始帧频提取的 > > > > > > > > > Hi, the I3D features are extracted at the original frame rate. > > > > >...

> I3D features do not involve label information in the ActivityNet dataset (v1.2 or v1.3) and only use pre-trained Kinetics information. 请问您是如何将thumos14的数据集划分为有标签数据集和无标签数据集的?我看到thumos14里每个视频的类别数量还是挺多的,不像activitynet1.3那样单一

> the result I reproduce is about 40.83mAP on GTEA, there is still some gap. 请问作者给了参数后你复现出原来的结果了吗?

> 我还没试,你怎么不做这个了?因为效果不好提升了吗?

> Yes, we used the two-stream I3D networks pre-trained on Kinetics-400, as stated in the paper. ok,thank you.You said in your paper that you take 16 frames of video as...

> Yes,that makes sense!Thank you very much!

> 谢谢你的建议! > > 事实上,我注意到一些关于全监督时间动作定位的论文使用了这种标签工程技术。 > > 然而,据我所知,现有的弱监督方法并没有使用它。 > > 因此,我们没有采用它来与之前的作品进行公平的比较,尽管它可能会带来一些性能提升。 Thanks for your reply. For the point annotation of Thumos14, SFnet provides four annotation files. Are these four files...