DVQA
DVQA copied to clipboard
Deep learning-based Video Quality Assessment
你好, 在复现论文的过程中,发现性能结果与论文相差较大(训练、测试集划分以及具体的学习率等均采用原始代码所给参数)。想咨询一下,具体的论文中复现性能所采用的细节。 1.首先是视频帧的选取,原始代码中所采用的是跳帧操作。但我注意到论文中的描述是 Training segments are randomly cropped from videos for data augmentation.We select a random temporal position and sample a clip with 60 frames.如果我的理解没有错误的话,这里的意思是每个视频随机选取一个60帧的连续片段。 所以,我想问一下,这个结果是按照开源代码的操作还是论文的操作实现的?亦或是我的这部分理解有问题? 2.另外,以上两种方法我都尝试过,但似乎性能仍有较大差距。在论文中提到的重复实验部分,具体是怎么重复的,如果是对于数据集重新划分后实验,能否提供10次对应的划分json文件.
刚接触视频质量评估方面的测试,看了DVQA的README之后,还是一脸懵逼,有基础一点的使用文档吗?
Bumps [numpy](https://github.com/numpy/numpy) from 1.18.1 to 1.22.0. Release notes Sourced from numpy's releases. v1.22.0 NumPy 1.22.0 Release Notes NumPy 1.22.0 is a big release featuring the work of 153 contributors spread...
Bumps [protobuf](https://github.com/protocolbuffers/protobuf) from 3.11.3 to 3.15.0. Release notes Sourced from protobuf's releases. Protocol Buffers v3.15.0 Protocol Compiler Optional fields for proto3 are enabled by default, and no longer require the...
@tencent-adm RuntimeError: The size of tensor a (109) must match the size of tensor b (71) at non-singleton dimension 2
我需要测试的视频是yuv大小大约是433M 1366x768 大约280多帧。使用CPU机器进行评分。机器内存4核32G。 运行一段时间。提示需要52G的内存。为何需要如此之大的内存?能否解答下。或者是否有参数可以调节。
Is there a method to output the used FLOPs of the DVQA model? Thanks in advance.
Bumps [urllib3](https://github.com/urllib3/urllib3) from 1.25.8 to 1.26.5. Release notes Sourced from urllib3's releases. 1.26.5 :warning: IMPORTANT: urllib3 v2.0 will drop support for Python 2: Read more in the v2.0 Roadmap Fixed...