ECCV2022-RIFE icon indicating copy to clipboard operation
ECCV2022-RIFE copied to clipboard

ECCV2022 - Real-Time Intermediate Flow Estimation for Video Frame Interpolation

Results 74 ECCV2022-RIFE issues
Sort by recently updated
recently updated
newest added

Thank you for this library: I tried it with the `Dockerfile` - without `GPU` - and I was able to generate a new file right away. Let's say I have...

Hello there ! First of all, thank you for all the work you have put into this! I am currently trying out some algorithms for arbitrary timestep frame interpolation and...

请问只能做2的幂次方倍插帧吗?可以在两张图片之间插任意帧吗?谢谢🙏

3080ti显存一直为固定的6GB,还有部分没有使用到。如何解决这个问题?

--png gives a folder with png sequence. How can I save as mp4? I get this error. and the video does not save. ``` Traceback (most recent call last): File...

作者您好,我对您的研究很感兴趣,我想请教一下,如果在输入时提供额外的信息会不会使插帧效果变得更好呢?比如苹果手机可以拍摄场景的深度信息,利用这个深度信息,比如在训练时同时输入两张原始图像和对应的两张深度图像,这样能不能在保障插帧效果的同时,适当得简化网络模型结构呢?十分感谢!

您好,我注意到有人提出v2.3版本权重模型的视频插帧效果似乎好于v6、v4系列的版本,经过我在自己视频上插帧验证实验也是如此,所以想自己重新训练v2版本的网络试一下,在这之前我已经跑通了RIFE.py版本的训练。但我发现RIFE_HDv2.py和RIFE.py之间存在很多差异,经过我的修改也不能直接在目前这个发行版本的train.py上直接训练,应该是代码结构如update函数返回值不同,同时v2版本应该提供flow_gt文件,但目前的RIFE.py中不需要。请问能否提供适合RIFE_HDv2.py版本训练的代码?十分感谢!

Hi there, I'm trying to go from a higher frame rate such as 30fps to 25fps, using RIFE to do standards conversion for film and tv. The software I am...

I have been running this code in Ubuntu and Windows (through Flowframes), and I would like to run it in a Macbook 16 that I am using. Reading PyTorch documentation,...

你好,我参照Vimeo90K格式制作了自己的数据集使用train.py训练模型,但是loss_distill损失会随着训练慢慢的发散掉直至nan,请问这是什么原因?采用模型中提供的其他损失来训练网络,但是结果却不佳,请问我该采用哪些损失函数以及对应权重才能训练出较好的效果呢。