eggplant95

Results 6 issues of eggplant95

I was training the model on tesla v100 GPUs and CUDA version is 11.0. However, I realize the volatile GPU-util remains 0%, which means the GPU was not in fully...

在output_encoder_conformer_onnx这个函数里,在导出onnx模型的时候有6个输入参数,如下: ` torch.onnx.export(encoder_model, (dummy_input1, offset, required_cache_size, subsampling_cache, elayers_output_cache, conformer_cnn_cache), encoder_model_path, export_params=True, opset_version=12, do_constant_folding=False, input_names=['input','offset','required_cache_size', 'i1', 'i2', 'i3'], output_names=['output', 'o1', 'o2', 'o3'], dynamic_axes={'input': [1], 'i1':[1], 'i2':[2], 'output': [1], 'o1':[1], 'o2':[2]}, verbose=True...

https://github.com/YaoFANGUK/video-subtitle-extractor/blob/ec451ac51fd2f094f6d2fcdc1219b2546a1d4254/backend/main.py#L690 发现这个函数`_frame_to_timecode`耗时很长,我分析其中原因大概是每次获取一个时间戳都要调取一下cv2的视频库。不知道是不是有一种方法能把一些视频的信息放在函数初始化的阶段完成,这里恢复时间戳的时候利用简单计算就可以完成,这样就可以提速了。但是不敢贸然改动,因为我不太懂视频这一块的知识,而且后面这里的分支原理也不清楚,还望贴主解答疑惑

请问下作者,vsf模式是否使用对于效果的影响是怎么样的呢?请问您推荐哪种模式。

作者您好,感谢您的开源,软件很好用,但是代码逻辑这里有些没看懂,希望您能帮我解除一下疑惑。 `video-subtitle-extractor/backend/main.py`中`_remove_duplicate_subtitle`这个函数里面有两层嵌套循环,i和j。其中i是代表开始帧,j是代表结束帧。这里的疑惑有几个。 1. 为什么当j找到结束位置之后,下次循环的i 仍然是从下一帧开始循环。比如说开始和结束(i,j)分别是(2,10)这两帧,下一次i的循环仍然从3开始,而不是从11开始(因为这里已经判决了2~10这几针都是同一个字幕)。 2.![image](https://github.com/YaoFANGUK/video-subtitle-extractor/assets/32993531/473ec84e-0cc6-4043-aff1-ad0aaad28d68) 如上图,这里替换了前面有可能出错的字幕,那么起始时间不换是不是比较好,否则字幕的时间戳就对不上了。 可能我有一些边界条件没有考虑清楚,还请指导点明,非常感谢。

enhancement

Hi, thanks for your great work, Could you please tell me the version of your SD model as in "/root/workspace/storage/models/orangemix". Thank you very much!