Ayanaminn
Ayanaminn
感谢,我抽空会研究一下
2小时可能是太长了,导致处理到后面免费分配的显存不够。另外音频过长就很容易出现单句重复的问题。 处理上一个任务之后释放显存我还没找到什么好办法,现在用的是`torch.cuda.empty_cache()`,但是似乎没什么效果
另外调节模型参数可以避免出现单句重复的问题,如果有大量相似的视频可以试着调一个合适自己的参数
是指批量处理吗
感谢PR [#38](https://github.com/Ayanaminn/N46Whisper/pull/38), 加上今天已经改为在faster-whisper的基础上来部署脚本, 应该可以做到批量处理文件而不会遇到资源不够的问题了。
感谢推荐,这个我有空研究一下
ass用文件编辑器打开不就是txt吗? 还是你说的纯文本意思是不带时间轴的?
选择模型的那一步没有执行
很棒~我想支持本地的llm模型会是各类开源ai应用接下来的一个大趋势。比如这个项目https://github.com/openai-translator/openai-translator 也刚刚宣布支持本地模型了,可以做很不错的参考。 本身任务可能不复杂,为用户提供一键式的环境配置是比较麻烦的。 另外我觉得你这个在config里配置参数的步骤可以简单用一个GUI去warp一下,能极大提高应用性。
> > 谢谢,目前我是在想说 怎么弄个简单gui 这个其实有点难 pyqt吧