TechVillain

Results 5 comments of TechVillain

> 设备:NVIDIA Geforce RTX 4060 Laptop GPU 运行RVC WebUI的一键训练,发现CPU占用很高而GPU占用为0,我已反复确认我使用的显卡绑定正确 晚江,你的问题可能是出在pytorch上。你有训练时的截屏吗,发给我看一下。 如果你可以更新一下你的个人网站,放上你的微信号,我可以加你的好友,这样你就可以用手机录一小段你训练时报错的视频,然后用微信发给我。

> 这这这... 其实 2GB 显存训练也是可以的,显卡列表那里虽然不会显示但是其实是可以用的,我的 MX150 2GB 低压版就可以跑,但是非常慢罢了... 你的MX150 2GB用来训练,难道不会爆显存吗?系统提示:CUDA Out of Memory,然后训练就终止了,是这样吗?

>`--face_upsample` can be used solely now. @sczhou deserves a Nobel peace prize for this. It changes the human history. Most AI arts today are in high resolution. Being able to...

你指的流式推理是什么? 目前RVC的推理,需要根据VRAM的大小,对目标音频进行切块,切短后,才不会爆显存,导致CUDA Out of Memory。推理结束后,再使用音频软件把切块拼接起来,成为一个完整的长音频。 同样,RVC的训练,一旦爆显存,训练就会终止。

> 流式推理指的是:输入是音频帧, 而不是一个完整的文件。 这个建议非常好。因为目前RVC推理,由于防止爆显存的原因,通常都需要手动对音频进行切块,在推理结束后再手动进行拼接,耗时耗力。 而流式推理,则相当于代码自动指定切片大小,自动切片,推理后自动拼接,节省了用户大量时间,而且永远不会爆显存。 你是否可以测试一下,在你的显存允许下,最大的切块是多少?你随便找一段长音频,切块10分钟一段进行推理,如果爆显存终止,再切到8分钟,6分钟,4分钟... 如此往复,直到不爆显存为止,看一下最大切块量为多大? 这个segment参考值可以用于开发流式推理benchmark的评估。