Retrieval-based-Voice-Conversion-WebUI
Retrieval-based-Voice-Conversion-WebUI copied to clipboard
能不能出一个教程,教一下怎么看tensorboard,以及如何选择出最好的模型?
- https://github.com/RVC-Project/Retrieval-based-Voice-Conversion-WebUI/issues/1112
这个issue里, @RVC-Boss 提到的
现在就会定期保存(打印+输出日志到train.log)的,通过json文件配置设置定期打印频率 configs/采样率_版本.json里面的log_interval越低打印频率越高 找较好的模型:定期保存小模型,全部跑完后推理测试二分法选择最优epoch
请问一下这个是什么意思呢?我的理解是,用”二分法“,针对所有模型,进行推理,测试,就听实际生成的音频,来对比,选择最好的,是这个意思吗?
- 是否可以通过看tensorboard的一些curve graphs,来快速缩小选择最好模型的范围?
我是一个programmer但nothing about deep learning,youtube和网上找了一些资料来看,大概有个概念,但是还是不太清晰。能不能考虑能出一个教程或者B站做个视频介绍一下呢?
以下是我用chatgpt4所做的探究,如果您考虑做教程的话,或许可以作为问题的参考。 (带图片的conversation is not allowed to share,所以上传图片了)
P.S. 我是自己录音,clone my own voice for song conversion,用的iPhone,如果大佬们能对录音做一下指导,那更好了。
谢谢!