MaxMax2016
MaxMax2016
@GuangChen2016 https://github.com/PlayVoice/vits_chinese/blob/master/models.py#L677~L679 使用with torch.no_grad()冻结的
https://github.com/PlayVoice/vits_chinese/blob/master/train.py#L260
这样的话,蒸馏训练需要很多很多数据才行吧;相当于在蒸馏bert了。
@uloveqian2021 https://github.com/PlayVoice/vits_chinese/blob/master/models.py#L94把这句屏蔽了
BERT的蒸馏是一个可以独立于TTS的过程
不会的,使用teacher的wave encoder&Flow
@suzhenghang 赞,有想法加大胆尝试
应该需要先训练多发音人的student模型,再adapt其他发音人吧。
https://github.com/PlayVoice/vits_chinese/blob/bert_vits/utils.py#L81 https://github.com/PlayVoice/vits_chinese/blob/bert_vits/utils.py#L124 564M 包含的内容有: torch.save( { "model": state_dict, "iteration": iteration, "optimizer": optimizer.state_dict(), "learning_rate": learning_rate, }, checkpoint_path, ) 156M包含的内容只有: torch.save({'model': state_dict}, checkpoint_path)
> 请问学生模型为啥只重用了教师模型的 enc_q 和 flow,而不重用文本编码器呢? 如果只需要减小decoder的参数,可以的啊 > 学生模型的tuning是更适合用同一个数据集的教师模型做transfer,还是更适合用其他学生模型做transfer呢? 这是以同一数据为前提进行的,可能叫法不准确,目的就是用同一数据上训练的大参数模型来训练小参数模型 > 训练学生模型一般多久收敛呀? 至少需要训练500 epochs吧