BOCEAN-FENG
BOCEAN-FENG
用fast inference的分支,那个api调用我记得可以设置语速
我使用过程中也有这种情况,我是1h中文干净人声训练素材,之后生成英文居然有中国口音,我觉得这个真的是太神奇了。。。连这个都学习到了吗
cudnn安了吗,没写到感觉就是没有安装
一键三连一步一步做,另外显卡识别不到这一块,可能是cuda问题,也可能是pytorch版本问题,我自己到ide里面一个一个试,出问题的更新或者换版本才弄好
感谢!很有帮助!
直接找到所有英文+特定标点符号组合,然后切分出好几段不就可以了
建议先到网页版本试一下断句功能看看断的文本是怎么样的
 what?这个很奇怪,其实我自己尝试了一下,首先断句功能是没有问题的,其次我自己也生成了一下语音,也没有什么问题。 哦 我看到了,咱得把“分段间隔”设置长一点,程序是按照我们设定的切分方式把一个长句子切成很多份,然后分开生成,最后合成到一起。你这里首先右上角要选择切分方式,切分完之后还应该在左边推理设置改一下分段间隔
我自己也不敢并发执行,似乎进程间会对显存有抢占,最后报错,不知道这个项目现在的并发功能是否完善?我自己的并发是做了一个线程池然后API调用,但是会报错 @baddogly 请问你是怎么做的?
streaming_mode好像是设置是否流式响应的吧,我看了一下fast_inference的分支,下面正好有个参数 "streaming_mode": false, # bool.(optional) whether to return a streaming response. "parallel_infer": True, # bool.(optional) whether to use parallel inference. 这个parallel_infer应该是设置是否并发的,我自己也去尝试一下🤞