XXXXRT666
XXXXRT666
需要下载asr模型,uvr5模型和预训练模型后才可完全离线运行
比较困难,建议放弃
> 另外我想请教一个问题,就是我在使用python -m venv venv,把虚拟环境移到其他电脑会因为没有安装python报错,整合包的runtime是怎么做到把python一起打包进去的,是使用的conda吗 如果你使用你电脑上的python,venv会指向电脑上的python,runtime使用的是python embeddable版本
> > 另外我想请教一个问题,就是我在使用python -m venv venv,把虚拟环境移到其他电脑会因为没有安装python报错,整合包的runtime是怎么做到把python一起打包进去的,是使用的conda吗 > > 如果你使用你电脑上的python,venv会指向电脑上的python,runtime使用的是python embeddable版本 使用conda和整合包runtime的话,有几个runtime/虚拟环境就有几个python,venv我记得只有一个
令:可以通过安装pytorch nightly版本解决,在测试版中pytorch已支持M系列芯片CPU的fp16以及bf16运算
> 令:可以通过安装pytorch nightly版本解决,在测试版中pytorch已支持M系列芯片CPU的fp16以及bf16运算 经测试,CPU半精度推理速度极慢,建议直接改代码
在进行长文本推理时,如果选择不切分,那么长一点的会报错,短一点的长文本会漏句,复读,吞字,现在可以无脑选择4句一切
切句后bert以及GPT均有self- attention机制
附上推理用的文本 [十三枪.txt](https://github.com/RVC-Boss/GPT-SoVITS/files/14320360/default.txt) [古诗.txt](https://github.com/RVC-Boss/GPT-SoVITS/files/14320362/default.txt)
不是,我GPT和Sovits模型都是用大概2个小时的人工标注文本微调过的,在换参考音频之后确实就没有泄漏了,只是用一个模型mac的CPU跑的比autodl上3090还快,觉得挺奇怪的,来问问。 我刚试了下另一个数据集更小的模型,也是相同结果。但这些模型均为GPT-Sovits一月中下旬版本炼制,同模型在4090上推理速度为90it/s,若mac cpu推理速度更快为普遍现象,说不定可以在判断中将device设置成cpu进行加速。