ben0oil1
ben0oil1
> 我用的fast_inferenc分支的推理,用threading开8个线程 调用TTS的run方法生成语音,显卡只用了30%,但是推理速度比单个线程推理下降了很多。 会不会多线程只是对CPU资源的调度,而CPU子线程调用gpu资源还是同一个CUDA实例,没有起到什么实际意义
> 我想用这个读小说听,但是一部小说有几百万字。 webui生成的时候好像是输入多长的文字就生成多长。 这个能用命令行或者其他方式,逐行生成语音吗? 你也可以根据句号、字数分割开调用[get_tts_wav](https://github.com/RVC-Boss/GPT-SoVITS/blob/6ccfd362e98390a92775fc134e04b66ac05b705e/api.py#L357)函数
> Generative Pre-Trained Transformer 看这个解释,专业术语字母缩写!生成式预训练Transformer模型。
有个骚操作。 你用asr把你录制好的内容转化成文本; 然后用这个项目训练一个声音模型,然后用上一步生成的文本进行再一次的合成,并使用你自己录好的音频作为参考音频。 当然,鉴于本项目目前的合成结果吞字的质量问题,这个显然是有点夸张了,就是个脑洞 你应该考虑一下变声器相关的项目。
有点不太理解你的意思,并发是指web请求的并发?如果是这个涵义,那不存在是否支持的概念,只是并发的高低而已。 如果是说能多线程并行推理,那这个问题通常是受限于GPU的算力,推理核心代码是[get_tts_wav](https://github.com/RVC-Boss/GPT-SoVITS/blob/6da486c15d09e3d99fa42c5e560aaac56b6b4ce1/GPT_SoVITS/inference_webui.py#L309)这个函数, API接口只是提供了一个接受参数,然后返回结果的功能。如果要公网部署,或者可以用nginx转发一下,nginx的负载均衡和后端的弹性部署,或者能解决你的问题。 再者,这个项目讨论的是音频合成技术,可能只提供核心就是项目的边界,不认为项目需要考虑诸如并发的问题。(个人看法
这个响应没问题啊。正常调用即可。 404是浏览器请求icon的错误返回。 api的调用方法在文件里面有写的清楚: [原文在此](https://github.com/RVC-Boss/GPT-SoVITS/blob/f9c9e873696d348bb571353cc99ca8d5aa347dca/api.py#L1) # api.py usage ` python api.py -dr "123.wav" -dt "一二三。" -dl "zh" ` ## 执行参数: `-s` - `SoVITS模型路径, 可在 config.py 中指定` `-g` - `GPT模型路径, 可在 config.py...
你有指定启动服务的时候使用GPU推理吗?