XXXXRT666

Results 17 issues of XXXXRT666

我使用的是最新版本的GPT-Sovits项目与M2 8GB,前几个小时刚进行过git pull,我尝试将config.py 以及 infer_webui.py中的device判断删掉,强行使用device="cpu"进行推理,并将其速度与同版本的MPS推理进行比较。有如下发现: 1. 发现CPU推理python全程内存占用3GB,内存曲线全程绿色,推理速度长时间保持55it/s,GPU推理python内存占用持续稳步上升至14GB,推理速度最高30it/s,时现1-2it/s 2. 使用5s参考音频:“试了一局,发现效果也不错,后面就,会逐渐的去。” 使用8s参考音频:”我的小乔集锦和孙尚香集锦倒是挺多的,最近也在收集这个六破军吕布的素材,说不定能赶在李信集锦之前做出来 。“ 文本1:十三枪,861字 文本2:古诗,337字 均为默认四句一切 使用8s音频时CPU与GPU推理文本1,2均出现了较为严重的参考音频泄漏情况,使用5s音频时均正常。CPU推理与GPU推理结果无太大差别。 请大佬解惑 附上实验结果 最后的时间为推理用时 实验过程CPU GPU占用情况

In follow-up

Using CPU inference on Mac to accelerate inference speed and reduce memory leak

原因:由于MacOS Sonoma支持bf16以及fp16,系统返回`is_half=True`,而CPU推理不支持fp16。#516 解决方法 :将`GPT_SoVITS/inference_webui.py`中的`is_half = eval(os.environ.get("is_half", "True"))`改为 `is_half = eval(os.environ.get("is_half", "True")) and not torch.backends.mps.is_available()`,并在此句上方加一句`import torch` #573

融了点冷月佬 fish audio的audio preprocess进去,在readme和py文件中已注明 支持最小长度与最大长度控制,并支持合并短片段,并自动抛弃三秒以下片段(训练时不会使用) 支持响度匹配,默认打开 更新了所有语言的json,现在GSV的i18n json齐全了

Update README about API README 糕手

I have tried running both inference and batch inference, but it always stuck there, but I can run inference without using refer the index file my python version is 3.9.12...

errors won't occur due to .DS_Store files.

[torch.randint(0, 1, size=(1, ))[0]](https://github.com/RVC-Boss/GPT-SoVITS/blob/0b806dba378340e0592cf7af489694b88cdc222d/GPT_SoVITS/AR/models/utils.py#L212) 改proportion可以控制比例