spicysama
spicysama
这是示例,支持流式或非流式合成:  代码已pr
@unlimit999 抱歉,我需要优先保证官方适配,先删除,你可以补充在我后面。 不用fastapi, 用官方自带的kui,待会放上示例 首先打开`API_FLAGS.txt`, 修改成如下图所示:  然后点击`start.bat`运行API服务  之后打开电脑的网络设置  查询IP地址  然后打开“开源阅读”APP,根据上述IP填写信息如下即可开始朗读。具体参数一会儿附上: 
经过测试,是没问题的,要对api.py进行一些修改,详情请见最新PR。
 `Content-Type`改成`audio/wav`
使用参考音频和文本时,需要做如下步骤: 0. 更新代码。 1. 项目根目录下创建一个`ref_data`文件夹,然后创建一些角色名命名的文件夹  2. 给音频的情绪分好类,放到不同的情绪命名的子文件夹中。要求同时有`.lab`标注文件和`.wav`音频文件。  3. 点击`run_cmd.bat`, 输入 ```python python tools\gen_ref.py ``` 这会产生一个`ref_data.json`文件,里面存放的是用到的音频和标注路径。 4. 将`API_FLAGS.txt`设置如下:  5. 点击`start.bat`运行api服务器。 6. 回到开源阅读,配置如下: 配置说明:跟第1步的配置有关。声源:胡桃,情绪:happy。效果:随机选择happy文件夹下的一条音频作为参考。  7. 阅读,启动 
> probably not because i try to run with the compile flag : python [tools/run_webui.py](http://tools/run_webui.py) --llama-checkpoint-path checkpoints/fish-speech-1.5 --decoder-checkpoint-path checkpoints/fish-speech-1.5/firefly-gan-vq-fsq-8x1024-21hz-generator.pth --compile > > ## I get the error : > 2024-12-14...
更新代码后就可以了
用webui的情况:LLAMA配置页取消勾选"使用LoRA". 用命令行的情况: 不加+lora那个参数
> > 用webui的情况:LLAMA配置页取消勾选"使用LoRA". 用命令行的情况: 不加+lora那个参数 > > 1.2版本, WEBUI 的LLAMA配置页不可以取消勾选"使用LORA" 现在git pull之后就行,你试试
先用tools\extract_model.py提取出不含优化器的模型: ```bash python tools\extract_model.py {*.ckpt路径} {model.pth} ``` 然后复制一份checkpoints/fish-speech-1.2-sft,也放在checkpoints下,这个文件夹改名为 `fs-1.2-ft-{随便取名}`, 拿刚才的model.pth替换里面的model.pth。最后,在webui中选择之。