Stewitch
Stewitch
你可以试试用GPT-Sovits的webui进行音频生成测试,如果官方的webui没问题再进行反馈,这一步是为了检测你的模型配置有无问题,理论上只要webui能正常生成音频放到项目里是能用的
我留了一个测试脚本,也就是 test.py,仅在开发测试的时候保留,等最后如果真的要 merge 了会删掉 附上几张测试时候的截图   
I will try to reproduce this later today. It seems that the multi-speaker problem was caused by a configuration mistake.
在写了在写了,可以先看看看我的分支:https://github.com/Stewitch/Open-LLM-VTuber-Dev MCP相关代码位于 src/open_llm_vtuber/mcp
来吧,初步实现MCP,支持工具调用[Pull Request#185](https://github.com/Open-LLM-VTuber/Open-LLM-VTuber/pull/185)
看起来是API返回的数据格式问题,请确认你的 new-api返回数据的格式 是否与 OpenAI API返回数据的格式 相同或兼容,相关内容一般在api文档中。