AragakiYui_Lover
AragakiYui_Lover
你是想源码运行吗?如果你有前端项目的基础,可以参考官方的文档。[开发与部署指南](https://doc.fastai.site/docs/development/intro/#4-%e5%88%9d%e5%a7%8b%e9%85%8d%e7%bd%ae) 我看你node用的[email protected],我node版本用的18.12.0,或者你试试降级node版本
@lipku 哥哥,能指点一二吗?求求了 
降级到 v0.3.7.1就正常了
> 除了multiprocessing中的队列,其他tts和asr的队列都清空了,可是每次发送打断命令还是会有延迟 给你一个我的个人建议,你不妨看看具体ASR的子类,比如musetalke模型使用的是`MuseASR`类,内部有个 `run_step` 函数,这个函数的大概作用就是处理音频,使用musetalk为生成后续的视频,只要在这里打断处理音频,应该就可以降低延迟。 我个人体感延迟低了很多 我的做法是在 `BaseReal`里新增了一个布尔变量`interrupt_audio`,默认为`False`,修改`flush_talke`函数: ```python def flush_talk(self): # 新增的 self.interrupt_audio = True # 框架源码 self.tts.flush_talk() self.asr.flush_talk() ``` _但是要在`put_msg_txt`,`put_audio_frame`,`put_audio_file`这三个函数中把`interrupt_audio `重新设置成`False`_ 回到`MuseASR`类的 `run_step` 函数中: ```python if self.parent.interrupt_audio: #...
> > > 除了multiprocessing中的队列,其他tts和asr的队列都清空了,可是每次发送打断命令还是会有延迟 > > > > > > 给你一个我的个人建议,你不妨看看具体ASR的子类,比如musetalke模型使用的是`MuseASR`类,内部有个 `run_step` 函数,这个函数的大概作用就是处理音频,使用musetalk为生成后续的视频,只要在这里打断处理音频,应该就可以降低延迟。 > > 我个人体感延迟低了很多 > > 我的做法是在 `BaseReal`里新增了一个布尔变量`interrupt_audio`,默认为`False`,修改`flush_talke`函数: > > ``` > > def flush_talk(self): > > #...