如何获取何时开始说话,何时结束说话?
目前webrtc是一直持续推流,无法获取数字人是什么时候开始说话和结束说话的
有同样的问题
baseasr.py定义
nerfasr.py
nerfreal.py > render
最后写个接口判断就可以了
baseasr.py 定义
nerfasr.py
nerfreal.py > render
最后写个接口就可以判断了
你好,我按照你这个写的,我发现get_audio_frame 这个方法已经被注释了,我放开了之后,请求接口报错'LipASR' object has no attribute 'speaking'
baseasr.py 定义
nerfasr.py
nerfreal.py > render
最后写个接口就可以判断了
你好,我按照你这个写的,我发现get_audio_frame 这个方法已经被注释了,我放开了之后,请求接口报错'LipASR' object has no attribute 'speaking'
自己在asr.py定义一个get_audio_frame 不就行了撒
baseasr.py 定义
nerfasr.py
nerfreal.py > render
最后写个接口就可以判断了
你好,我按照你这个写的,我发现get_audio_frame 这个方法已经被注释了,我放开了之后,请求接口报错'LipASR' object has no attribute 'speaking'
自己在asr.py定义一个get_audio_frame 不就行了撒
感谢,我研究一下了,作者大大已经写了一个is_speaking 请求,稍微改改就可以用了,谢谢你。
nerfreal.py > render
最后写个接口就可以判断了 