heyyyyou

Results 18 comments of heyyyyou

> > > > > > 关于问题2,这个前提是需要动作视频制作为avatar,然后自定义动作json或者在原来的data/custom_config.json中自己加,需要自己找到使用的代码basereal.py:287-294,系统提供了HTTP API接口来触发动作切换,位于 app.py:219-239 。这个set_audiotype端点接收POST请求,包含sessionid、audiotype和reinit参数。在帧处理过程中,系统根据当前状态选择相应的动作视频,相关逻辑位于 basereal.py:328-348 。当检测到静音状态且存在自定义视频时,系统会使用对应audiotype的动作序列。 目前是这么理解的,可以探讨下,我目前的困难点在于,脸型和动作视频的不匹配。欢迎交流 > > > > > > > > > > > > > > > 感谢您的回复。 我目前是想在说话的时候有动作。目前在代码中没看到相关处理。basereal.py:328-348只是在禁音时候的动作,我没有这样的需求。...

在lipreal.py的inference函数中,系统的处理流程是这样的: lipreal.py:114-182 这个方法从音频特征队列(audio_feat_queue)获取数据,进行Wav2Lip模型推理,然后将结果放入结果帧队列(res_frame_queue), stopSpeaking在推理完成但未放入队列前进行控制实现了立即打断,好的思路。

只要你的内存足够大,多线程启动对应的数字人,然后自己写对应页面切换就行了

没理解,现在不是可以在不同窗口中访问html吗 这不就是共用吗,没遇到不允许多个窗口访问的问题,或许你设置下--max_session试试?

> 好奇怪的请求,多个共用那不串了吗,这个问个问题,正回答呢,另一个那就开始播放了 不同sessionid应该不会串,有隔离机制的

asr本地内置做好的,要改的话需要去改代码应该,我一直用的项目中内置的。浏览器不能语音输入看看是不是浏览器安全限制了麦克风访问。

webrtc的问题好像是,你使用的高清视频形象吗,传输跟不上一开始就会糊且马赛克,如果是这个问题的话,外网访问你打开stun试试,要是还不行试试修改aiortc源码中的初始和最大码率

流程是先识别为3d模型再渲染,视频肯定是3d数字人的.或许你需要更详细的描述下你的问题和需求