bupt906

Results 4 comments of bupt906

队伍名:bupt906 AI Studio昵称:bupt906 任务类型:工具与应用--提交 功能描述:为PaddleOCR贡献超轻量网络Micronet PR链接:https://github.com/PaddlePaddle/PaddleOCR/pull/5169

队伍名:bupt906 AI Studio昵称:bupt906 任务类型:工具与应用--提交 功能描述:为PaddleOCR贡献OneCycle学习率策略 PR链接:https://github.com/PaddlePaddle/PaddleOCR/pull/5171

> 关于问题2,这个前提是需要动作视频制作为avatar,然后自定义动作json或者在原来的data/custom_config.json中自己加,需要自己找到使用的代码basereal.py:287-294,系统提供了HTTP API接口来触发动作切换,位于 app.py:219-239 。这个set_audiotype端点接收POST请求,包含sessionid、audiotype和reinit参数。在帧处理过程中,系统根据当前状态选择相应的动作视频,相关逻辑位于 basereal.py:328-348 。当检测到静音状态且存在自定义视频时,系统会使用对应audiotype的动作序列。 目前是这么理解的,可以探讨下,我目前的困难点在于,脸型和动作视频的不匹配。欢迎交流 感谢您的回复。 我目前是想在说话的时候有动作。目前在代码中没看到相关处理。basereal.py:328-348只是在禁音时候的动作,我没有这样的需求。

> > > 关于问题2,这个前提是需要动作视频制作为avatar,然后自定义动作json或者在原来的data/custom_config.json中自己加,需要自己找到使用的代码basereal.py:287-294,系统提供了HTTP API接口来触发动作切换,位于 app.py:219-239 。这个set_audiotype端点接收POST请求,包含sessionid、audiotype和reinit参数。在帧处理过程中,系统根据当前状态选择相应的动作视频,相关逻辑位于 basereal.py:328-348 。当检测到静音状态且存在自定义视频时,系统会使用对应audiotype的动作序列。 目前是这么理解的,可以探讨下,我目前的困难点在于,脸型和动作视频的不匹配。欢迎交流 > > > > > > 感谢您的回复。 我目前是想在说话的时候有动作。目前在代码中没看到相关处理。basereal.py:328-348只是在禁音时候的动作,我没有这样的需求。 > > 我也提到 “这个前提是需要动作视频制作为avatar,然后自定义动作json或者在原来的data/custom_config.json中自己加,”这个动作视频也是一个avatar,可以用来驱动说话,就把默认的那个avatar替换掉就可以,这个项目不管你视频内容,只要求正面的面部清晰可识别,所以其他内容都是需要自己提前做,然后按需要切换。目前想要做动作,只能做预制动作,控制面部的同时还要做动作的,目前是需要做骨骼绑定的,但是那又成了3d方向的内容。至少目前开源的数字人还没有看到同时满足 实时性 对口型 做动作的 感谢,受益匪浅。