EMO
EMO copied to clipboard
可以看看我们的demo
我们的虚拟人也在开发中,用了不同的合成路径,能达到实时合成,实现全身控制 演示页面: http://smartcan-stf-fullbody-female-2-1.smartcan-service.1997894777848128.cn-beijing.fc.devsapp.net http://smartcan-stf-lvmu-1.smartcan-service.1997894777848128.cn-beijing.fc.devsapp.net http://smartcan-zzx-zhaolei-a3-1.smartcan-service.1997894777848128.cn-beijing.fc.devsapp.net
注意第一次打开网页是冷启动, 需要等一段时间。。。
联系我们:[email protected]
非常棒的工作,但抖动的稍微有点厉害
厉害
非常棒的工作,但抖动的稍微有点厉害
正在使用diffusion重跑,原始模型是transformer直给 目前发现可能是latent的标准化做的有问题,持续优化中
感觉耗时还是比较久的?看着像wav2lip + 视频源的方式推理实现的
感觉耗时还是比较久的?看着像wav2lip + 视频源的方式推理实现的
确实不是用的换嘴,可以看这个地址 http://smartcan-zzx-zhaolei-a3-1.smartcan-service.1997894777848128.cn-beijing.fc.devsapp.net/ 会发现手部的动作和声音是一致的
耗时长是因为用的阿里云的gpu服务,本地可以做到实时
感觉耗时还是比较久的?看着像wav2lip + 视频源的方式推理实现的
确实不是用的换嘴,可以看这个地址 http://smartcan-zzx-zhaolei-a3-1.smartcan-service.1997894777848128.cn-beijing.fc.devsapp.net/ 会发现手部的动作和声音是一致的
耗时长是因为用的阿里云的gpu服务,本地可以做到实时
这个是怎么实现的呢?有论文吗?
这个可以上传图片用做驱动的人物吗?还是只能使用固定模版的人物
感觉耗时还是比较久的?看着像wav2lip + 视频源的方式推理实现的
确实不是用的换嘴,可以看这个地址 http://smartcan-zzx-zhaolei-a3-1.smartcan-service.1997894777848128.cn-beijing.fc.devsapp.net/ 会发现手部的动作和声音是一致的 耗时长是因为用的阿里云的gpu服务,本地可以做到实时
这个是怎么实现的呢?有论文吗?
这个是我们的原创方法,跑了快三年的模型。。。如果未来没有变现的可能的话我们会先发论文然后开源,让大家共同改进,还请理解。
这个可以上传图片用做驱动的人物吗?还是只能使用固定模版的人物
现在还不行,受算力限制现在只能是一个人物一个模型,用半个小时的手机视频训练就可以了
不错不错,很好的工作。
nice job
well done