lymGitHub0123
lymGitHub0123
> 你好,我查看了所有的issue,对于问题1,作者说会在六月之前开放audio2motion的训练代码 对于问题2,我也想了解原因,论文中有一定的篇幅进行解释,但是我并没有深刻的理解 对于问题3,我理解为torso是在head的基础上进行训练的,二者并不是独立分开的,而torso相当于最终训练出的模型 > > 刚接触这个项目不久,如果你有更深刻的理解,欢迎探讨呀 ---------- 感谢你的回复,在这两天学习的过程中,对于问题1我了解到其实这个英文模型,一定层度上也是可以用作中文的,只是效果会差些。 对于问题2和3,期望作者的答复。
>  你好,我想这一段解释了问题2和3,躯干的刚性形变可以一定程度上解决失真的问题 ---- 从这篇论文看的结论看,实际直接使用torso-NeRF的效果会好于使用head-NeRF(毕竟torso是基于head来二次训练的),不知你是否了解若同时指定两个模型 --head_ckpt= --torso_ckpt= 会是怎么样的情况呢
@Net-Maker 请教一下,在该项目训练过程中,建议是有个3min+的视频进行训练。 1、那么这个素材上有什么特殊的要求吗?是尽可能的多说不同的单词文字/展示不同的表情,还是简单的随意说一段3分钟的话? 2、素材视频是否直接拍摄512x512分辨率(含人脸)
@Net-Maker I've encountered several issues during the training process and would like some advice: 1、At the beginning of training, the log shows every single step, for example: 1000 step [02:36,...
> > @Net-Maker I've encountered several issues during the training process and would like some advice: > > 1、At the beginning of training, the log shows every single step, for...