MioChiu
MioChiu
您好,请教一下关于convert_fbx.py中写入位移的代码 bones[bone_name_from_index[0]].location = Vector((100*trans[1], 100*trans[2], 100*trans[0])) - pelvis_position 这里的顺序为什么是trans[1][2][0]呢?不是按XYZ的顺序吗
hi,最近尝试了一下motioNet,有几个问题想请教一下: 1.关于测试时的IMAGE_WIDTH,这里应该就用图片宽度吗,还是需要最长边? 2.MotioNet论文中最吸引我的是能够相对准确的回归global root position,事实上目前绝大多数3D pose的方法在这方面都比较糟糕。然而我看到测试时有 ` translation[:, :2] = translation[:, :2]*3;translation[:, 2] = translation[:, 2]*1.5 `,这里的scale系数是怎么得到的呢?经验值?在我测试自己的视频时对这个有什么建议吗? 3.演示视频里下面这个视频的global translation看起来效果很好,请问是有做什么其他的操作嘛?靠这个库的代码和模型能做到吗?  4.我自己测试了如下视频,发现效果并不好,动作错误较多,而且global translation基本固定在原地(实际上视频中的人从左走到右有比较明显的位移),我使用evaluate.py的默认设置(IMAGE_WIDTH改为视频的宽度),请问是还需要修改什么才能达到较好的效果呢?还是说我这个视频本身不太符合训练集的分布? 
normalize_to_submean_to_reorder只能对三通道图使用,看了下加减乘除或者convertTo暂时没有实现,请问目前有没有办法实现对灰度图的normalize呢?
您好,如果想要从零开始训练,不使用预训练模型,对于学习率设置您有什么建议吗?