Arkitect-z

Results 4 issues of Arkitect-z

非常棒的工作! 我正在拼命学习你们的研究并且尝试将其应用于实际领域。 我想问的是, 1. output文件夹下的'input_2D'文件夹内是否已经是3D 人体姿势估计的结果(也就是你们论文中所描述的主要工作生成的结果)?因为我想将其用在优化虚拟人物动作中。 2. 目前使用的是略显“古老”的YOLOv3和体积很大的HRNet来工作,是否有可能将其换成新的YOLOv7和Lite-HRNet,以加快识别姿态的速度,并最终实现实时识别和多目标同时识别? 如果可行的话,能否给我讲一下修改方法?例如如何生成“ YOLOv7.weights”文件,以及能否直接在github仓库中下载Lite-HRNet来替换使用? 请原谅我作为一个cv领域的初学者可能提问过于小白,感谢您的耐心 Great Great Job! I'm trying my best to study your research and try to apply it in real world....

### Problem Description 如图所示,行内代码背景色为黑色,注释为灰色,导致注释的内容看不清 ### Solution Description 提高注释字体颜色的亮度或对比度 ### Alternatives Considered _No response_ ### Additional Context _No response_

enhancement

There are many **npy to bvh** scripts that support **Human3.6M** skeleton, [https://github.com/HW140701/VideoTo3dPoseAndBvh](url) but there is no support for **HumanML3D** yet, so it is difficult to apply the motion results generated...

Hi, I found a typo in: [ltr/data/transforms.py](https://github.com/visionml/pytracking/blob/1f3c31e06aae6ffaae993f546cc8f103f9017ea9/ltr/data/transforms.py#L198), in line 198 the func name "transform_mask" was written as "transfrom_mask".