openpose怎么剥离背景只保留骨骼点图片
你好,我又看了你的论文,我之前也有想过用生成骨骼点的图片送进cnn进行训练,但是我只能得到生成含有包含背景的人物的图片,但是不知道怎么操作用open pose,用它那个demo只是输出关键点的json文件和上面我说的图片,我想要那个你论文中只有骨骼点的黑背景的图片,望解答,谢谢
关于只保留骨骼点的图片是一个涉及到参数设置的问题
# =============================参数args 设置====================================
# 详细参考flags.hpp 文件
params = dict()
params["camera"] = 1
params["model_folder"] = "/home/wfnian/OPENPOSE/openpose/models"
# 根据实际情况路径做相应改变
params["number_people_max"] = 1 # 只检测一个人
params["camera_resolution"] = "640x360"
params["disable_blending"] = True
params["render_threshold"] = 0.001
opWrapper = op.WrapperPython()
opWrapper.configure(params)
opWrapper.start()
# ==============================================================================
起主要作用的是这一句:
params["disable_blending"] = True
在flags.hpp中有如下解释:
DEFINE_bool(disable_blending, false, "If enabled, it will render the results (keypoint skeletons or heatmaps) on a black" " background, instead of being rendered into the original image. Related: part_to_show," " alpha_pose, and alpha_pose.");
这里是op官网所给出的所有flags,有兴趣可以一个一个试试
希望能帮助您!
哇。多谢解决了,感谢
非常感谢,我有得到那个骨骼图,我是做手语识别,然后现在在用openpose提取的关键点坐标来分类嘛,你的论文我有看,我刚开始以为你这个是连续的动作,因为我这个是连续的动作视频做分类,我也提取过关节的距离和角度作为特征融合坐标特征,提升不明显,我发现你不用相邻关键点的距离和角度,而且你说相邻的距离是不变的,但是我发现是变得根据坐标来计算的话,还有一点我想问你,我用那个没有背景的骨骼图用CNN来做分类你觉得靠谱吗?因为我以前试过CNN+LSTM的方式对视频做分类但是结果很差,可能是手语的动作基本上都集中在手部,而且背景干扰过大,CNN很难提取到关键特征,如果你有时间能不能回复我一下,不回复也没关系,感谢!
------------------ 原始邮件 ------------------ 发件人: "王方年"<[email protected]>; 发送时间: 2019年12月29日(星期天) 中午12:19 收件人: "wfnian/posture_recognition"<[email protected]>; 抄送: "波罗丝"<[email protected]>;"Author"<[email protected]>; 主题: Re: [wfnian/posture_recognition] openpose怎么剥离背景只保留骨骼点图片 (#7)
这里是代码
关于只保留骨骼点的图片是一个涉及到参数设置的问题
=============================参数args 设置==================================== # 详细参考flags.hpp 文件 params = dict() params["camera"] = 1 params["model_folder"] = "/home/wfnian/OPENPOSE/openpose/models" # 根据实际情况路径做相应改变 params["number_people_max"] = 1 # 只检测一个人 params["camera_resolution"] = "640x360" params["disable_blending"] = True params["render_threshold"] = 0.001 opWrapper = op.WrapperPython() opWrapper.configure(params) opWrapper.start() # ==============================================================================
起主要作用的是这一句: params["disable_blending"] = True 在flags.hpp中有如下解释: DEFINE_bool(disable_blending, false, "If enabled, it will render the results (keypoint skeletons or heatmaps) on a black" " background, instead of being rendered into the original image. Related: part_to_show," " alpha_pose, and alpha_pose.");
这里是op官网所给出的所有flags,有兴趣可以一个一个试试
希望能帮助您!
— You are receiving this because you authored the thread. Reply to this email directly, view it on GitHub, or unsubscribe.
- 关于你说的连续动作我没太明白,我的是基于实时摄像头的实时预测,也就是摄像头前面有什么预测什么。
- 相邻距离不变,我是指比如说手腕和胳膊肘这两个距离,不管你是什么动作,他们之间的距离不会变的,但是手腕和肩膀之间的距离不同的动作肯定不同啊,在你的手势识别中,中指的第一个关节到第二个关节之间的距离肯定是不变的,但是中指指尖到拇指指尖之间的距离是随着手势变化的。我有个同学也做的是手势识别来获取指令,套的就是我这一套,据他说效果还很好。
- CNN这个,我觉得只有数据量大,类别少,参照fashion_mnist这个分类我觉得(只是我觉得)应该会好些。 希望以上能有所帮助,毕竟我是菜鸟。:octocat:
连续动作我最近也碰到了相关的需求,不知到是否一样
比如说_八段锦_第二个招式:左右开弓似射雕,这个招式是由四个到五个动作组成,要识别出来这个招式,需要识别出来这几个动作而且顺序要对。
识别到还好,顺序处理没有很好的思路,有碰到的可以讨论。
@pandaxue 博主,你问题咋解决,我现在也遇到这个困境了,能否回复我一下,感谢