Y132om
Y132om
> 这个显示数组越界了,应该是detect =检测(config.class_num,0,200,0.5,0.65)这句话最后两个参数修改的原因,因为没有你的具体数据,没法调试判断,应该是0.5这个设置的比较小就不会报错,可以尝试修改为0.01测试一下。 改小了是能够通过的。但是为什么我的目标物没有标注出来,反倒是其他部分标注了一大片。我用的自己做的VOC数据集,1712 864,还有其他的尺寸大小,总之尺寸大于300 300,是由于尺寸太多造成的问题吗?
> 应该不是,voc好多也是大于300 300的,首先看看那还是不是训练拟合了,然后就是看下是不是数据的特征分布是否和imagenet分布较为接近。 是不是没有运行test.py结果都不一样?为什么我每次执行test.py显示的标准框都不一样。每次都不一样?有时候标注好几个无关的物体,有时候又不显示标注框
> 训练好了,结果都一样啊····,你训练好了,然后训练好的模型保存到对应的位置了吗? 模型是没训练完的,每1000个保存一次的模型,我拿出来,试了一下。 大佬加个QQ私聊吧,QQ:840863695
> 训练好了,结果都一样啊····,你训练好了,然后训练好的模型保存到对应的位置了吗? 每1000次,保存一次的模型,也不应该会变 啊,为什么每次运行,标准框都不一样呢
> **classification23_taichi_pic.py**是利用op保存的图片做预测这里读取的文件是[marked_pictrain.txt](https://github.com/wfnian/posture_recognition/blob/master/workspace/dataset/taichi/marked_pictrain.txt) **(这个效果不理想,反应速度慢)** 因此最后分别跑出了loss和acc曲线做对比,仅仅表明理论可行,但由于反应较慢([相较于骨骼坐标的预测](predict_eigenvalue.py)来讲,前者几乎实时预测,而相较于图片的预测就很慢了) > > **classification23_taichi_eigenvalue.py**是利用op提取的骨骼坐标做预测 ,就是通过[getData函数](https://github.com/wfnian/posture_recognition/blob/master/workspace/neural_network/classification23_taichi_eigenvalue.py)读取保存的[数据](https://github.com/wfnian/posture_recognition/blob/master/workspace/dataset/taichi/bone_dataSet.data),这个数据的最后一维度代表太极姿态所属标签类别。 > > 代码整体的思路就是 > > 1. 利用op获取骨骼坐标 > 2. 将骨骼坐标进行处理,什么距离啊,角度啊等使得具有一定的手动提取的特征 > 3. 将骨骼数据接入三层的全连接网络进行拟合训练出结果 > 4. 利用PyQt以及OpenCV搭建界面,实时预测。 > > 以上是主要的思路,随着项目的进行,需要采集数据,于是就演化出了[采集系统](https://github.com/wfnian/posture_recognition/tree/master/workspace/data_collection)。再接着发现op可以保存仅带有骨骼线条的图片,类似于下面的: > > 参考手写数字识别以及fashion_mnist的数据源,搭建了平行于基于特征值的卷积网络,也就是您的问题**classification23_taichi_pic.py和predict_pic.py**,而这个不是核心。...