CV-deeplearing
CV-deeplearing
> > Maybe you can try to use the docker environment by 'docker pull jiaquanye/tablemaster_mmocr:v1' > > The predict box location is abnormal. Maybe you can check your visualization code....
> 那你用4个关键点就行,人脸用到了5个,你去掉一个就可以了,改动很小 你好,修改成四个关键点训练,你实现了吗?
> @derronqi 大佬你好,就是我是一名大二学生,然后是在中北大学的robomaster战队里负责用神经网络识别装甲板实现自动瞄准,不过就是之前我用yolo系列训练出来的模型最后实际测试时得到的bbox和装甲板的轮廓并不能很好的拟合,导致后续使用pnp进行姿态解算时会有较大误差,所以我想将传统yolo的数据集格式改为用四个角点的归一化坐标,然后我看到了您这个项目,不过我看您的数据集格式里还是包含了传统yolo的归一化后的中心点坐标和w,h,然后我现在的数据集格式是像这样:1 0.673029 0.373564 0.678429 0.426232 0.830433 0.401262 0.824525 0.351212,第一个数字是类别id,后面八个数字是归一化后的装甲板的四个角点坐标,但是我看您的这个仓库里训练是用的wider face数据集,所以我想是得改动dataloader的部分才能训练吗?望大佬解惑 你好,你改为四个关键点的工程实现了吗?
> > > @derronqi 大佬你好,就是我是一名大二学生,然后是在中北大学的robomaster战队里负责用神经网络识别装甲板实现自动瞄准,不过就是之前我用yolo系列训练出来的模型最后实际测试时得到的bbox和装甲板的轮廓并不能很好的拟合,导致后续使用pnp进行姿态解算时会有较大误差,所以我想将传统yolo的数据集格式改为用四个角点的归一化坐标,然后我看到了您这个项目,不过我看您的数据集格式里还是包含了传统yolo的归一化后的中心点坐标和w,h,然后我现在的数据集格式是像这样:1 0.673029 0.373564 0.678429 0.426232 0.830433 0.401262 0.824525 0.351212,第一个数字是类别id,后面八个数字是归一化后的装甲板的四个角点坐标,但是我看您的这个仓库里训练是用的wider face数据集,所以我想是得改动dataloader的部分才能训练吗?望大佬解惑 > > > > > > 你好,你改为四个关键点的工程实现了吗? > > 现在还在写转化数据集格式的脚本,这个搞完了以后应该就能够训练了,但是这个脚本还不是特别清楚怎么写 你训练工程修改好了?关键点先随机取一些值,看能不能跑起来。
> You may need to create a dataset containing the custom classes, and use the detectron2 to fine-tune the TableBank models on it. 你好,从官网上下载了五个文件TableBank.zip.005,怎么解压呀?
> > 请问,如何给定输入是有部分弯曲,给出的输出图片是弯曲矫正后的,且进行了美化和去手写,这个模型是否能够学到输入到输出这些变化? > > 输入图片:  输出图片  用了弯曲矫正和图像增强的结果