CV-deeplearing

Results 6 comments of CV-deeplearing

> 那你用4个关键点就行,人脸用到了5个,你去掉一个就可以了,改动很小 你好,修改成四个关键点训练,你实现了吗?

> @derronqi 大佬你好,就是我是一名大二学生,然后是在中北大学的robomaster战队里负责用神经网络识别装甲板实现自动瞄准,不过就是之前我用yolo系列训练出来的模型最后实际测试时得到的bbox和装甲板的轮廓并不能很好的拟合,导致后续使用pnp进行姿态解算时会有较大误差,所以我想将传统yolo的数据集格式改为用四个角点的归一化坐标,然后我看到了您这个项目,不过我看您的数据集格式里还是包含了传统yolo的归一化后的中心点坐标和w,h,然后我现在的数据集格式是像这样:1 0.673029 0.373564 0.678429 0.426232 0.830433 0.401262 0.824525 0.351212,第一个数字是类别id,后面八个数字是归一化后的装甲板的四个角点坐标,但是我看您的这个仓库里训练是用的wider face数据集,所以我想是得改动dataloader的部分才能训练吗?望大佬解惑 你好,你改为四个关键点的工程实现了吗?

> > > @derronqi 大佬你好,就是我是一名大二学生,然后是在中北大学的robomaster战队里负责用神经网络识别装甲板实现自动瞄准,不过就是之前我用yolo系列训练出来的模型最后实际测试时得到的bbox和装甲板的轮廓并不能很好的拟合,导致后续使用pnp进行姿态解算时会有较大误差,所以我想将传统yolo的数据集格式改为用四个角点的归一化坐标,然后我看到了您这个项目,不过我看您的数据集格式里还是包含了传统yolo的归一化后的中心点坐标和w,h,然后我现在的数据集格式是像这样:1 0.673029 0.373564 0.678429 0.426232 0.830433 0.401262 0.824525 0.351212,第一个数字是类别id,后面八个数字是归一化后的装甲板的四个角点坐标,但是我看您的这个仓库里训练是用的wider face数据集,所以我想是得改动dataloader的部分才能训练吗?望大佬解惑 > > > > > > 你好,你改为四个关键点的工程实现了吗? > > 现在还在写转化数据集格式的脚本,这个搞完了以后应该就能够训练了,但是这个脚本还不是特别清楚怎么写 你训练工程修改好了?关键点先随机取一些值,看能不能跑起来。

> You may need to create a dataset containing the custom classes, and use the detectron2 to fine-tune the TableBank models on it. 你好,从官网上下载了五个文件TableBank.zip.005,怎么解压呀?

> > 请问,如何给定输入是有部分弯曲,给出的输出图片是弯曲矫正后的,且进行了美化和去手写,这个模型是否能够学到输入到输出这些变化? > > 输入图片: ![file000_5](https://private-user-images.githubusercontent.com/36984088/376176108-674f3783-4a22-4417-b705-46200eaaf29e.jpg?jwt=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJnaXRodWIuY29tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3MzIwODM0ODcsIm5iZiI6MTczMjA4MzE4NywicGF0aCI6Ii8zNjk4NDA4OC8zNzYxNzYxMDgtNjc0ZjM3ODMtNGEyMi00NDE3LWI3MDUtNDYyMDBlYWFmMjllLmpwZz9YLUFtei1BbGdvcml0aG09QVdTNC1ITUFDLVNIQTI1NiZYLUFtei1DcmVkZW50aWFsPUFLSUFWQ09EWUxTQTUzUFFLNFpBJTJGMjAyNDExMjAlMkZ1cy1lYXN0LTElMkZzMyUyRmF3czRfcmVxdWVzdCZYLUFtei1EYXRlPTIwMjQxMTIwVDA2MTMwN1omWC1BbXotRXhwaXJlcz0zMDAmWC1BbXotU2lnbmF0dXJlPTAzZTAwZDk5YmViMTU5YmYzY2UxOGE4ZjhiYzI2MjU5M2Y0YjY5NGRlNDI0ZWM3YWFkNGY4MDQxZDRjN2EyMTUmWC1BbXotU2lnbmVkSGVhZGVycz1ob3N0In0.yYcVlBBfdgLNfu7uRIdg7Gn6WVEzwAd9loWdbCeD9aI) 输出图片 ![file000_5](https://private-user-images.githubusercontent.com/36984088/376176215-e5cf27c8-dae3-49ee-8217-e685a322fb03.png?jwt=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJnaXRodWIuY29tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3MzIwODM0ODcsIm5iZiI6MTczMjA4MzE4NywicGF0aCI6Ii8zNjk4NDA4OC8zNzYxNzYyMTUtZTVjZjI3YzgtZGFlMy00OWVlLTgyMTctZTY4NWEzMjJmYjAzLnBuZz9YLUFtei1BbGdvcml0aG09QVdTNC1ITUFDLVNIQTI1NiZYLUFtei1DcmVkZW50aWFsPUFLSUFWQ09EWUxTQTUzUFFLNFpBJTJGMjAyNDExMjAlMkZ1cy1lYXN0LTElMkZzMyUyRmF3czRfcmVxdWVzdCZYLUFtei1EYXRlPTIwMjQxMTIwVDA2MTMwN1omWC1BbXotRXhwaXJlcz0zMDAmWC1BbXotU2lnbmF0dXJlPTBiNGJkMWQ4NGZjODBiODU4NzI0MWFmNTc1MjBmNjdhMWM5ZjM5MDYzNWVmMjVmMjQ0ZGQxYTdlMGY2NTBiMTkmWC1BbXotU2lnbmVkSGVhZGVycz1ob3N0In0.zEa-Z0rzkgjCt7yA-bZlaC7Zz5s5lHFmW9-7W7EMaUg) 用了弯曲矫正和图像增强的结果