centerX
centerX copied to clipboard
This repo is implemented based on detectron2 and centernet
issues
Traceback (most recent call last): File "train_net.py", line 66, in args=(args,), File "/home/cc631/anaconda3/envs/pytorch1.7/lib/python3.7/site-packages/detectron2/engine/launch.py", line 82, in launch main_func(*args) File "train_net.py", line 52, in main trainer = Trainer(cfg) File "/home/cc631/hailong/code/Dilated-FPN/centerX/engine/defaults.py", line...
@CPFLAME 大佬你好,就是我是一名大二学生,然后是在中北大学的robomaster战队里负责用神经网络识别装甲板实现自动瞄准,不过就是之前我用yolo系列训练出来的模型最后实际测试时得到的bbox和装甲板的轮廓并不能很好的拟合,导致后续使用pnp进行姿态解算时会有较大误差,所以我想将传统yolo的数据集格式改为用四个角点的归一化坐标,现在的数据集格式是像这样:1 0.673029 0.373564 0.678429 0.426232 0.830433 0.401262 0.824525 0.351212,第一个数字是类别id,后面八个数字是归一化后的装甲板的四个角点坐标,之前我使用yolov5-face已经训练出来一个可以直接定位装甲板四个角点的模型,效果如下:  然后之前也一直想尝试用centernet系列的模型来实现检测,但是由于准备比赛一直没有什么时间就没有搞,我是在您知乎的文章里看到了centerx的介绍,您的讲解方式非常有意思,而且centernet不需要后处理这一点实在太吸引我,因为之前yolo系模型转化成trt或者openvino后部署时的后处理实在写的我很烦,而且还耗时,所以我想试试用centerx实现直接对装甲板角点回归,也就是支持keypoints,我知道应该需要修改dataloader,head以及keypoints的loss,但是之前是在yolox上搞过,然后当时还在cls那个头上多搞了个1x1conv单独输出颜色类别,也就是把颜色和数字id类别解藕了,但是改完之后训练一直有些问题,所以这次我想请教一下您具体需要修改的部分,然后注意哪些东西,希望大佬能不吝赐教!
老哥您好,您知道这是什么问题吗
有看到centernet有一个centerpose,这个如果有想做成姿态估计人体关键点检测的话要从哪方面入手呢
训练问题
您好,我用centerx训练自己的模型时ap一直是0,请问您知道是什么原因吗? 
ttf supported?
首先非常感谢作者的工作,知乎的那篇中国特色CenterNet也写得非常有趣。 但是当我在自己的数据集上复现这个工程,想要用inference/demo.py来跑推理的时候,遇到了点小问题,输出的图片上始终没有框。 我尝试检查了下results这个变量,cls,bbox,scores其实并没有什么问题。 然后我发现在inference/demo.py中有这样一段: ```Python for c,(x1,y1,x2,y2),s in zip(cls,bbox,scores): if c != 0.0 or s < 0.35: continue ``` 其中c对应类别,一般定义0.0为背景吧?但是这里的逻辑是,如果不是背景则跳过输出框的循环,这样岂不是永远输出不了目标的框了? 将其改成 : `if c == 0.0 or s < 0.35:`...
你好,请问有没有coco或者crowd human的权重模型,或者其他可以初始化用的权重?
我把检测头输出改为中心点预测和ltrb的形式,用centernet原版的loss函数没问题,但是使用Gfocal就loss变成负数,可以一起研究一下吗