Wan Youwen

Results 22 comments of Wan Youwen

// 1.不加 --gpu=x,x,x,x,x 选项 // 2.使用--gpu=all 选项 如果计算机无CUDA设备,则设置为无GPU模式,仅使用CPU void Quantization::SetGpu() { // Parse GPU ids or use all available devices vector gpus; if (gpus_ == "all") { int count =...

你的ROI是一个20*20的图像吗? 1. 如果是图像的话。 a. 传统的方法应该就是对视频中的每一帧进行滑动窗口匹配, 匹配度反映视频帧的数据有效性,选择匹配度低的帧进行剔除。 这个opencv应该可以做。 b. 深度学习的方式应该就是实现使用你的ROI图像训练一个目标检测器, 然后对每一帧进行目标检测,如果检测到ROI区域的类别,则保留该帧,否则剔除。 这个 如果不想用深度学习框架实习的话, opencv 中的级联分类检测器 应该也可以做。 2. 如果ROI是一小段视频的话,我觉的可以考虑采用视频行为识别的方式。

你的意思是,在传输视频流时,不仅要剔除信息量少的帧,而且在传输包含想要的ROI的帧时,也不是传输这一帧的全部内容,而是只传输检测出来的包含ROI的部分? 要是这样的话,需要把检测出来的2D框单独提取出来(OPENCV就很好实现)作为一个新的图像,再进行传输。

这个是语义动态建图 https://github.com/Ewenwan/ORB_SLAM2_SSD_Semantic/tree/master/perfect 将原版的ORB_SLAM2下的几个文件夹下的文件替换为 这里的,然后按原版的步骤编译

这里的目标检测是使用腾讯的ncnn库运行的。 使用ncnn动态链接库编译, 独立运行。 ncnn/include 头文件目录 ncnn/lib 库文件 libncnn.a,在ncnn源码下 sudo make install 产生。 将编译好的 libncnn.a 放在 usr/lib下。 首页有目标检测参考链接。

可以的,不过 CMakeLists.txt 要改一改。 另外需要修改ty相机使用的示例https://github.com/Ewenwan/ORB_SLAM2_SSD_Semantic/blob/master/perfect/Examples/RGB-D/my_rgbd.cc

也可以,我项目里面是直接把获取的图像数据给slam系统,也可以使用话题消息发送过去,你说的那两个传感器ros下也方便

detector 里面有个地方需要确定图像格式,RGB还是BGR。你可以先测试一下ncnn库能不能正常运行。 传感器节点能正常运行的话,应该不是传感器的问题,另外你可以试试用TMU的数据集能不能正常运行。

语义建图部分暂时支持 RGBD相机哦。 由于需要结合 深度图 和目标检测结果来获取 3D目标信息。 如果用单目相机的话,可以试试 YOLO6D / SSD6D 直接根据 单张RGB图像 预测 目标3D框

目标检测模型地址改了吗 https://github.com/Ewenwan/ORB_SLAM2_SSD_Semantic/blob/master/perfect/src/Detector.cc 如果单独测试目标检测的话,可以直接测试ncnn库是否可以正常使用。