wly2020-robot
wly2020-robot
那就有点不明白你说的模板提取的阈值是哪个?
我跟踪了训练相关代码,在extractTemplate有个变量threshold_sq,是不是你说的模板提取的阈值变量?
你说的-做个简单的腐蚀把mask边缘地方的模板点排除掉,我理解是不是把训练完成之后去做一个腐蚀操作?
你好,在extractTemplate函数下面的一段开始代码: // Want features on the border to distinguish from background Mat local_mask; if (!mask.empty()) { erode(mask, local_mask, Mat(), Point(-1,...
跟踪调试了extractTemplate函数,只发现threshold_sq 和distance_sq阈值,提高这两个变量值,调试没有效果。
跟踪调试了extractTemplate函数,只发现threshold_sq 和distance_sq阈值,提高这两个变量值,调试没有效果。
非常感谢!看了相关连接,都是ICP提速的,ICP能提高角度检测精度吗?大概精度可以达到多少呢?谢谢。
谢谢!我用的是shape_based_matching-icp_refined实例;将函数angle_test中的line2Dup::Detector detector(128, {4, 8})改成line2Dup::Detector detector(128, {8, 16});将 int stride = 16;改成 int stride = 32;将lin2Dup.h中的Detector(int num_features, std::vector T, float weak_thresh = 30.0f, float strong_thresh = 60.0f);改成Detector(int num_features, std::vector T, float...
> 直接在master branch上试了下,把detector num features 30改成200,0度也正常呀。 特征点少是因为num features设置的少吗?
大家好,我是在使用开源的实例shape_based_matching_fusion_by_hand。由于考虑到匹配角度精度问题,我将angle_test(“train”)函数中的一行代码由shapes.angle_step=1改了shapes.angle_step=0.1;测试图片分辨率是:2048*2448; 运行angle_test("test");运行时间由0.087616s提升到0.16139s;请问这是正常的吗?运行速度能优化吗?运行环境:VS2017+OPENCV3.4.9+WIN10.