DeepTecher

Results 42 issues of DeepTecher

[From Coarse to Fine: Robust Hierarchical Localization at Large Scale](https://arxiv.org/abs/1812.03506),定位 提交日期:2019-04-08 团队: 苏黎世联邦理工学院ASL(Autonomous Systems Lab)、Sevensense Robotics AG 作者:Paul-Edouard Sarlin, Cesar Cadena, Roland Siegwart, Marcin Dymczyk 摘要:强大而准确的视觉定位是众多应用的基本功能,例如自动驾驶,移动机器人或增强现实。然而,它仍然是一项具有挑战性的任务,特别是对于大规模环境和存在显着的外观变化。SOTA不仅会遇到这种情况,而且对于某些实时应用来说往往资源过于密集。在本文中,我们提出HF-Net,一种基于单片CNN的分层定位方法,同时预测局部特征和全局描述符,以实现准确的6-DoF定位。我们利用粗到精的定位范例:我们首先执行全局检索以获得位置假设,然后才匹配这些候选位置内的局部特征。这种分层方法可以节省大量的运行时间,使我们的系统适合实时操作。通过利用学习的描述符,我们的方法在大范围的外观变化中实现了显着的定位稳健性,并为大规模定位的两个具有挑战性的基准设置了新的最新技术。

论文速递
定位|Localization
CVPR 2019

[Stereo R-CNN based 3D Object Detection for Autonomous Driving](https://arxiv.org/abs/1902.09738) 日期:2019-02-26 (CVPR 2019) 团队:香港科技大学 摘要 : 我们通过充分利用立体图像中的稀疏,密集,语义和几何信息,提出了一种用于自动驾驶的三维物体检测方法。 我们的方法,称为Stereo R-CNN,扩展了更快的R-CNN用于立体声输入,以同时检测和关联左右图像中的对象。 我们在立体声区域提议网络(RPN)之后添加额外分支来预测稀疏关键点,视点和对象维度,这些关键点与2D左右框组合以计算粗略的3D对象边界框。 然后,我们通过使用左右RoI的基于区域的光度对准来恢复精确的3D边界框。 我们的方法不需要深度输入和3D位置监控,但是,优于所有现有的完全监督的基于图像的方法。 在具有挑战性的KITTI数据集上的实验表明,我们的方法在3D检测和3D定位任务上的性能优于最先进的基于立体的方法约30%AP。 代码将公开发布。

论文速递
目标检测|Object Detection
CVPR 2019

[Improved Robustness and Safety for Autonomous Vehicle Control with Adversarial Reinforcement Learning](https://arxiv.org/abs/1903.03642) 提交日期; 2019-03-08 团队: 斯坦福大学航空航天系 作者: Xiaobai Ma, Katherine Driggs-Campbell, Mykel J. Kochenderfer 摘要:为了对自动驾驶车提高效率并减少故障,研究重点是开发考虑到环境干扰的强大而安全的学习方法。 强化学习现有文献将学习问题作为自治系统与干扰之间的双人游戏。 本文研究了两种不同的算法来解决这种双人游戏:鲁棒性对抗强化学习和神经虚拟自我游戏,并比较这两种算法在自动驾驶场景的表现。我们将游戏制定扩展到半竞争环境,并证明最终的对手可以更好地捕获有意义的干扰,从而提高整体性能。 与传统强化学习方法产生的基线控制政策相比,这种方式下的鲁棒性的政策表现提高了驾驶效率,同时降低了碰撞率。

论文速递
控制|Control

[Neural network vehicle models for high-performance automated driving](http://robotics.sciencemag.org/content/4/28/eaaw1975), :+1: 发表在《Science Robotics》杂志上 提交日期:2019-03-27 团队:斯坦福大学 作者:Nathan A. Spielberg*, Matthew Brown, Nitin R. Kapania, John C. Kegelman and J. Christian Gerdes 摘要:通过首先规划并随后遵循安全轨迹,自动车辆在其环境中导航。为了证明比人类更安全,他们必须最终在广泛的条件和危急情况下执行这些任务,或者比人类驾驶员更好。我们展示了一个前馈反馈控制结构,其中包含一个简单的基于物理的模型,可用于跟踪达到车辆摩擦极限的路径,其性能可与冠军业余赛车手相媲美。关键是拥有合适的模型。虽然基于物理的模型在透明度和直觉上是有用的,但它们需要围绕单个操作点进行明确表征,并且不能利用自动驾驶车辆产生的大量车辆数据。为了规避这些限制,我们提出了一种神经网络结构,它使用一系列过去的状态和由物理模型驱动的输入。当在实验车辆上的相同前馈反馈控制架构中实现时,神经网络实现比物理模型更好的性能。更值得注意的是,当对来自干燥路面和雪地的数据组合进行训练时,该模型能够对车辆行驶的路面进行适当的预测,而无需明确的道路摩擦力估计。这些研究结果表明,网络结构值得进一步研究,作为自动车辆在其整个运行范围内基于模型的控制的基础。

论文速递
路径规划|Motion Planing
控制|Control

[In Defense of Pre-trained ImageNet Architectures for Real-time Semantic Segmentation of Road-driving Images](https://arxiv.org/abs/1903.08469) :trophy: 2nd best model for Real-Time Semantic Segmentation on Cityscapes,CVPR2019 提交日期:2019-03-20 团队:萨格勒布大学 电气工程与计算学院 作者:Marin Oršić, Ivan Krešo,...

论文速递
分割|Segmentation
CVPR 2019

[Deep Rigid Instance Scene Flow](https://people.csail.mit.edu/weichium/papers/cvpr19-drisf/paper.pdf) (SOTA for Scene Flow Evaluation 2015) 研究机构:Uber ATG部门、MIT、多伦多大学 作者:Wei-Chiu Ma(马惟九、MIT PhD、Uber ATG 多伦多、两篇CVPR 2019--另外一篇“Convolutional Recurrent Network for Road Boundary Extraction”、个人主页) 、Shenlong Wang 、Rui Hu、Yuwen Xiong、...

论文速递
CVPR 2019

[Selective Sensor Fusion for Neural Visual-Inertial Odometry](https://arxiv.org/abs/1903.01534),CVPR2019,视觉惯性测距(VIO) 提交日期:2019-03-04 团队:牛津大学计算机系、腾讯、Mo Intelligence 有限公司 作者:Changhao Chen, Stefano Rosa, Yishu Miao, Chris Xiaoxuan Lu, Wei Wu, Andrew Markham, Niki Trigoni 摘要:视觉惯性测距(VIO)的深度学习方法已被证明是成功的,但他们很少专注于结合稳健的融合策略来处理不完美的输入感觉数据。我们提出了一种新颖的端对端选择性传感器融合框架,用于单目VIO,融合单目图像和惯性测量以估计轨迹,同时提高对实际问题的鲁棒性,如丢失和损坏的数据或不良的传感器同步问题。尤其,我们提出了两种基于不同掩蔽策略的融合模态:确定性软融合和随机硬融合,并与先前提出的直接融合基线进行比较。在测试期间,网络能够选择性地处理可用传感器模态的特征并且产生大规模的轨迹。我们在公开的自动驾驶(KITTI),微型飞行器(EuRoC Micro Aerial Vehicle...

论文速递
传感器融合|Sensor Fusion
CVPR 2019

[Pseudo-LiDAR from Visual Depth Estimation: Bridging the Gap in 3D Object Detection for Autonomous Driving](https://arxiv.org/abs/1812.07179),CVPR 2019, 3D物体检测 提交日期:2019-03-18(2018-12-18 v1) 团队:康奈尔大学 作者:Yan Wang, Wei-Lun Chao, Divyansh Garg, Bharath Hariharan, Mark Campbell,...

论文速递
目标检测|Object Detection
CVPR 2019

[LaserNet: An Efficient Probabilistic 3D Object Detector for Autonomous Driving](https://arxiv.org/abs/1903.08701) ,CVPR2019, KITTI BEV(Bird's Eye View),LiDAR解决方案 提交日期:2019-03-20 团队:Uber 作者:Gregory P. Meyer, Ankit Laddha, Eric Kee, Carlos Vallespi-Gonzalez, Carl K. Wellington 摘要:在本文中,我们介绍了LaserNet,一种用于自动驾驶的LiDAR数据的3D对象检测的计算有效方法。效率来自在传感器的原生范围视图中处理LiDAR数据,其中输入数据自然紧凑。在范围视图中操作涉及众所周知的学习挑战,包括遮挡和尺度变化,但它还基于如何捕获传感器数据来提供上下文信息。我们的方法使用完全卷积网络来预测每个点的3D...

论文速递
目标检测|Object Detection
CVPR 2019

[Survey of Bayesian Networks Applications to Intelligent Autonomous Vehicles](https://arxiv.org/abs/1901.05517) 提交日期:2019-01-21 团队:马德里理工大学计算机视觉和航空机器人组 作者:Rocío Díaz de León Torres, Martín Molina, Pascual Campoy 摘要:本文从决策的角度回顾了贝叶斯网络在智能自动驾驶汽车(IAV)中的应用,它代表了全自动驾驶汽车的最后一步(目前正在讨论中)。 到目前为止,当它为自动驾驶汽车(AVs)制定高水平的决策时,人类才有了最后的决定权。本文主要 基于引用的工作和本文所做的分析,推断出一般决策框架及其变量的模块。 目前来说,贝叶斯网络在实验室中已经做出了许多成果,也因此其也可以作为一种有前途的决策计算机模型。 对于贝叶斯网络进一步的研究,认为应该转向在实际情况下测试其模型的方向。 除了应用之外,贝叶斯网络基础知识也是在开发具有高级判断调用潜力的IAV时要考虑的因素。

论文速递
综述|Review
控制|Control