AutonomousVehiclePaper icon indicating copy to clipboard operation
AutonomousVehiclePaper copied to clipboard

无人驾驶相关论文速递

Results 39 AutonomousVehiclePaper issues
Sort by recently updated
recently updated
newest added

[Hierarchical Discrete Distribution Decomposition for Match Density Estimation](https://arxiv.org/abs/1812.06264) 提交日期:2018-12-29(CVPR 2019) 团队:伯克利[DeepDrive](https://deepdrive.berkeley.edu/) 作者:Zhichao Yin 个人[GitHub](https://github.com/yzcjtr) ,CVPR 2018 GeoNet 摘要:用于像素对应的现有深度学习方法输出运动场的点估计,但不表示完全匹配分布。匹配分布的显式表示对于许多应用是期望的,因为它允许直接表示对应概率。使用深度网络估计全概率分布的主要困难是推断整个分布的高计算成本。在本文中,我们提出了分层离散分布分解,称为HD3,以学习概率点和区域匹配。它不仅可以模拟匹配不确定性,还可以模拟区域传播。为了实现这一点,我们估计了不同图像尺度下像素对应的层次分布,而没有多假设集合。尽管它很简单,但我们的方法可以在既定基准上实现光流和立体匹配的竞争结果,而估计的不确定性是错误的良好指标。此外,即使区域在图像上变化,也可以将区域内的点匹配分布组合在一起以传播整个区域。

论文速递
CVPR 2019

[Online Multi-Object Tracking with Instance-Aware Tracker and Dynamic Model Refreshment](https://arxiv.org/abs/1902.08231) 提交日期:2019-02-21 团队:坦普尔大学 摘要: 无模型单目标跟踪(SOT)算法的最新进展很大程度上激发了将SOT应用于多目标跟踪(MOT)以提高鲁棒性以及减轻对外部检测器的依赖性。然而,SOT算法通常被设计用于区分目标与其环境,因此当目标在空间上与在MOT中频繁观察的类似对象混合时遇到问题。为了解决这个问题,在本文中,我们提出了一种实例感知跟踪器,通过编码目标模型内部和目标模型之间的感知来集成MOT的SOT技术。特别地,我们通过融合用于区分目标和背景和其他实例(跟踪目标)的信息来构建每个目标模型。为了保证所有目标模型的唯一性,我们的实例感知跟踪器会考虑来自所有目标模型的响应图,并专门分配空间位置以优化整体精度。我们做出的另一个贡献是通过卷积神经网络学习的动态模型刷新策略。该策略有助于消除初始化噪声以及适应目标大小和外观的变化。为了显示所提出的方法的有效性,它在流行的MOT15和MOT16挑战基准上进行了评估。在两个基准测试中,与公布的结果相比,我们的方法实现了最佳的整体表现。

论文速递
多目标跟踪|MOT

[An efficient solution for semantic segmentation: ShuffleNet V2 with atrous separable convolutions](https://arxiv.org/abs/1902.07476) 提交时间:2019-02-20 团队:芬兰奥卢大学机器视觉研究中心 摘要:为图像中的每个像素分配标签,即语义分割,已经成为计算机视觉中的重要任务,并且在自动驾驶、机器人导航、定位和场景理解中具有应用。 多年来,完全卷积神经网络已被证明是一项成功的解决方案,但大部分工作主要集中在准确性上。 在本文中,我们提出了一种计算有效的语义分割方法,同时在Cityscapes挑战中实现了70.33%的高mIOU。 建议的网络能够在移动设备上实时运行。 此外,我们还公开提供代码和模型权重。

论文速递
分割|Segmentation

[Group-wise Correlation Stereo Network](https://arxiv.org/abs/1903.04025) 提交日期: 2019-03-10 (CVPR 2019) 团队:香港中文大学电子工程系、商汤科技 摘要: 立体匹配估计整流图像对之间的差异,这对深度感测、自动驾驶和其他相关任务非常重要。先前的工作建立了在所有视差水平上具有交叉相关或串联左右特征的成本量,然后利用2D或3D卷积神经网络来回归视差图。在本文中,我们建议通过分组相关来构建成本量。左边特征和右边特征沿着通道维度被分成组,并且在每个组之间计算相关图以获得多个匹配成本提议,然后将其打包到成本量中。分组相关为测量特征相似性提供了有效的表示,并且不会丢失过多的信息,如完全相关。与以前的方法相比,它在减少参数时也能保持更好的性能。在先前的工作中提出的3D堆叠沙漏网络被改进以提高性能并降低推理计算成本。实验结果表明,我们的方法在Scene Flow,KITTI 2012和KITTI 2015数据集上优于以前的方法。此代码可通过此[URL](https://github.com/xy-guo/GwcNet)(代码待更新)获得

论文速递
CVPR 2019

[Efficient Computation of Collision Probabilities for Safe Motion Planning](https://arxiv.org/abs/1804.05384) 发表日期:2018-04-15 团队:Andrew Blake(谷歌学术 无人驾驶引用第一的作者的出品~~) 摘要: 我们解决安全运动规划的问题。随着移动机器人和自动驾驶汽车在以人为中心的环境中变得越来越普遍,在保证无碰撞行为的意义上确保安全性的需求已经重新变得紧迫。当感知模块仅提供环境中对象的噪声估计时实现此目的需要新的方法。在用于描述环境的概率框架内工作,我们提出了有效计算候选路径的概率碰撞风险的方法。这可以用于通过安全阈值的水平对一组候选轨迹进行分层。鉴于这种分层,基于用户定义的阈值,运动合成技术可以优化次要标准,同时保证主要安全标准已经得到满足。本文的一个关键贡献是使用“卷积技巧”来计算整体提供的边界碰撞风险,即使在混乱和复杂的环境中也可以进行O(1)计算。

论文速递
路径规划|Motion Planing

[Egocentric Vision-based Future Vehicle Localization for Intelligent Driving Assistance Systems](https://arxiv.org/abs/1809.07408) 提交日期: 2019-03-03 (2018-09-19) 团队: 密歇根大学机器人研究中心、印第安纳大学计算工程、本田研究院 摘要:预测车辆的未来位置对于安全关键应用(如ADAS和自动驾驶)至关重要。本文介绍了一种在自我车辆的第一人称(自我中心)视图中同时预测目标车辆的位置和规模的新方法。我们提出了一种多流递归神经网络(RNN)编码器 - 解码器模型,该模型分别捕获对象位置和尺度以及用于未来车辆定位的像素级观察。我们表明,加入密集的光流可以显着改善预测结果,因为它可以捕获有关运动和外观变化的信息。我们还发现,明确地模拟自我车辆的未来运动提高了预测精度,这对于具有运动规划能力的智能和自动车辆尤其有益。为了评估我们的方法的性能,我们提出了从道路交叉口的各种场景中收集的第一人称视频的新数据集,这对于预测来说是特别具有挑战性的时刻,因为车辆轨迹是多样的和动态的。

论文速递
定位|Localization

[MagicVO: End-to-End Monocular Visual Odometry through Deep Bi-directional Recurrent Convolutional Neural Network](https://arxiv.org/abs/1811.10964) ,CVPR 2019 提交日期: 2018-11-28 团队: 北邮 摘要:本文提出了一种解决单眼视觉测距问题的新框架,称为MagicVO。 基于卷积神经网络(CNN)和双向LSTM(Bi-LSTM),MagicVO在摄像机的每个位置输出6-DoF绝对标度姿势,并以一系列连续单目图像作为输入。 它不仅利用CNN在图像特征处理中的出色表现,充分提取图像帧的丰富特征,而且通过Bi-LSTM从图像序列前后学习几何关系,得到更准确的预测。 MagicVO的管道如图1所示.MagicVO系统是端到端的,KITTI数据集和ETH-asl cla数据集的实验结果表明MagicVO比传统的视觉测距具有更好的性能( VO)系统在姿态的准确性和泛化能力方面。

论文速递
CVPR 2019

[SSA-CNN: Semantic Self-Attention CNN for Pedestrian Detection](https://arxiv.org/abs/1902.09080v1) 提交日期:2019-02-25 团队:南洋理工大学 摘要:行人检测在诸如自动驾驶的许多应用中起着重要作用。我们提出了一种方法,将语义分割结果作为自我关注线索进行探索,以显着提高行人检测性能。具体而言,多任务网络被设计为从具有弱框注释的图像数据集联合学习语义分割和行人检测。语义分割特征图与相应的卷积特征图连接,为行人检测和行人分类提供更多的辨别特征。通过联合学习分割和检测,我们提出的行人自我关注机制可以有效识别行人区域和抑制背景。此外,我们建议将来自多尺度层的语义注意信息结合到深度卷积神经网络中以增强行人检测。实验结果表明,该方法在Caltech数据集上获得了6.27%的最佳检测性能,并在CityPersons数据集上获得了竞争性能,同时保持了较高的计算效率。

论文速递
CVPR 2019
行人检测|Pedestrian Detection

[Towards Self-Supervised High Level Sensor Fusion](https://arxiv.org/abs/1902.04272) Date:2019-02-12 Team: 奥迪深度学习相关子公司AEV(Audi Electronics Venture)、慕尼黑工业大学和加州Artisense公司 摘要: 在本文中,我们提出了一个框架,通过融合RGB图像和深度图的原始信息来控制自动驾驶汽车。 深度神经网络架构用于分别将视觉和深度信息映射到转向命令。 来自两个传感器源的信息融合允许在存在传感器故障的情况下提供冗余和容错。 即使其中一个输入传感器无法产生正确的输出,其他功能的传感器仍然能够操纵汽车。 这种冗余对于自动驾驶汽车的关键应用至关重要。 实验结果表明,即使其中一个传感器在没有任何明确信号的情况下发生故障,我们的方法也能够学习使用相关的传感器信息。

论文速递
传感器融合|Sensor Fusion

[Bio-LSTM: A Biomechanically Inspired Recurrent Neural Network for 3D Pedestrian Pose and Gait Prediction](https://arxiv.org/abs/1809.03705) 日期:2019-02-18 (2018-09-11 第一版本) 团队:密歇根大学 > 导读:密歇根大学研究者借助生物力学约束,让无人驾驶汽车理解行人的预行为 摘要: 在自动驾驶等应用中,了解、推断和预测行人的意图和未来行为非常重要。这种能力允许车辆避免碰撞并提高乘坐安全性和质量。本文提出了一种生物力学启发的递归神经网络(Bio-LSTM),它可以预测全球坐标系中行人的位置和三维关节体姿态,给出三维姿态和在先前帧中估计的位置不准确。所提出的网络能够同时预测多个行人的姿势和全球位置,对于距离摄像机最远45米的行人(城市交叉口规模)。所提出的网络的输出是在蒙皮多人线性(SMPL)模型参数中表示的全身3D网格。所提出的方法依赖于新的目标函数,其结合了人类行走的周期性(步态),人体的镜像对称性以及人类步态周期中地面反作用力的变化。本文介绍了PedX数据集的预测结果,这是一个在人行交通繁忙的实际城市交叉口收集的大规模野外数据集。结果表明,所提出的网络能够成功地学习行人步态的特征,并产生准确一致的三维姿态预测。 效果视频展示:https://news.engin.umich.edu/2019/02/teaching-self-driving-cars-to-predict-pedestrian-movement/

论文速递