自动驾驶与智能汽车的里程碑—第二部分:感知与规划
摘要
对自动驾驶(AD)和智能车辆(IVs)日益增长的兴趣源于它们对提升安全性、效率和经济效益的承诺。虽然先前的综述已捕捉到该领域的进展,但仍需要一份全面且面向未来的总结。我们的工作通过三篇独立文章填补了这一空白。第一部分,即“综述综述”(SoS),概述了 AD 与 IV 技术的历史、综述、伦理及未来方向。第二部分,“自动驾驶与 IVs 里程碑 Part I:控制、计算系统设计、通信、高精度地图(HD map)、测试和人类行为”,深入探讨了 IVs 中控制、计算系统、通信、HD map、测试以及人类行为的发展。第三部分回顾了 IVs 背景下的感知与规划。旨在提供对 AD 与 IVs 最新进展的全面概览,本工作面向新手与资深研究者。通过整合 SoS 与 Part I,我们提供独特洞见,并力求成为过去成就与未来可能性之间的桥梁,在这一充满活力的领域中发挥作用。
作者
Long Chen 中国科学院自动化研究所复杂系统管理与控制国家重点实验室,北京,中国;Waytous有限公司总裁办公室,北京,中国 ORCID: 0000-0003-4925-0572
Siyu Teng 香港浸会大学计算机科学系,香港,中国;香港浸会大学与北京大学联合国际学院计算机科学系,珠海,中国 ORCID: 0000-0002-6860-9547
Bai Li 湖南大学机械与车辆工程学院,长沙,中国 ORCID: 0000-0002-8966-8992
Xiaoxiang Na 剑桥大学工程系,剑桥,英国 ORCID: 0000-0002-6524-7122
Yuchen Li 香港浸会大学计算机科学系,香港,中国;香港浸会大学与北京大学联合国际学院计算机科学系,珠海,中国 ORCID: 0000-0002-6732-323X
Zixuan Li Waytous有限公司,北京,中国
Jinjun Wang 西安交通大学人工智能学院,西安,中国 ORCID: 0000-0002-9434-0617
Dongpu Cao 清华大学机械工程系,北京,中国 ORCID: 0000-0003-2541-5272
Nanning Zheng 西安交通大学人工智能学院,西安,中国 ORCID: 0000-0003-1608-8257
Fei-Yue Wang 中国科学院自动化研究所复杂系统管理与控制国家重点实验室,北京,中国 ORCID: 0000-0001-9185-3989
出版信息
期刊: IEEE Transactions on Systems, Man, and Cybernetics: Systems 年份: 2023 卷: 53 期: 10 页码: 6401-6415 DOI: 10.1109/TSMC.2023.3283021 文章编号: 10156892 ISSN: Print ISSN: 2168-2216, Electronic ISSN: 2168-2232
指标
论文引用: 60 总下载: 2389
资助
中国国家自然科学基金(资助编号:62006256)
广州重点研发计划(资助编号:202007050002 和 202007050004)
关键词
IEEE 关键词: Simultaneous localization and mapping, Surveys, Location awareness, Visualization, Planning, Laser radar, Testing
索引词: Autonomous Vehicles, Intelligent Vehicles, Human Behavior, Convolutional Layers, Object Detection, Point Cloud, Semantic Information, Semantic Segmentation, Inertial Measurement Unit, Optical Flow, Global Navigation Satellite System, Flow Estimation, Depth Estimation, Instance Segmentation, Conditional Random Field, Simultaneous Localization And Mapping, Trajectory Planning, Advanced Driver Assistance Systems, Optical Flow Estimation, Local Trajectory, Dynamic Vision Sensor, Planning Module, Wildlife Rehabilitation, Iterative Closest Point, Light Signal, Object Detection Methods, Target Field, Optical Flow Method, Hough Transform
作者关键词: 自动驾驶(AD),通信,控制,高精度地图(HD map),人类行为,智能车辆(IVs),感知,规划,调研综述(SoS),系统设计,测试
未定义
第一节. 介绍
自动驾驶(AD)和智能车辆(IVs)因多种潜在优势,最近受到学术界和业界的广泛关注。关于 AD 和 IVs 的综述在汇总研究成果、概括整个技术发展以及预测未来趋势方面占据着重要位置。然而,大多数综述仅聚焦于特定任务,缺乏系统化的总结和未来研究方向。因此,它们可能对初学者开展研究产生负面影响。我们的工作由三篇独立文章组成,包括调研综述(SoS)1以及两篇关于 AD 和 IVs 关键技术的综述。本篇为该综述的第三部分(第二部分)系统回顾感知与规划的发展。结合调研综述和第二部分(关于控制、系统设计、通信、高精度地图(HD map)、测试以及 IVs 中的人类行为的综述)2,我们期望我们的工作能被视为 AD 与 IVs 过去与未来之间的桥梁。
根据自动驾驶(AD)中的不同任务,我们将其划分为八个部分:感知、规划、控制、系统设计、通信、高精度地图、测试以及车辆中的人类行为(见图1)。在第一部分中,我们简要介绍了每个任务的功能以及 AD 的智能层级。在此,我们描述了不同 AD 场景中的经典应用,包括城市道路、公园物流、仓库、港口、智能矿山、农业、野生动物救援和隧道搜索。公众更常在城市道路实现 AD,例如私人汽车、自动驾驶出租车和公交车。港口和码头的车辆需要控制器遵循特定规则并实现高效运营。仓库和矿山是室内外环境中经典的封闭场景。经过改造的车辆或称为专业智能机器人,可在野外替代人力进行农业作业、野生动物救援、隧道搜索等。事实上,AD 与 IVs 可以在不同场景执行多项任务,并在我们的日常生活中发挥重要作用。
图1. 自动驾驶的结构:功能、方法论与应用场景。
本文将两个部分视为独立章节,每个章节均包含任务定义、功能划分、新颖思路,以及对 AD 与 IVs 里程碑的详细介绍;感知、规划与控制之间的关系可见图2。最重要的是,过去十年来这些研究迅速发展,现已进入瓶颈期。我们希望本文能
图2. 感知、规划与控制子任务的关系及其相互作用。
被视为面向入门者的综合总结,并为研究者提供新颖而多样的洞见,助其突破。我们总结了本文的三项贡献。
我们提供了更系统、全面且新颖的综述,涵盖了 AD 与 IVs 的关键技术发展里程碑。
我们介绍了各技术章节中的多项部署细节、测试方法及独特见解。
我们开展了一项系统研究,旨在搭建过去与未来在自动驾驶(AD)和智能车辆(IVs)方面的桥梁,本文是我们整体研究的第三部分(第II部分为调查)。
第II节。感知
感知是自动驾驶(AD)的基础模块。该模块为车辆本体提供周围环境信息。如图 3 所示,感知分为定位、目标检测、场景理解、目标预测和跟踪。
图 3。感知方法结构。
A. 定位
定位是驾驶平台获取自身位置和姿态的技术。它是规划与控制的重要前置条件 3。目前,定位策略分为四类:1) 全球导航卫星系统(GNSS)和惯性测量单元(IMU);2) 视觉同时定位与地图构建(SLAM);3) LiDAR SLAM;4) 融合式 SLAM 4.
1) 全球定位系统(GNSS)与惯性测量单元(IMU):
GNSS 5 是一种基于空间的无线电导航与定位系统,能够为用户提供地表三维(3-D)坐标、速度和时间信息。IMU 6 通常由三轴加速度计和陀螺仪组成(9 自由度(DOF)IMU 还配备三轴磁力计)。通过将 GNSS 的低频定位信息与 IMU 的动态状态相结合,平台可以获得高频率的定位信息。尽管 GNSS 与 IMU 的融合方法具有全天候特性,但卫星信号会受到城市建筑物的干扰 7.
2) 视觉 SLAM:
视觉SLAM采用相机帧的变换来估计车身运动,这类算法按传感器可分为三类:1) 单目;2) 多视角;3) 深度。具体而言,视觉SLAM算法只需图像作为输入,意味着定位系统的成本相对较低 8。然而,它们依赖丰富的特征且对光照微小变化敏感。除此之外,优化是视觉定位系统的关键模块,它在考虑全局信息后更新每一帧的估计,优化方法包括滤波器基和图形基 9。
从特征提取的角度来看,视觉 SLAM 大致可分为两类:关键点 10、11、12、13 和光流方法 14、15、16、17。关键点方法采用点提取技术,例如 SIFT、SURF、ORB 以及描述子,在不同图像中检测相同特征并计算帧间的相对运动。由于点提取方法能够稳定且准确地提取关键点,基于关键点的视觉 SLAM 系统在结构化道路和城市环境中能提供显著优势。但在非结构化道路或面对平白墙壁时,该系统可能会遇到困难。此外,早期算法无法实现实时运行,且忽略了图像中大部分像素信息。光流方法假设图像之间的光度一致性保持不变,并通过最小化图像的光度误差来估计相机运动。这种方法具有以下优点:1)计算量低,实时性能高;2)对关键点的依赖弱;3)考虑了帧内的完整像素。然而,由于光度假设,光流方法对两幅图像之间的亮度变化很敏感。从优化角度来看,视觉 SLAM 系统也可以分为基于滤波器和基于优化的策略,但基于图的优化方法在精度和效率方面取得了多项突破。因此,研究人员将继续关注后者。
3) 激光雷达 SLAM:
与视觉SLAM方法相比,LiDAR SLAM系统由于LiDAR的特性,能够主动获取周围环境的精确3‑D信息。类似于视觉系统,LiDAR SLAM也可分为二维(2‑D)方法,例如Gmapping、Cartographer、Karto,以及3‑D 18、19、20、21方法,按传感器或基于滤波的(如Gmapping)以及基于优化过程的优化式方法。Gmapping采用粒子滤波方法,将定位与建图过程分离。在优化过程中,每个粒子负责维护一张地图。LOAM 22采用两个并行算法,一种是在低频率下通过点云匹配方法计算帧间运动变换,另一种则尝试在高频率下构建地图并校正里程计。Segmap 23利用深度神经网络提取语义特征信息,能够降低计算资源消耗,并在室内智能机器人和IVs实时解决数据压缩问题。SUMA 24将点云转移到二维空间,并采用扩展的RGB‑D SLAM结构生成局部地图。此外,它通过迭代最近点(ICP)匹配方法维护和更新点云的Surfel地图。LiDAR SLAM系统具有高精度、实现稠密地图、对光照依赖弱等优点。然而,无语义信息和环境扰动是LiDAR SLAM系统的两个主要挑战。此外,研究人员需要花费大量时间和精力维护和修理安装在IVs上的LiDAR。
4) 基于融合的SLAM:
为避免单一传感器失效或鲁棒性不足导致的问题,研究人员已引入多模态数据融合方法,包括视觉-惯性 25、26、27、激光雷达-惯性 28、29、30、31、视觉-激光雷达-惯性 32、33、34,以及其他融合方法,如添加声纳 35 或雷达 36 的 SLAM 方法。我们发现,融合方法通常会将更新频率更高的 IMU 数据引入 SLAM 系统。松散融合方法 37、38 将来自摄像机或激光雷达的外部观测数据与来自 IMU 的内部运动数据视为两个独立模块,而紧耦合融合方法 39、40、41、42 设计了一个统一的优化模块来求解并融合多模态数据。前者方法可视为扩展的视觉或激光雷达 SLAM 系统,便于研究人员在测试平台和 IV 上部署。然而,为了提升鲁棒性和适应性,紧耦合融合策略提供了合适的方案,包括在视觉里程计系统中引入束束调整 43 并采用关联优化 44。总之,基于融合的 SLAM 方法解决了单一传感器的若干困难,但仍为联合系统引入了诸如标定、同步和复杂处理等挑战。不同定位方法的优缺点如表 I 所示。
表 I
B. 目标检测
目标检测的目的是在传感器视野中检测静态和动态目标。部分检测任务的结果如图 4 所示。
Fig. 4. AD 中目标检测的关键任务。左上、右上、左下和右下图分别代表车道检测、可行驶区域、交通标志检测和三维目标检测。
1) 车道检测:
车道检测旨在识别传感器视野中的车道,以辅助驾驶。通用流程包括三个部分:图像预处理、车道检测和跟踪。图像预处理的目的,例如感兴趣区域 (RoI) 提取、逆透视变换和分割,是降低计算成本并消除噪声。车道检测与跟踪的方法可分为基于计算机视觉 (CV-based) 的方法和基于学习的方法 45.
车道检测中的 CV-based 方法如今被广泛采用,主要是因为其计算成本低且易于复现。形态学顶帽变换用于消除视野中无关物体 46。随后,霍夫变换被应用于提取图像的边缘像素并构造直线。然而,其缺点是难以检测曲线,因而有许多研究者对霍夫变换提出了一些有效方法 47。其他线条估计方法包括高斯混合模型 (GMMs) 48、随机样本一致性 (RANSAC) 49、以及卡尔曼滤波器 50,适用于复杂场景。
基于学习的方法可在丰富场景中部署,但需要大量数据来训练具有众多参数的网络。Liu 等人 51 尝试设计新型多子结构以提升车道检测性能。据我们所知,车道检测已集成到高级驾驶辅助系统 (ADASs) 中,以保持车道或跟随前车,研究者对三维车道 52、封闭区域的车道以及非结构化道路关注更多。
2) 驾驶区域检测:
与车道检测相比,驾驶区域检测提供了更多障碍信息,为障碍物规避功能和路径规划任务提供基础信息。我们也将此任务划分为基于 CV 的方法和基于学习的方法。
驾驶区域检测可以在道路表面不被障碍物遮挡时转换为车道检测。否则,它可以被视为车道检测与二维目标检测的组合。将驾驶区域检测视为独立任务时,它需要将道路像素与目标及非驾驶区域区分开来。颜色直方图可以满足这一需求,一些研究者针对颜色 53 与效率 54 开发了方法,以应对颜色变化差异大和其效果不佳的问题。区域生长方法 55 的鲁棒性优于颜色直方图方法。
驾驶区域检测中的学习型方法类似于图像分割。对于机器学习算法,特征,如 RGB 颜色、Walsh-Hadamard、方向梯度直方图(HOGs)、局部二值模式(LBP)、Haar 以及 LUV 通道,可以由特征提取器提取,并通过分类头,如支持向量机(SVM)、条件随机场(CRF),得到最终结果。深度神经网络可以替代特征提取器,并进行一些改进,例如使用大视域卷积核 56,多层连接 57,以获得竞争性表现。我们发现,基于学习的驾驶区域检测结果通常是场景理解任务的一个分支,研究者尝试解决一些挑战,包括二维-三维转换、复杂驾驶区域等。
3) 交通标志检测:
交通标志包含大量重要的交通信息,例如道路状况、速度限制、驾驶行为限制等。我们还将其分为基于计算机视觉的方法和基于学习的方法。
对于基于 CV 的检测方法,在特定地区(某一国家或城市)交通标志的近似色彩组成条件相似。在相对简单的原始图像中,通过对特定颜色的阈值分离可以获得更好的结果,这可以通过采用色彩空间分布、分割头以及 SVM 分类器 58 来实现。一些研究通过引入额外的颜色通道来发展方法,例如普通的 RGB 模型、动态颜色阈值、概率模型和边缘信息。然而,这些方法难以解决由光照、褪色、遮挡和恶劣天气引起的问题。一些研究者尝试利用三角形 59 的彻底变换、圆形交通标志 60 或编码梯度检测方法 61 来处理遮挡和并置。基于形状的检测方法可以解决因颜色变化导致的不稳定结果问题,但它在克服遮挡和变形问题方面能力有限。
基于机器学习的交通标志识别算法通常使用滑动窗口方法遍历给定的交通标志图像。Huang 等人 62 提出了梯度方向的变体直方图特征,并通过极限学习机训练单个分类器以检测交通标志。随着深度学习算法的持续研究,越来越多的学者使用深度学习算法来检测交通标志。读者可以将这种分类方法视为处理特征提取,包括预处理和分类 63。为提取更深层信息,引入更深的编码器、集成空间金字塔池化 (SPP) 层、级联 RCNN 网络、深度可分离卷积和裁剪策略,以实现检测精度和高速推理 64。深度学习方法对标志的颜色和形状变化具有令人满意的容忍度,但这类方法需要大量的数据和人工标注。除此之外,检测网络应具备识别不同区域内不同标志并检测远距离标志的能力。
4) 基于视觉的三维物体检测:
基于视觉的三维物体检测指的是从图像获取视野内所有目标的三维信息(位置、尺寸和旋转)的过程。我们将其分为单目和立体两种检测方式。
a) 单目三维物体检测:
单目三维物体检测已被广泛研究,近年准确率不断提升。直接将分类与回归方法结合,继承自二维物体检测网络如 65,结构直观,但由于从单幅图像恢复三维属性是一个病态问题,表现不佳。针对这一缺点,有两种主要策略。
一些 66、67 引入了三维与投影二维候选之间的几何联系。例如,GS3D 68 将物体拆分为若干部分,以分析表面属性和实例关系。Monopair 69 与 Monet3D 70 则考虑目标与其最近的两邻居之间的关系。
CaDDN 73 提供了一种完全可微的端到端方法,用于将深度估计与物体检测任务结合。DDMP3D 74 利用上下文和深度估计头部的特征表示,以实现具有竞争力的性能。此外,Brazil 等人 75 引入了连续帧作为输入,试图通过关联检测与跟踪来更新三维结果。尽管这些方法在准确率上没有明显优势,但广泛的学术研究和低成本使其具有吸引力。
b) 立体三维物体检测:
Stereo 3-D object detection approaches 76, 77, 78, 79 受到双目视差分析的启发。精确的深度值可以通过双目中心间距及对应像素对来计算。Disp-RCNN 80、OC-Stereo 81 在双目相机配对图像中加入分割模块,以实现更准确的关联。YOLOStereo3D 82 提供了轻量化模型,优于众多基于复杂视差卷积操作的立体方法,并显著缩短了训练和测试时间。总之,基于立体的方法可以避免单目图像的病态问题,并方便制造商在 IVs 中部署和维护,但对基线的精确测量、双目匹配的时间成本以及图像预处理的需求为研究者带来了挑战。
5) 基于 LiDAR 的 3-D 目标检测:
基于 LiDAR 的 3-D 目标检测方法通过 LiDAR 捕获的点云数据识别目标的 3-D 属性。我们将其分为体素级和点级检测。
a) 体素级目标检测:
体素级物体检测方法将点云特征表示为鸟瞰图(BEV),并且将 BEV 地图手动划分为 s 组独立体素。此类检测网络的结构设计源自点云分割框架,例如 PointNet 83 和 PointNet++ 84,它们在输入或输出端适配检测任务,其整体架构需要兼顾性能与效率。以经典的 VoxelNet 85 和 PointPillar 86 为例,VoxelNet 在映射点云后对体素进行归一化,然后使用若干体素特征编码(VFE)层对每个非空体素进行局部特征提取。体素级特征随后通过 3-D 卷积中间层进一步抽象(扩大感受野并学习几何空间表示),最终使用带位置回归的区域提议网络(RPN)对物体进行检测和分类。
b) 点逐点物体检测:
点逐点物体检测,例如 87、88,受到 PointNet 的启发,PointNet 是一个用于室内 6-D 姿态估计的经典点云网络。Point-RCNN 89 是一个两阶段点云检测框架,第一阶段通过语义分割分析生成候选框,第二阶段进行位置修正。VoteNet 90 将 2-D 检测结构扩展到 3-D 框架,以建立通用点云检测框架。它基本遵循 PointNet++,以减少点云转换过程中的信息损失。VoteNet 还引入了一种受 Hough 变换启发的新投票机制,用于定位目标中心而不是表面上的点,相较于其他 3-D 网络更具优势。需要注意的是,点云检测中由于距离导致的丢弃点数和模态区分应显著考虑,以供研究人员参考。
6) 基于融合的3-D物体检测:
LiDAR、雷达和摄像头在自动驾驶车辆中广泛部署用于感知任务,这些传感器类型的组合可以使车辆更稳健,能够持续检测目标。然而,这并不意味着基于融合的方法一定优于单一传感器的方法。基于融合方法的劣势主要有两个原因:1)网络难以弥合来自不同传感器的模态差距;2)系统误差和测量误差(如校准和同步误差)难以消除,并且会在网络中被传播和放大。大多数研究人员提出了解决这些困难的方法,并取得了一些竞争性的成果。在本节中,我们根据传感器类型对基于融合的目标检测任务进行分类。
a) 摄像头与 LiDAR:
摄像头与 LiDAR 是自动驾驶的两个关键传感器,研究人员首先关注并行融合方法,即同时提取点云和图像信息。MV3D 91 和 AVOD 92 在点云与对应图像上共享 3‑D 锚点。ContFuse 93 与 MMF 94 采用紧耦合的连续融合层。3‑D-CVF 95 引入跨视角空间特征融合方法,将图像与点云融合。除此之外,EPNet 96 侧重于点云系统,并以点基策略在几何空间中将图像投射到其上。
与并行方法相比,序贯方法更易读且可部署,因为无需引入关联结构来弥合模态差距。F-PointNet 97 与 F-ConvNet 98 通过在二维候选框内生成三维边界框来减少搜索区域。PointPainting 99 输出语义信息,并将每个点投射到对应点上,以提升三维目标检测精度。CLOCs 100 在独立提取器之后融合数据,并在 KITTI 上取得竞争性结果 101。DVF 102 采用二维真值作为引导,然后通过点云提取三维属性。
b) 摄像头与雷达:
将图像与雷达数据结合可以有效降低成本并保持准确性。参考 103 将雷达检测结果投射到图像空间,并利用它们提升远距离目标的检测准确率。CRF-Net 104 采用纵向展示方式开发了该方法。
c) LiDAR 与雷达:
这种融合方式聚焦于极端恶劣天气条件和不同目标。RadarNet 105 通过新颖的早期融合方法将雷达和 LiDAR 数据融合。它通过基于注意力的融合利用雷达的长感知范围。MVDNet 106 从两种传感器生成候选框,然后在多模态传感器流之间融合区域特征,以提升最终检测结果。ST-MVDNet 107 通过在教师网络与学生网络之间强制输出一致性,并引入缺失模态来应对缺少某类数据时的退化问题,来构建结构。
d) 摄像头、LiDAR 与雷达:
在这种融合类型中,研究人员试图在不同天气条件下设计一个鲁棒的感知系统。Wang 等人 108 通过将图像直接投射到点云上,利用 PointNet 109 架构获得了目标检测输出。与前一帧并行,雷达产生的点云被处理以预测速度,然后与最终检测输出关联。RVF-Net 110 在输入过程中融合了所有数据,并在 nuScenes 111 数据集上取得了令人满意的结果。
e) 其他:
超声波雷达通过测量空气中声波传播时间来判断障碍物的距离,准确度可在5米内达到厘米级。该传感器主要用于自动泊车场景。带红外灯的红外摄像头能捕捉红外光谱特征,实现夜视成像效果。此外,事件相机的研究目前是热门议题之一。事件相机基于管线时间戳处理数据,而非按帧平面处理单个像素。由于数据具有时间序列特性,传统网络结构无法处理这些数据,因此未来如何与其他传感器融合将是研究重点。
在KITTI 112中,不同传感器类型组合的3D目标检测方法性能如表II所示。KITTI将完整数据划分为三类评估场景(简易、中等、困难),通过帧复杂度计算3D-AP,这是2D-AP 113 的扩展版本。我们总结如下:
采用融合策略能够为3D目标检测任务取得竞争性结果,主要是因为引入了更多的初始信息。但这类方法需要研究者消除或降低模态差异。
由于传感器特性、摄像头分辨率有限,以及KITTI中参考系统的定义,基于视觉的方法性能低于基于LiDAR的方法。然而,基于视觉的方法因其可维护性、经济性和易部署性吸引了不少研究者。
自注意力机制(Transformer结构)和BEV方法 114, 115, 116 可以提升跨模态融合、特征提取等的准确性。此外,为了解决数据饥饿和模型鲁棒性问题,当前研究在额外数据上训练和测试模型,例如 unScenes 117 和 Waymo 118。
表 II
C. 场景理解
我们在本文中将场景理解定义为每个像素或点的多重输出,而非每个目标的单一输出。本节将其分为三个部分:分割、深度和流估计。我们仅关注学术研究以及在自动驾驶领域的应用。
1) 自动驾驶中的分割:
目标是将场景分成若干有意义的部分,通常通过为图像中的每个像素标记语义(语义分割),或者同时检测对象并区分每个像素属于哪个对象(实例分割),或者将语义分割和实例分割结合(全景分割)119。分割是计算机视觉中的关键任务之一,研究人员会在 ADE20K120、Pascal-VOC121、CityScape122 等数据集上评估模型。然而,在 AD 场景中,经典的 3-D CV 领域,很难独立完成感知任务。它通常涉及车道检测、行驶区域检测、视觉接口模块,或与点云结合提供语义信息。我们将简要介绍基于分割的一般背景,然后重点阐述 AD 场景下的分割研究。
a) 语义分割:
全卷积网络 (FCN) 123 是一种流行的语义分割结构,采用卷积层来恢复输出图的尺寸。 一些研究通过引入改进的编码-解码器 124、空洞卷积 125、CRFs 126、空洞空间金字塔池化(ASPP) 127 扩展了 FCN。 此外,上述方法由于池化和空洞卷积操作,关注固定的方形上下文区域。 关系上下文方法 128 提取像素之间的关系。 Ronneberger 等人 129 通过通道拼接和跳跃连接追求高分辨率,尤其在医学领域。 在自动驾驶领域,语义分割网络可能熟悉常见结构,研究者应更加关注特殊类别、遮挡,并在道路场景数据集 130 上评估其模型。 为在数据集上取得最先进结果,研究者引入多尺度注意机制 131、边界感知分割模块 132。 此外,一些研究聚焦道路上目标的属性,例如考虑跨类别对象之间的内在关联 133,或因自动驾驶场景缺乏标注数据而采用半监督分割机制。
b) 实例分割:
实例分割的目标是为每个物体实例预测一个掩码及其对应的类别。早期的方法 134 设计了一种架构,实现了物体检测和分割任务。Mask-RCNN 135 在 Faster-RCNN 的基础上扩展,以二值分割识别每个像素的类别,并在 RPN 之后对 RoI 的图像特征进行池化。一些研究者通过引入系数网络 136、每个掩码的 IoU 分数以及形状先验来改进预测,从而开发了基础结构。与二维物体检测方法类似,陈等人 137 用一阶段结构替代了检测器。王等人 138 试图消除检测的影响,并取得了显著的性能。为在 AD 数据集上获得有竞争力的分割结果,研究者聚焦于 3-D 空间的几何信息 139、边界识别 140、语义分割(全景分割)141 或穿插多帧(基于视频)142。
c) 全景分割:
Panoptic segmentation 的提出旨在统一像素级与实例级语义分割 143,而 144 设计了不同的分支来回归语义与实例分割结果。 Panoptic-FCN 145 的目标是在统一的全卷积管道中表示并预测前景物体与背景素材。 Panoptic SegFormer 146 引入了一种简洁且有效的基于变换器的全景分割框架。 针对 AD 场景,TASC 147 提出了新的可微分方法,以在训练期间缩小两项子任务之间的差距。 Axial-DeepLab 148 构建了一个独立的注意力模型,具备全局感受野和位置敏感的注意力层,能够以低计算成本捕捉位置信息。 此外,研究人员通过引入一种新颖的crop-aware边界框回归损失以及一种采样方法 149,解决道路上的多尺度问题,并通过组合优化策略捕捉目标边界。 这些方法在 CityScape 150 或 Mapillary Vistas 151 的任务上取得了有竞争力的结果。
2) 自动驾驶中的深度估计:
这类任务旨在在摄像机平面上展示深度信息,它是一种有效的方法来提升基于视觉的三维目标检测,并且是连接 LiDAR 与摄像机的潜在桥梁。
深度补全任务是深度估计 152 的子问题。在稀疏到稠密深度补全问题中,研究人员通过计算方法或多传感器数据,从稀疏深度图推断三维场景的稠密深度图。 主要困难包括:1)稀疏深度中不规则的间距模式;2)多传感器模态的融合方法(可选);以及 3)某些数据及现实世界缺乏稠密像素级真实标签(可选)。
深度估计是测量相机相对每个像素距离的任务。 深度值可从单目或立体图像中提取,使用监督(通过深度补全获得的稠密地图)153,无监督 154,激光雷达引导 155 或立体计算 156。 一些方法 157,158 引入 CRF 模块,多任务结构,全局提取器以及分段平面先验,以在流行基准(如 KITTI 159 和 NYUv2 160)中获得有竞争力的表现。 模型通常根据 RMS 指标 161 进行评估.
在户外单目深度估计中,DORN 162 采用多尺度网络结构来捕捉上下文信息。 MultiDepth 163 将深度区间分类作为辅助任务。 HGR 164 提出了一个层级引导与正则化学习框架,用于估计深度。 SDNet 165 通过利用包含深度和语义的双独立估计头来改进结果。 VNL 166 设计了一种新颖结构,在多个阶段包含局部平面引导层。 Yin 等 167 使用随机采样的三点确定的法向量几何约束来提高深度预测精度。 BANet 168 引入双向注意模块,采用前馈特征图并结合全局信息以消除歧义。 无监督方法 169 受到众多研究者关注,因为它可以降低标注数据需求并消除过拟合问题。 此外,纯单目深度估计仅能获得相对深度值,原因是其欠定问题,而立体引导方法可以获得绝对深度值。 Li 等 170 引入 Transformer 结构以实现具有竞争力的结果。 立体深度估计方法可以在立体视差估计任务中找到。
3) 自动驾驶中的流估计:
与分割和深度估计任务类似,流估计聚焦于图像平面,并呈现数据帧期间像素的运动。它在当今受到关注,其研究可用于事件相机方法。
a) 光流估计:
光流指的是成像系统中像素的运动,包括水平和垂直两个方向。与无监督基于视频的深度估计类似,像素运动 171 可以通过最小化目标图像与源图像之间的差异来推断。SPyNet 172 提出了一种轻量级框架,采用经典的空间金字塔形式进行光流估计。除此之外,它尝试估计大位移运动和精确的亚像素流。PWC-Net 173 包括三个子网络:特征金字塔提取器、扭曲层和代价体积层,以提高光流的质量。
b) 场景流估计:
场景流估计表示一个三维运动场,可以视为光流的延伸。因而,它是在三维场景中光流与深度估计的组合。单目图像很少在场景流的整体训练阶段使用,结构则采用双目视频作为输入,以回归视差来恢复尺度。DRISF 174 将高斯牛顿(GN)的推断步骤视为递归神经网络(RNN),这意味着它可以采用端到端方法进行训练。FD-Net 175 进一步扩展了无监督深度估计,并将完整流拆分为对象流(目标像素)和刚性流(背景像素),分别评估其特征,从而能够避免因遮挡和截断导致的扭曲歧义。竞争协作(CC)176 将场景流估计设定为三人游戏。其中两位竞争资源,最后一位则充当调解者。GeoNet 177 由两个模块组成:一个使用六自由度自我运动估计的单目深度模块,以及一个残差网络用于学习对象的光流。
CityScape 和 KITTI 上的全景分割与深度估计性能如表 III 所示。PQ、SQ、RQ 分别对应全景分割、分割质量和识别质量,参见 178,而深度估计则使用尺度不变对数误差(SILog)、相对平方误差(sqErrorRel)以及逆深度的均方根误差(iRMSE)等 KITTI 的经典指标。与检测类似,研究者们引入自注意机制、额外训练数据和新型网络单元,以提升场景理解任务的精度。我们也指出,上述任务并未直接为 AD(自动驾驶)的规划与控制等下游任务提供输出。在实际应用中,语义分割、深度估计与光流估计将相互结合,以提供更丰富的像素语义信息,从而提升跨模态数据融合、空间检测和移动目标跟踪的精度。
表 III
D. 预测
为在复杂交通场景中安全高效地导航,AD 框架应能够预测其他交通参与者(如车辆和行人)在不久的将来将如何行动。预测可定义为基于过去感知的可能结果。设 X_{t}^{i} 为在观测时刻 t 处,具有空间坐标的代理向量 i,并且 t\in \{ X_{1}^{i},X_{2}^{i},\ldots,X_{T_{obs}}^{i} \}。
1) 基于模型的方法:
这些方法预测代理的行为,例如变道、左转等。预测车辆行为概率分布的最简单方法之一是自主多模型(AMMs)算法。该算法计算每个代理的最大概率轨迹。
2) 基于数据的方法:
这些方法主要由神经网络组成。经过对感知数据集的训练,模型会预测下一步行为。DESIRE 179 提出了一个创新性的编码器–解码器框架,将情景上下文和交通主体之间的交互纳入其中。SIMP 180 将输出空间离散化,计算车辆目的地的分布,并预测到达时间估计及空间偏移。FaF 181 先驱式地基于 LiDAR 点云实现检测与短期运动预测的统一。预测模块有时会与感知模块分离,主要是因为下游规划模块需要同时获取感知结果和预测结果。未来的预测研究将聚焦于通用规则的制定、场景的普适性以及模块的简化。
E. 跟踪
跟踪问题始于一系列车辆安装传感器的数据。根据神经网络是否嵌入跟踪框架,我们将其分为传统方法和神经网络方法。
1) 传统方法:
Kalman 滤波器 182 是一个著名算法,尤其在跟踪主体方面。由于其低计算成本,Kalman 基础方法 183 在低规格硬件和简单场景下也能快速响应。
跟踪问题也可以表示为图搜索问题 184。与 Kalman 基础方法相比,图基方法最重要的优势在于它更适合多主体跟踪问题。Yan 等人 185 利用图基方法采用最小成本方法解决跟踪问题。
2) 神经网络方法:
神经网络的优势在于能够在相关且足量的训练数据中学习重要且稳健的特征。
CNN 在代理跟踪中被广泛使用。Zhu 等人 186 通过使用卷积层的数值组合处理多代理跟踪。Hoffmann 等人 187 为来自浅层卷积层的信息提出了合适的过滤器,使其在与更深层或多层组合相比时达到相同的鲁棒性水平。
RNN 也提供了一种智能方法来解决跟踪任务中的时间一致性问题。Milan 等人 188 使用基于 LSTM 的分类器来跟踪跨多帧时间的代理。与 CNN 方法相比,基于 LSTM 的方法更适合在对象离开或重新进入场景可见区域时移除并重新插入候选观测。联合感知和跟踪可以在这两个任务中实现 SOTA 结果。实际上,稳定跟踪可以降低系统对实时检测的要求,并且也能纠正检测结果。目前,联合任务学习的策略正受到越来越多研究人员的青睐。
第三节. 规划
规划模块负责为自车的低层控制器寻找一个可供跟踪的局部轨迹。
规划模块负责为自车的低层控制器寻找可跟踪的局部轨迹。此处,“局部”意味着产生的轨迹在空间或时间范围内较短;否则,自车无法对传感器范围之外的风险做出反应。规划模块通常包含三个功能,即全局路径规划、局部行为规划和局部轨迹规划 189。全局路径规划在全局地图上提供从起点到目的地的道路级路径;局部行为规划决定接下来数秒的驾驶动作类型(例如,跟车、轻推、侧道通过、让行和超车),而局部轨迹规划根据决定的行为类型生成短期轨迹。本节回顾了规划模块中与这三个功能相关的技术,如图5所示。
图 5. 规划方法论的结构.
A. 全球路线规划
全局路线规划负责在道路网络中寻找最佳道路级路径,该网络以包含数百万条边和节点的有向图形式呈现。路线规划器在有向图中搜索,找到连接起点和终点节点的最小成本序列。此处的成本根据查询时间、预处理复杂度、内存占用以及/或所考虑的解决方案鲁棒性来定义。
全局路线规划技术的发展历史远长于自动驾驶技术的发展历史,因为全局路线规划同时服务于人工驾驶车辆。如 190 所示,现有的全局路线规划方法可分为目标导向方法、分离器方法、层次方法、有限跳数方法及其组合。
B. 本地行为/轨迹规划
本地行为规划和本地轨迹规划功能协同工作,沿已识别的全局路线输出本地轨迹,如图 6 所示。由于生成的轨迹是本地的,除非全局目的地不远,否则这两个功能必须采用递退式(receding-horizon)方式实现 191。值得强调的是,这两个功能的输出应为轨迹而非路径 192,否则自车需要付出额外努力以躲避环境中的移动障碍物。
图 6. 本地行为规划的路线段.
大体而言,这两个功能有两种不同的工作方式。其一是端到端方式,即开发一个集成系统,直接接收车载传感器的原始数据并输出本地轨迹。其二是顺序实现本地行为规划和本地轨迹规划功能。
1) 端到端方法:
与下文讨论的基于顺序规划的方案相比,端到端方案在理论上更有效地处理车辆与环境的交互,因为感知模块和规划模块之间不存在外部空隙 193。端到端系统的输入是从车载传感器获取的大量原始数据,而输出则是一条局部轨迹。由于输入与输出之间的关系过于复杂,无法用完整规则进行概括 194,因此常常采用机器学习方法,其中大多数被归类为模仿学习型和强化学习型方法 195。
基于模仿学习的方法构建一个神经网络,训练样本来自 196、197。挑战在于如何收集大量一致的训练样本,以及如何保证学习效率(例如避免过拟合)。基于强化学习的方法通过试错操作获得知识,因此它们对外部训练样本的质量和数量依赖较少 198。
端到端方法尚未成熟,因此大多数在仿真环境中进行训练/测试,而非真实世界场景。近期研究重点关注如何提升学习的可解释性、安全性和效率。
2) 基于顺序规划的方法:
与前述的端到端方案相反,过去十年中,先后执行局部行为规划与轨迹规划功能已成为一种常见且传统的选择。然而,局部行为规划与轨迹规划之间的界限相当模糊 199,例如,一些行为规划器的功能不仅仅是识别行为类型。为了便于理解,本文不严格区分这两种功能,而是将相关方法简单视为轨迹规划方法。
理论上,轨迹规划通过求解最优控制问题(OCP)来完成,该问题最小化一个预定义的代价函数,并满足多种硬约束 200。OCP 的解以时间连续的控制和状态曲线呈现,其中期望轨迹由状态曲线(部分)体现。由于此类 OCP 的解析解通常不可得,构建轨迹需要两类操作。
具体而言,第一类操作是识别一系列状态网格,而第二类操作是生成相邻状态网格之间的基元。
a) 状态网格识别:
状态网格识别可以通过搜索、选择、优化或势能最小化来完成。基于搜索的方法将与上述 OCP 相关的连续状态空间抽象为图,并在其中寻找状态链。常见的基于搜索的方法包括 A* search 201 和 dynamic programming (DP) 202。基于选择的方法通过寻找具有最佳成本/奖励函数值的候选者,在接下来的一步或数步内决定状态网格。Greedy selection 203 和 Markov decision process (MDP) 系列方法通常 204 属于此类。一种基于优化的方法将原始 OCP 离散化为一个数学规划 (MP),其解为高分辨率状态网格 205、206。MP 求解器进一步分为基于梯度的和非梯度的;基于梯度的求解器通常求解非线性规划 207、208、二次规划 209、210、二次约束二次规划 211 或混合整数规划 212;非梯度求解器通常由元启发式 213 表示。基于势能最小化的方法通过模拟被排斥或吸引的力或在启发式势场中进行过程来调整状态网格位置。此类中常见的方法包括弹带 (EB) 系列 214、人工势场方法 215 和力平衡模型 216。
每种状态网格识别方法的能力不同。例如,基于梯度优化和基于势能最小化的方法通常比典型的搜索/选择方法更灵活、更稳定 217,但搜索/选择方法在全局探索整个状态空间方面更高效 218、219、220。不同的方法可以联合组合为粗到细的策略,许多研究已实现此类做法,例如 221、222、223、224。
b) 原始生成:
原语生成通常采用闭式规则、仿真、插值和优化。闭式规则指通过具有闭式解的解析方法生成原语的方法。典型方法包括 Dubins/Reeds-Shepp 曲线 225、多项式 226,以及理论最优控制方法 227。基于仿真的方法通过前向仿真生成轨迹/路径原语,由于其无自由度 228,运行速度很快。基于插值的方法以样条或参数化多项式为代表。基于优化的方法数值求解小规模的 OCP,以连接两状态网格 229。
状态网格识别和原语生成是构建轨迹的两个必要操作。 这两种操作可以以多种方式组织。例如,Kuwata 等人 230 将两者集成在迭代循环中;Rufli 与 Siegwart 231 在在线状态网格识别之前离线构建了原语图;Fan 等人 232 在生成连接原语之前识别了状态网格。
如果规划器仅找到路径而非轨迹,则应在规划路径后处理时为其附加时间曲线 233。这种策略,被称为路径速度分解(PVD),已被广泛使用,因为它将 3-D 问题转化为两个 2-D 问题,极大地方便了解决过程。相反,非 PVD 方法直接规划轨迹,具有提升解最优性的根本优势 234、235、236。
近期在该研究领域的工作包括如何开发适用于特定场景/任务的专用规划器,尤其是 237,以及如何在上游/下游模块不完善的情况下规划安全轨迹 238。
SECTION IV. 结论
本文是我们工作第三部分(技术调查的第二部分)。在本文中,我们提供了关于 AD 与 IV 感知与规划研究发展的广泛介绍,并列出了相关里程碑。除此之外,我们还给出了针对这两项任务的实验结果和独特观点。与另外两部分相结合,我们期望整套工作能为研究者和新人提供新颖多样的洞见,并架起过去与未来之间的桥梁。
参考文献
[1] L. Chen, “自主驾驶与智能车辆的里程碑:综述综述,” IEEE Trans. Intell. Veh., vol. 8, no. 2, pp. 1046–1056, Feb. 2023. IEEE: https://ieeexplore.ieee.org/document/9963987 Google Scholar
[2] L. Chen, “自主驾驶与智能车辆的里程碑——第1部分:控制、计算系统设计、通信、高清地图、测试与人类行为,” IEEE Trans. Syst., Man, Cybern., Syst., early access, May 29, 2023, doi: 10.1109/TSMC.2023.3276218. IEEE: https://ieeexplore.ieee.org/document/10138317 Google Scholar
[3] S. Kuutti, S. Fallah, K. Katsaros, M. Dianati, F. Mccullough, and A. Mouzakitis, “关于最先进定位技术及其在自动驾驶车辆应用潜力的综述,” IEEE Internet Things J., vol. 5, no. 2, pp. 829–846, Apr. 2018. IEEE: https://ieeexplore.ieee.org/document/8306879 Google Scholar
[4] T. T. O. Takleh, N. A. Bakar, S. A. Rahman, R. Hamzah, and Z. Aziz, “关于自动驾驶车辆中 SLAM 方法的简要综述,” Int. J. Eng. Technol., vol. 7, no. 4, pp. 38–43, 2018. DOI: https://doi.org/10.14419/ijet.v7i4.27.22477 Google Scholar
[5] S. Chen, B. Liu, C. Feng, C. Vallespi-Gonzalez, and C. Wellington, “3D 点云处理与学习在自动驾驶中的应用:影响地图创建、定位与感知,” IEEE Signal Process. Mag., vol. 38, no. 1, pp. 68–86, Jan. 2021. IEEE: https://ieeexplore.ieee.org/document/9307334 Google Scholar
[6] C. Gentner, T. Jost, W. Wang, S. Zhang, A. Dammann, and U.-C. Fiebig, “多路径辅助定位与同时定位与地图构建,” IEEE Trans. Wireless Commun., vol. 15, no. 9, pp. 6104–6117, Sep. 2016. IEEE: https://ieeexplore.ieee.org/document/7487067 Google Scholar
[7] J. Zhang and S. Singh, “LOAM:实时激光雷达里程计与地图构建,” Robot. Sci. Syst., vol. 2, no. 9, pp. 1–9, 2014. DOI: https://doi.org/10.15607/RSS.2014.X.007 Google Scholar
[8] S. Thrun, “同步定位与地图构建,” in Robotics and Cognitive Approaches to Spatial Mapping. Heidelberg, Germany : Springer, 2007, pp. 13–41. Google Scholar
[9] C. Forster, M. Pizzoli, and D. Scaramuzza, “SVO:快速半直接单目视觉里程计,” in Proc. IEEE Int. Conf. Robot. Autom. (ICRA), 2014, pp. 15–22. IEEE: https://ieeexplore.ieee.org/document/6906584 Google Scholar
[10] R. Mur-Artal, J. M. M. Montiel, and J. D. Tardos, “ORB-SLAM:一种多功能且精确的单目SLAM系统,” IEEE Trans. Robot., vol. 31, no. 5, pp. 1147–1163, Oct. 2015. IEEE: https://ieeexplore.ieee.org/document/7219438 Google Scholar
[11] R. Wang, M. Schworer, and D. Cremers, “Stereo DSO:大规模直接稀疏视觉里程计(带立体摄像头),” in Proc. IEEE Int. Conf. Comput. Vis., 2017, pp. 3903–3911. IEEE: https://ieeexplore.ieee.org/document/8237683 Google Scholar
[12] T. Pire, T. Fischer, G. Castro, P. De Cristóforis, J. Civera, and J. J. Berlles, “S-PTAM:立体并行跟踪与地图构建,” Robot. Auton. Syst., vol. 93, pp. 27–42, Jun. 2017. DOI: https://doi.org/10.1016/j.robot.2017.03.019 Google Scholar
[13] A. J. Davison, I. D. Reid, N. D. Molton, and O. Stasse, “MonoSLAM:实时单摄像头SLAM,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 29, no. 6, pp. 1052–1067, Jun. 2007. IEEE: https://ieeexplore.ieee.org/document/4160954 Google Scholar
[14] J. Engel, T. Schöps, and D. Cremers, “LSD-SLAM:大规模直接单目SLAM,” in Proc. 13th Eur. Conf. Comput. Vis. (ECCV), Zurich, Switzerland, Sep. 2014, pp. 834–849. DOI: https://doi.org/10.1007/978-3-319-10605-2_54 Google Scholar
[15] J. Engel, V. Koltun, and D. Cremers, “直接稀疏里程计,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 40, no. 3, pp. 611–625, Mar. 2018. IEEE: https://ieeexplore.ieee.org/document/7898369 Google Scholar
[16] C. Forster, M. Pizzoli, and D. Scaramuzza, “SVO:快速半直接单目视觉里程计,” in Proc. IEEE Int. Conf. Robot. Autom. (ICRA), 2014, pp. 15–22. IEEE: https://ieeexplore.ieee.org/document/6906584 Google Scholar
[17] R. A. Newcombe, S. J. Lovegrove, and A. J. Davison, “DTAM:实时密集跟踪与建图,” in Proc. IEEE Int. Conf. Comput. Vis., 2011, pp. 2320–2327. IEEE: https://ieeexplore.ieee.org/document/6126513 Google Scholar
[18] J. Zhang and S. Singh, “LOAM:LiDAR实时里程计与建图,” in Robot. Sci. Syst., vol. 2, no. 9, pp. 1–9, 2014. DOI: https://doi.org/10.15607/RSS.2014.X.007 Google Scholar
[19] T. Shan and B. J. Englot, “LeGO-LOAM:轻量化且地面优化的LiDAR实时里程计与建图,” in Proc. IEEE/RSJ Int. Conf. Intell. Robots Syst. (IROS), 2018, pp. 4758–4765. IEEE: https://ieeexplore.ieee.org/document/8594299 Google Scholar
[20] J. Behley and C. Stachniss, “Efficient surfel-based SLAM 使用 3D 激光测距数据在城市环境中,” in Proc. Robot. Sci. Syst., vol. 2018, Jun. 2018, p. 59. DOI: https://doi.org/10.15607/RSS.2018.XIV.016 Google Scholar
[21] R. Dubé, A. Cramariuc, D. Dugas, J. Nieto, R. Siegwart, and C. Cadena, “SegMap:使用数据驱动描述符的 3D 段映射,” 2018, arXiv:1804.09557. DOI: https://doi.org/10.15607/RSS.2018.XIV.003 Google Scholar
[22] G. Chevrin, S. Changey, M. Rebert, D. Monnin, and J.-P. Lauffenburger, “使用 MSF-EKF 在 KITTI 数据集上进行视觉-惯性融合,” in Proc. 17th Int. Conf. Control Autom. Robot. Vis. (ICARCV), 2022, pp. 35–40. IEEE: https://ieeexplore.ieee.org/document/10004344 Google Scholar
[23] S. Leutenegger, S. Lynen, M. Bosse, R. Siegwart, and P. Furgale, “基于关键帧的视觉-惯性里程计,使用非线性优化,” Int. J. Robot. Res., vol. 34, no. 3, pp. 314–334, 2015. DOI: https://doi.org/10.1177/0278364914554813 Google Scholar
[24] T. Qin, P. Li, and S. Shen, “VINS-mono:一个鲁棒且多功能的单目视觉-惯性状态估计器,” IEEE Trans. Robot., vol. 34, no. 4, pp. 1004–1020, Aug. 2018. IEEE: https://ieeexplore.ieee.org/document/8421746 Google Scholar
[25] H. Ye, Y. Chen, and M. Liu, “紧耦合的 3D LiDAR 惯性里程计与建图,” in Proc. Int. Conf. Robot. Autom. (ICRA), 2019, pp. 3144–3150. IEEE: https://ieeexplore.ieee.org/document/8793511 Google Scholar
[26] S. Zhao, Z. Fang, H. Li, and S. Scherer, “一种鲁棒的激光-惯性里程计与地图构建方法,适用于大规模高速公路环境”, in Proc. IEEE/RSJ Int. Conf. Intell. Robots Syst. (IROS), 2019, pp. 1285–1292. IEEE: https://ieeexplore.ieee.org/document/8967880 Google Scholar
[27] C. Qin, H. Ye, C. E. Pranata, J. Han, S. Zhang, and M. Liu, “LINS:一种用于鲁棒高效导航的激光雷达-惯性状态估计器”, in Proc. IEEE Int. Conf. Robot. Autom. (ICRA), 2020, pp. 8899–8906. IEEE: https://ieeexplore.ieee.org/document/9197567 Google Scholar
[28] T. Shan, B. Englot, D. Meyers, W. Wang, C. Ratti, and D. Rus, “LIO-SAM:通过平滑与映射实现的紧耦合激光雷达惯性里程计”, in Proc. IEEE/RSJ Int. Conf. Intell. Robots Syst. (IROS), 2020, pp. 5135–5142. IEEE: https://ieeexplore.ieee.org/document/9341176 Google Scholar
[29] J. Zhang and S. Singh, “视觉-激光雷达里程计与地图构建:低漂移、鲁棒且快速”, in Proc. IEEE Int. Conf. Robot. Autom. (ICRA), 2015, pp. 2174–2181. IEEE: https://ieeexplore.ieee.org/document/7139486 Google Scholar
[30] J. Graeter, A. Wilczynski, and M. Lauer, “LIMO:激光雷达单目视觉里程计”, in Proc. IEEE/RSJ Int. Conf. Intell. Robots Syst. (IROS), 2018, pp. 7872–7879. IEEE: https://ieeexplore.ieee.org/document/8594394 Google Scholar
[31] W. Shao, S. Vijayarangan, C. Li, and G. Kantor, “立体视觉惯性激光雷达同时定位与地图构建”, in Proc. IEEE/RSJ Int. Conf. Intell. Robots Syst. (IROS), 2019, pp. 370–377. IEEE: https://ieeexplore.ieee.org/document/8968012 Google Scholar
[32] M. S. A. Khan, S. S. Chowdhury, N. Niloy, F. T. Z. Aurin, and T. Ahmed, “基于声纳的SLAM:使用占用网格映射与死推算”, in Proc. IEEE Region Conf. (TENCON), 2018, pp. 1707–1712. IEEE: https://ieeexplore.ieee.org/document/8650124 Google Scholar
[33] Z. Hong, Y. Petillot, A. Wallace, and S. Wang, “雷达SLAM:一种适用于所有天气条件的鲁棒SLAM系统”, 2021, arXiv:2104.05347. Google Scholar
[34] J. Ma, K. Zhang, and J. Jiang, “通过局部保持匹配与全局共识实现环路闭合检测”, IEEE/CAA J. Automatica Sinica, vol. 10, no. 2, pp. 411–426, Feb. 2023. IEEE: https://ieeexplore.ieee.org/document/9878292 Google Scholar
[35] R. K. Satzoda, S. Sathyanarayana, T. Srikanthan, and S. Sathyanarayana, “层次化加法 Hough 变换用于车道检测,” IEEE Embedded Syst. Lett., vol. 2, no. 2, pp. 23–26, Jun. 2010. IEEE: https://ieeexplore.ieee.org/document/5473062 Google Scholar
[36] R. Laxhammar, G. Falkman, and E. Sviestins, “海上交通异常检测——高斯混合模型与核密度估计器的比较,” in Proc. IEEE 12th Int. Conf. Inf. Fusion, 2009, pp. 756–763. Google Scholar
[37] A. S. Huang, D. Moore, M. Antone, E. Olson, and S. Teller, “利用视觉与 LiDAR 在城市道路网络中寻找多车道,” Auton. Robots, vol. 26, no. 2, pp. 103–122, 2009. DOI: https://doi.org/10.1007/s10514-009-9113-3 Google Scholar
[38] A. Borkar, M. Hayes, and M. T. Smith, “使用 RANSAC 与卡尔曼滤波器的鲁棒车道检测与跟踪,” in Proc. 16th IEEE Int. Conf. Image Process. (ICIP), 2009, pp. 3261–3264. IEEE: https://ieeexplore.ieee.org/document/5413980 Google Scholar
[39] L. Liu, X. Chen, S. Zhu, and P. Tan, “CondLaneNet:基于条件卷积的自顶向下车道检测框架,” in Proc. IEEE/CVF Int. Conf. Comput. Vis., 2021, pp. 3773–3782. IEEE: https://ieeexplore.ieee.org/document/9710369 Google Scholar
[40] F. Yan, “ONCE-3DLanes:构建单目 3D 车道检测,” in Proc. IEEE/CVF Conf. Comput. Vis. Pattern Recognit., 2022, pp. 17143–17152. IEEE: https://ieeexplore.ieee.org/document/9878762 Google Scholar
[41] Q. Li, L. Chen, M. Li, S.-L. Shaw, and A. Nüchter, “一种用于在挑战性路况下实现自动驾驶车辆导航的传感器融合行驶区域与车道检测系统,” IEEE Trans. Veh. Technol., vol. 63, no. 2, pp. 540–555, Feb. 2014. IEEE: https://ieeexplore.ieee.org/document/6594920 Google Scholar
[42] C. Guo, S. Mita, and D. McAllester, “利用单应性估计和坐标下降优化的高效信念传播实现可行驶道路区域检测,” in Proc. IEEE Intell. Veh. Symp., 2009, pp. 317–323. IEEE: https://ieeexplore.ieee.org/document/5164297 Google Scholar
[43] Q. Li, L. Chen, M. Li, S.-L. Shaw, and A. Nüchter, “用于在复杂道路场景中进行自动驾驶车辆导航的传感器融合可行驶区域与车道检测系统,” IEEE Trans. Veh. Technol., vol. 63, no. 2, pp. 540–555, Feb. 2013. IEEE: https://ieeexplore.ieee.org/document/6594920 Google Scholar
[44] H. Xue, “基于LiDAR的自动驾驶可行驶区域检测,” in Proc. IEEE/RSJ Int. Conf. Intell. Robots Syst. (IROS), 2021, pp. 1110–1116. IEEE: https://ieeexplore.ieee.org/document/9636289 Google Scholar
[45] D. Qiao and F. Zulkernine, “使用深度学习模型进行自动驾驶可行驶区域检测,” in Proc. IEEE Int. Conf. Big Data (Big Data), 2021, pp. 5233–5238. IEEE: https://ieeexplore.ieee.org/document/9671392 Google Scholar
[46] S. Maldonado-Bascón, S. Lafuente-Arroyo, P. Gil-Jimenez, H. Gómez-Moreno, and F. López-Ferreras, “基于支持向量机的道路标志检测与识别,” IEEE Trans. Intell. Transp. Syst., vol. 8, no. 2, pp. 264–278, Jun. 2007. IEEE: https://ieeexplore.ieee.org/document/4220659 Google Scholar
[47] S. Houben, “一种单目标投票方案用于交通标志检测,” in Proc. IEEE Intell. Veh. Symp. (IV), 2011, pp. 124–129. IEEE: https://ieeexplore.ieee.org/document/5940429 Google Scholar
[48] M. Á. García-Garrido, M. Á. Sotelo, and E. Martín-Gorostiza, “使用霍夫变换的高速道路标志检测,用于道路车辆辅助驾驶,” in Proc. Int. Conf. Comput.-Aided Syst. Theory, 2005, pp. 543–548. DOI: https://doi.org/10.1007/11556985_71 Google Scholar
[49] M. Boumediene, C. Cudel, M. Basset, and A. Ouamri, “基于RSLD算法的三角形交通标志检测,” Mach. Vis. Appl., vol. 24, no. 8, pp. 1721–1732, 2013. DOI: https://doi.org/10.1007/s00138-013-0540-y Google Scholar
[50] Z. Huang, Y. Yu, J. Gu, and H. Liu, “基于极限学习机的高效交通标志识别方法,” IEEE Trans. Cybern., vol. 47, no. 4, pp. 920–933, Apr. 2017. IEEE: https://ieeexplore.ieee.org/document/7433451 Google Scholar
[51] J. Zhang, Z. Xie, J. Sun, X. Zou, and J. Wang, “一种带多尺度注意力与不平衡样本的级联R-CNN用于交通标志检测,” IEEE Access, vol. 8, pp. 29742–29754, 2020. IEEE: https://ieeexplore.ieee.org/document/8986614 Google Scholar
[52] J. Zhang, M. Huang, X. Jin, and X. Li, “基于改进 YOLOv2 的实时中文交通标志检测算法,” Algorithms, vol. 10, no. 4, p. 127, 2017. DOI: https://doi.org/10.3390/a10040127 Google Scholar
[53] S. Ren, K. He, R. Girshick, and J. Sun, “Faster R-CNN:面向实时目标检测的区域建议网络,” in Proc. Adv. Neural Inf. Process. Syst., vol. 28, 2015, pp. 91–99. IEEE: https://ieeexplore.ieee.org/document/7485869 Google Scholar
[54] Y. Chen, L. Tai, K. Sun, and M. Li, “MonoPair:利用成对空间关系进行单目三维目标检测,” in Proc. IEEE/CVF Conf. Comput. Vis. Pattern Recognit., 2020, pp. 12093–12102. IEEE: https://ieeexplore.ieee.org/document/9157373 Google Scholar
[55] X. Zhou, Y. Peng, C. Long, F. Ren, and C. Shi, “MONET3D:实现实时精确单目三维目标定位,” in Proc. Int. Conf. Mach. Learn., 2020, pp. 11503–11512. Google Scholar
[56] B. Li, W. Ouyang, L. Sheng, X. Zeng, and X. Wang, “GS3D:用于自动驾驶的高效三维目标检测框架,” in Proc. IEEE/CVF Conf. Comput. Vis. Pattern Recognit., 2019, pp. 1019–1028. IEEE: https://ieeexplore.ieee.org/document/8954005 Google Scholar
[57] C. Reading, A. Harakeh, J. Chae, and S. L. Waslander, “用于单目三维目标检测的分类深度分布网络,” in Proc. IEEE/CVF Conf. Comput. Vis. Pattern Recognit., 2021, pp. 8555–8564. IEEE: https://ieeexplore.ieee.org/document/9578221 Google Scholar
[58] L. Wang, “用于单目三维目标检测的深度条件动态信息传播,” in Proc. IEEE/CVF Conf. Comput. Vis. Pattern Recognit., 2021, pp. 454–463. IEEE: https://ieeexplore.ieee.org/document/9578315 Google Scholar
[59] G. Brazil, G. Pons-Moll, X. Liu, and B. Schiele, “单目视频中的运动学三维目标检测,” in Proc. Eur. Conf. Comput. Vis., 2020, pp. 135–152. DOI: https://doi.org/10.1007/978-3-030-58592-1_9 Google Scholar
[60] P. Li, X. Chen, and S. Shen, “基于立体 R-CNN 的自动驾驶三维目标检测,” in Proc. IEEE/CVF Conf. Comput. Vis. Pattern Recognit., 2019, pp. 7644–7652. IEEE: https://ieeexplore.ieee.org/document/8953542 Google Scholar
[61] A. D. Pon, J. Ku, C. Li, and S. L. Waslander, “以目标为中心的立体匹配用于 3D 目标检测,” in Proc. IEEE Int. Conf. Robot. Autom. (ICRA), 2020, pp. 8383–8389. IEEE: https://ieeexplore.ieee.org/document/9196660 Google Scholar
[62] Y. Liu, L. Wang, and M. Liu, “YOLOStereo3D:回到 2D 以实现高效的立体 3D 检测,” in Proc. IEEE Int. Conf. Robot. Autom. (ICRA), 2021, pp. 13018–13024. IEEE: https://ieeexplore.ieee.org/document/9561423 Google Scholar
[63] J. Sun, “DISP R-CNN:通过形状先验引导的实例视差估计实现立体 3D 目标检测,” in Proc. IEEE/CVF Conf. Comput. Vis. Pattern Recognit., 2020, pp. 10548–10557. IEEE: https://ieeexplore.ieee.org/document/9157344 Google Scholar
[64] C. R. Qi, H. Su, K. Mo, and L. J. Guibas, “PointNet:基于点集的深度学习,用于 3D 分类与分割,” in Proc. IEEE Conf. Comput. Vis. Pattern Recognit., 2017, pp. 652–660. Google Scholar
[65] C. R. Qi, L. Yi, H. Su, and L. J. Guibas, “PointNet++:在度量空间中对点集进行深层次层次特征学习,” in Proc. Adv. Neural Inf. Process. Syst., vol. 30, 2017, pp. 5099–5108. Google Scholar
[66] Y. Zhou and O. Tuzel, “VoxelNet:面向点云的端到端 3D 目标检测学习,” in Proc. IEEE Conf. Comput. Vis. Pattern Recognit., 2018, pp. 4490–4499. IEEE: https://ieeexplore.ieee.org/document/8578570 Google Scholar
[67] A. H. Lang, S. Vora, H. Caesar, L. Zhou, J. Yang, and O. Beijbom, “PointPillars:用于点云目标检测的快速编码器,” in Proc. IEEE/CVF Conf. Comput. Vis. Pattern Recognit., 2019, pp. 12697–12705. IEEE: https://ieeexplore.ieee.org/document/8954311 Google Scholar
[68] S. Shi, X. Wang, and H. Li, “PointRCNN:基于点云的 3D 目标提议生成与检测,” in Proc. IEEE/CVF Conf. Comput. Vis. Pattern Recognit., 2019, pp. 770–779. IEEE: https://ieeexplore.ieee.org/document/8954080 Google Scholar
[69] S. Shi, “PV-RCNN:用于 3D 目标检测的点-体素特征集合抽象,” in Proc. IEEE/CVF Conf. Comput. Vis. Pattern Recognit., 2020, pp. 10529–10538. IEEE: https://ieeexplore.ieee.org/document/9157234 Google Scholar
[70] C. R. Qi, O. Litany, K. He, and L. J. Guibas, “用于点云中3D物体检测的深度霍夫投票,” in Proc. IEEE/CVF Int. Conf. Comput. Vis., 2019, pp. 9277–9286. IEEE: https://ieeexplore.ieee.org/document/9008567 Google Scholar
[71] H. Zhu, “VPFNet: 通过基于虚拟点的LiDAR和立体数据融合提升3D物体检测,” IEEE Trans. Multimedia, early access, Jul. 11, 2022, doi: 10.1109/TMM.2022.3189778. DOI: https://doi.org/10.1109/TMM.2022.3189778 Google Scholar
[72] A. Mahmoud, J. S. Hu, and S. L. Waslander, “用于3D物体检测的稠密体素融合,” in Proc. IEEE/CVF Winter Conf. Appl. Comput. Vis., 2023, pp. 663–672. IEEE: https://ieeexplore.ieee.org/document/10030866 Google Scholar
[73] S. Pang, D. Morris, and H. Radha, “CLOCs: 摄像头-激光雷达物体候选融合用于3D物体检测,” in Proc. IEEE/RSJ Int. Conf. Intell. Robots Syst. (IROS), 2020, pp. 10386–10393. IEEE: https://ieeexplore.ieee.org/document/9341791 Google Scholar
[74] Z. Wang and K. Jia, “Frustum Convnet: 滑动截头体以聚合局部逐点特征用于全模态3D物体检测,” in Proc. IEEE/RSJ Int. Conf. Intell. Robots Syst. (IROS), 2019, pp. 1742–1749. IEEE: https://ieeexplore.ieee.org/document/8968513 Google Scholar
[75] C. R. Qi, W. Liu, C. Wu, H. Su, and L. J. Guibas, “Frustum PointNets: 基于RGB-D数据的3D物体检测,” in Proc. IEEE Conf. Comput. Vis. Pattern Recognit., 2018, pp. 918–927. IEEE: https://ieeexplore.ieee.org/document/8578200 Google Scholar
[76] J. Ku, M. Mozifian, J. Lee, A. Harakeh, and S. L. Waslander, “基于视图聚合的联合3D提议生成与物体检测,” in Proc. IEEE/RSJ Int. Conf. Intell. Robots Syst. (IROS), 2018, pp. 1–8. IEEE: https://ieeexplore.ieee.org/document/8594049 Google Scholar
[77] X. Chen, H. Ma, J. Wan, B. Li, and T. Xia, “用于自动驾驶的多视角3D物体检测网络,” in Proc. IEEE Conf. Comput. Vis. Pattern Recognit., 2017, pp. 1907–1915. IEEE: https://ieeexplore.ieee.org/document/8100174 Google Scholar
[78] R. Zhang, “MonoDETR: 用于单目3D物体检测的深度感知变换器,” 2022, arXiv:2203.13310. Google Scholar
[79] K.-C. Huang, T.-H. Wu, H.-T. Su, 和 W. H. Hsu, “MonoDTR:基于单目深度感知变换器的3D目标检测”,发表于 Proc. IEEE/CVF Conf. Comput. Vis. Pattern Recognit., 2022, pp. 4012–4021。IEEE: https://ieeexplore.ieee.org/document/9879433 Google Scholar
[80] M. Liang, B. Yang, S. Wang, 和 R. Urtasun, “用于多传感器3D目标检测的深度连续融合”,发表于 Proc. Eur. Conf. Comput. Vis. (ECCV), 2018, pp. 641–656。DOI: https://doi.org/10.1007/978-3-030-01270-0_39 Google Scholar
[81] M. Liang, B. Yang, Y. Chen, R. Hu, 和 R. Urtasun, “面向3D目标检测的多任务多传感器融合”,发表于 Proc. IEEE/CVF Conf. Comput. Vis. Pattern Recognit., 2019, pp. 7345–7353。IEEE: https://ieeexplore.ieee.org/document/8954034 Google Scholar
[82] J. H. Yoo, Y. Kim, J. Kim, 和 J. W. Choi, “3D-CVF:使用跨视角空间特征融合生成联合摄像头和激光雷达特征,用于3D目标检测”,发表于 Proc. Eur. Conf. Comput. Vis., 2020, pp. 720–736。DOI: https://doi.org/10.1007/978-3-030-58583-9_43 Google Scholar
[83] T. Huang, Z. Liu, X. Chen, 和 X. Bai, “EPNet:通过图像语义增强点特征以用于3D目标检测”,发表于 Proc. Eur. Conf. Comput. Vis., 2020, pp. 35–52。DOI: https://doi.org/10.1007/978-3-030-58555-6_3 Google Scholar
[84] S. Vora, A. H. Lang, B. Helou, 和 O. Beijbom, “PointPainting:用于3D目标检测的序列融合”,发表于 Proc. IEEE/CVF Conf. Comput. Vis. Pattern Recognit., 2020, pp. 4604–4612。IEEE: https://ieeexplore.ieee.org/document/9156790 Google Scholar
[85] A. Geiger, P. Lenz, 和 R. Urtasun, “我们是否已为自动驾驶做好准备?kitti视觉基准套件”,发表于 Proc. IEEE Conf. Comput. Vis. Pattern Recognit., 2012, pp. 3354–3361。IEEE: https://ieeexplore.ieee.org/document/6248074 Google Scholar
[86] S. Chadwick, W. Maddern, 和 P. Newman, “使用雷达和视觉进行远程车辆检测”,发表于 Proc. IEEE Int. Conf. Robot. Autom. (ICRA), 2019, pp. 8311–8317。IEEE: https://ieeexplore.ieee.org/document/8794312 Google Scholar
[87] F. Nobis, M. Geisslinger, M. Weber, J. Betz, 和 M. Lienkamp, “基于深度学习的雷达与摄像头传感器融合架构用于目标检测”,发表于 Proc. IEEE Sensor Data Fusion Trends Solutions Appl. (SDF), 2019, pp. 1–7。IEEE: https://ieeexplore.ieee.org/document/8916629 Google Scholar
[88] E. Hayashi, “RadarNet:利用微型雷达传感器的高效手势识别技术,”在 Proc. CHI Conf. Human Factors Comput. Syst., 2021, pp. 1–14. DOI: https://doi.org/10.1145/3411764.3445367 Google Scholar
[89] K. Qian, S. Zhu, X. Zhang, and L. E. Li, “雾天使用互补激光雷达与雷达信号的鲁棒多模态车辆检测,”在 Proc. IEEE/CVF Conf. Comput. Vis. Pattern Recognit., 2021, pp. 444–453. IEEE: https://ieeexplore.ieee.org/document/9578621 Google Scholar
[90] Y.-J. Li, J. Park, M. O’Toole, and K. Kitani, “雷达-激光雷达融合车辆检测的无模态学习,”在 Proc. IEEE/CVF Conf. Comput. Vis. Pattern Recognit., 2022, pp. 918–927. IEEE: https://ieeexplore.ieee.org/document/9879704 Google Scholar
[91] L. Wang, T. Chen, C. Anklam, and B. Goldluecke, “基于相机、激光雷达和雷达的高维视锥 PointNet 用于 3D 目标检测,”在 Proc. IEEE Intell. Veh. Symp. (IV), 2020, pp. 1621–1628. IEEE: https://ieeexplore.ieee.org/document/9304655 Google Scholar
[92] F. Nobis, E. Shafiei, P. Karle, J. Betz, and M. Lienkamp, “雷达体素融合用于 3D 目标检测,”Appl. Sci., vol. 11, no. 12, p. 5598, 2021. DOI: https://doi.org/10.3390/app11125598 Google Scholar
[93] H. Caesar, V. Bankiti, A. H. Lang, S. Vora, and O. Beijbom, “nuScenes:用于自动驾驶的多模态数据集,”在 Proc. IEEE Conf. Comput. Vis. Pattern Recognit., 2020, pp. 1–11. IEEE: https://ieeexplore.ieee.org/document/9156412 Google Scholar
[94] M. Everingham, L. Van Gool, C. K. Williams, J. Winn, and A. Zisserman, “Pascal 视觉目标类别(VOC)挑战,”Int. J. Comput. Vis., vol. 88, no. 2, pp. 303–338, 2010. DOI: https://doi.org/10.1007/s11263-009-0275-4 Google Scholar
[95] S. Ettinger, “大规模交互式运动预测用于自动驾驶:Waymo 开放运动数据集,”在 Proc. IEEE/CVF Int. Conf. Comput. Vis., 2021, pp. 9710–9719. IEEE: https://ieeexplore.ieee.org/document/9709630 Google Scholar
[96] D. Feng, “用于自动驾驶的深度多模态目标检测与语义分割:数据集、方法与挑战,”IEEE Trans. Intell. Transp. Syst., vol. 22, no. 3, pp. 1341–1360, Mar. 2021. IEEE: https://ieeexplore.ieee.org/document/9000872 Google Scholar
[97] B. Zhou, “通过 ADE20K 数据集实现场景语义理解,” Int. J. Comput. Vis., vol. 127, no. 3, pp. 302–321, 2019. DOI: https://doi.org/10.1007/s11263-018-1140-0 Google Scholar
[98] M. Cordts, “用于语义化城市场景理解的 Cityscapes 数据集,” in Proc. IEEE Conf. Comput. Vis. Pattern Recognit., 2016, pp. 3213–3223. IEEE: https://ieeexplore.ieee.org/document/7780719 Google Scholar
[99] J. Long, E. Shelhamer, and T. Darrell, “用于语义分割的全卷积网络,” in Proc. IEEE Conf. Comput. Vis. Pattern Recognit., 2015, pp. 3431–3440. IEEE: https://ieeexplore.ieee.org/document/7298965 Google Scholar
[100] V. Badrinarayanan, A. Kendall, and R. Cipolla, “SegNet:一种用于图像分割的深度卷积编码-解码架构,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 39, no. 12, pp. 2481–2495, Dec. 2017. IEEE: https://ieeexplore.ieee.org/document/7803544 Google Scholar
[101] F. Yu and V. Koltun, “通过空洞卷积实现多尺度上下文聚合,” 2015, arXiv:1511.07122. Google Scholar
[102] L.-C. Chen, G. Papandreou, I. Kokkinos, K. Murphy, and A. L. Yuille, “基于深度卷积网络和全连接 CRF 的语义图像分割,” 2014, arXiv:1412.7062. Google Scholar
[103] L.-C. Chen, G. Papandreou, I. Kokkinos, K. Murphy, and A. L. Yuille, “DeepLab:基于深度卷积网络、空洞卷积和全连接 CRF 的语义图像分割,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 40, no. 4, pp. 834–848, Apr. 2018. IEEE: https://ieeexplore.ieee.org/document/7913730 Google Scholar
[104] Y. Yuan, X. Chen, and J. Wang, “用于语义分割的对象上下文表示,” in Proc. Eur. Conf. Comput. Vis., 2020, pp. 173–190. DOI: https://doi.org/10.1007/978-3-030-58539-6_11 Google Scholar
[105] O. Ronneberger, P. Fischer, and T. Brox, “U-Net:用于生物医学图像分割的卷积网络,” in Proc. Int. Conf. Med. Image Comput. Assist. Intervent., 2015, pp. 234–241. DOI: https://doi.org/10.1007/978-3-319-24574-4_28 Google Scholar
[106] A. Tao, K. Sapra, and B. Catanzaro, “用于语义分割的层次化多尺度注意力,” 2020, arXiv:2005.10821. Google Scholar
[107] S. Borse, Y. Wang, Y. Zhang, and F. Porikli, “InverseForm:一种用于结构化边界感知分割的损失函数,” in Proc. IEEE/CVF Conf. Comput. Vis. Pattern Recognit., 2021, pp. 5901–5911. IEEE: https://ieeexplore.ieee.org/document/9578107 Google Scholar
[108] Y. Cai, L. Dai, H. Wang, and Z. Li, “多目标泛类本征相关驱动模型,用于提升自动驾驶中的语义分割,” IEEE Trans. Image Process., vol. 30, pp. 9069–9084, 2021. IEEE: https://ieeexplore.ieee.org/document/9592716 Google Scholar
[109] H. Wang, Y. Zhu, B. Green, H. Adam, A. Yuille, and L.-C. Chen, “Axial-DeepLab:用于全景分割的独立轴向注意力,” in Proc. Eur. Conf. Comput. Vis., 2020, pp. 108–126. DOI: https://doi.org/10.1007/978-3-030-58548-8_7 Google Scholar
[110] J. Li, A. Raventos, A. Bhargava, T. Tagawa, and A. Gaidon, “学习融合对象与场景,” 2018, arXiv:1812.01192. Google Scholar
[111] S. Aich, J. M. U. Vianney, M. A. Islam, and M. K. B. Liu, “双向注意网络用于单目深度估计,” in Proc. IEEE Int. Conf. Robot. Autom. (ICRA), 2021, pp. 11746–11752. IEEE: https://ieeexplore.ieee.org/document/9560885 Google Scholar
[112] J. H. Lee, M.-K. Han, D. W. Ko, and I. H. Suh, “从大到小:多尺度局部平面引导单目深度估计,” 2019, arXiv:1907.10326. Google Scholar
[113] M. Ochs, A. Kretz, and R. Mester, “SDNet:语义引导的深度估计网络,” in Proc. German Conf. Pattern Recognit., 2019, pp. 288–302. DOI: https://doi.org/10.1007/978-3-030-33676-9_20 Google Scholar
[114] L. Liebel and M. Körner, “MultiDepth:通过多任务回归与分类实现单幅图像深度估计,” in Proc. IEEE Intell. Transp. Syst. Conf. (ITSC), 2019, pp. 1440–1447. IEEE: https://ieeexplore.ieee.org/document/8917177 Google Scholar
[115] K. He, G. Gkioxari, P. Dollár, and R. Girshick, “Mask R-CNN,” 见 IEEE 国际计算机视觉会议论文集, 2017, pp. 2961–2969。 IEEE: https://ieeexplore.ieee.org/document/8237584 Google Scholar
[116] W. Xu, H. Wang, F. Qi, and C. Lu, “实时实例分割的显式形状编码,” in Proc. IEEE/CVF Int. Conf. Comput. Vis., 2019, pp. 5168–5177. IEEE: https://ieeexplore.ieee.org/document/9010340 Google Scholar
[117] H. Chen, K. Sun, Z. Tian, C. Shen, Y. Huang, and Y. Yan, “BlendMask:自顶向下与自底向上相结合的实例分割”,发表于 Proc. IEEE/CVF Conf. Comput. Vis. Pattern Recognit., 2020, pp. 8573–8581. IEEE: https://ieeexplore.ieee.org/document/9156939 Google Scholar
[118] X. Wang, R. Zhang, T. Kong, L. Li, and C. Shen, “SoLOv2:动态且快速的实例分割”,发表于 Proc. Adv. Neural Inf. Process. Syst., vol. 33, 2020, pp. 17721–17732. Google Scholar
[119] J. Liang, N. Homayounfar, W.-C. Ma, Y. Xiong, R. Hu, and R. Urtasun, “PolyTransform:深度多边形变换器用于实例分割”,发表于 Proc. IEEE/CVF Conf. Comput. Vis. Pattern Recognit., 2020, pp. 9131–9140. IEEE: https://ieeexplore.ieee.org/document/9156537 Google Scholar
[120] C. Tang, H. Chen, X. Li, J. Li, Z. Zhang, and X. Hu, “更近视角更好分割:边界块细化用于实例分割”,发表于 Proc. IEEE/CVF Conf. Comput. Vis. Pattern Recognit., 2021, pp. 13926–13935. IEEE: https://ieeexplore.ieee.org/document/9578031 Google Scholar
[121] L.-C. Chen, H. Wang, and S. Qiao, “扩大宽残差网络用于全景分割”, 2020, arXiv:2011.11675. Google Scholar
[122] L.-C. Chen, “Naive-student:在视频序列中利用半监督学习进行城市场景分割”,发表于 Proc. Eur. Conf. Comput. Vis., 2020, pp. 695–714. DOI: https://doi.org/10.1007/978-3-030-58545-7_40 Google Scholar
[123] A. Kirillov, K. He, R. Girshick, C. Rother, and P. Dollár, “全景分割”,发表于 Proc. IEEE/CVF Conf. Comput. Vis. Pattern Recognit., 2019, pp. 9404–9413. IEEE: https://ieeexplore.ieee.org/document/8953237 Google Scholar
[124] A. Kirillov, R. Girshick, K. He, and P. Dollár, “全景特征金字塔网络”,发表于 Proc. IEEE/CVF Conf. Comput. Vis. Pattern Recognit., 2019, pp. 6399–6408. IEEE: https://ieeexplore.ieee.org/document/8954091 Google Scholar
[125] Y. Li, “完全卷积网络用于全景分割”,发表于 Proc. IEEE/CVF Conf. Comput. Vis. Pattern Recognit., 2021, pp. 214–223. IEEE: https://ieeexplore.ieee.org/document/9578199 Google Scholar
[126] Z. Li, “Panoptic SegFormer: 深入研究使用变压器的全景分割”, in Proc. IEEE/CVF Conf. Comput. Vis. Pattern Recognit., 2022, pp. 1280–1289. IEEE: https://ieeexplore.ieee.org/document/9878498 Google Scholar
[127] L. Porzi, S. R. Bulo, and P. Kontschieder, “在所有尺度下改进全景分割”, in Proc. IEEE/CVF Conf. Comput. Vis. Pattern Recognit., 2021, pp. 7302–7311. IEEE: https://ieeexplore.ieee.org/document/9578541 Google Scholar
[128] G. Neuhold, T. Ollmann, S. R. Bulo, and P. Kontschieder, “用于街景语义理解的 Mapillary Vistas 数据集”, in Proc. IEEE Int. Conf. Comput. Vis., 2017, pp. 4990–4999. IEEE: https://ieeexplore.ieee.org/document/8237796 Google Scholar
[129] J. Uhrig, N. Schneider, L. Schneider, U. Franke, T. Brox, and A. Geiger, “稀疏性不变 CNN”, in Proc. Int. Conf. 3D Vis. (3DV), 2017, pp. 11–20. IEEE: https://ieeexplore.ieee.org/document/8374553 Google Scholar
[130] W. Zhuo, M. Salzmann, X. He, and M. Liu, “单幅图像深度估计的室内场景结构分析”, in Proc. IEEE Conf. Comput. Vis. Pattern Recognit., 2015, pp. 614–622. Google Scholar
[131] Y. Kuznietsov, J. Stuckler, and B. Leibe, “用于单目深度图预测的半监督深度学习”, in Proc. IEEE Conf. Comput. Vis. Pattern Recognit., 2017, pp. 6647–6655. IEEE: https://ieeexplore.ieee.org/document/8099721 Google Scholar
[132] J. M. U. Vianney, S. Aich, and B. Liu, “RefinedMPL: 用于自动驾驶中 3D 目标检测的改进单目伪点云”, 2019, arXiv:1911.09712. Google Scholar
[133] J. Flynn, I. Neulander, J. Philbin, and N. Snavely, “DeepStereo: 学习从世界图像预测新视角”, in Proc. IEEE Conf. Comput. Vis. Pattern Recognit., 2016, pp. 5515–5524. Google Scholar
[134] D. Xu, E. Ricci, W. Ouyang, X. Wang, and N. Sebe, “多尺度连续 CRFs 作为序列深度网络用于单目深度估计”, in Proc. IEEE Conf. Comput. Vis. Pattern Recognit., 2017, pp. 5354–5362. IEEE: https://ieeexplore.ieee.org/document/8099508 Google Scholar
[135] D. Xu, W. Ouyang, X. Wang, and N. Sebe, “PAD-Net: 多任务引导的预测与蒸馏网络,用于同时深度估计和场景解析,” in Proc. IEEE Conf. Comput. Vis. Pattern Recognit., 2018, pp. 675–684. IEEE: https://ieeexplore.ieee.org/document/8578175 Google Scholar
[136] N. Silberman, D. Hoiem, P. Kohli, and R. Fergus, “室内分割与基于RGBD图像的支持推断,” in Proc. Eur. Conf. Comput. Vis., 2012, pp. 746–760. DOI: https://doi.org/10.1007/978-3-642-33715-4_54 Google Scholar
[137] H. Fu, M. Gong, C. Wang, K. Batmanghelich, and D. Tao, “用于单目深度估计的深度序数回归网络,” in Proc. IEEE Conf. Comput. Vis. Pattern Recognit., 2018, pp. 2002–2011. IEEE: https://ieeexplore.ieee.org/document/8578312 Google Scholar
[138] Z. Zhang, C. Xu, J. Yang, Y. Tai, and L. Chen, “用于端到端深度估计的深度分层指导与正则化学习,” Pattern Recognit., vol. 83, pp. 430–442, Nov. 2018. DOI: https://doi.org/10.1016/j.patcog.2018.05.016 Google Scholar
[139] W. Yin, Y. Liu, C. Shen, and Y. Yan, “通过虚拟法向量的几何约束来进行深度预测,” in Proc. IEEE/CVF Int. Conf. Comput. Vis., 2019, pp. 5684–5693. IEEE: https://ieeexplore.ieee.org/document/9010407 Google Scholar
[140] C. Godard, O. M. Aodha, M. Firman, and G. J. Brostow, “深入自监督单目深度估计,” in Proc. IEEE/CVF Int. Conf. Comput. Vis., 2019, pp. 3828–3838. IEEE: https://ieeexplore.ieee.org/document/9009796 Google Scholar
[141] Z. Li, Z. Chen, X. Liu, and J. Jiang, “DepthFormer:利用长距离相关性和局部信息实现准确的单目深度估计,” 2022, arXiv:2203.14211. Google Scholar
[142] A. Dosovitskiy, “FlowNet:使用卷积网络学习光流,” in Proc. IEEE Int. Conf. Comput. Vis., 2015, pp. 2758–2766. IEEE: https://ieeexplore.ieee.org/document/7410673 Google Scholar
[143] A. Ranjan and M. J. Black, “使用空间金字塔网络进行光流估计,” in Proc. IEEE Conf. Comput. Vis. Pattern Recognit., 2017, pp. 4161–4170. IEEE: https://ieeexplore.ieee.org/document/8099774 Google Scholar
[144] D. Sun, X. Yang, M.-Y. Liu, and J. Kautz, “PWC-Net: CNNs for optical flow using pyramid, warping, and cost volume,” 在 IEEE 计算机视觉与模式识别会议 2018, pp. 8934–8943. IEEE: https://ieeexplore.ieee.org/document/8579029 Google Scholar
[145] W.-C. Ma, S. Wang, R. Hu, Y. Xiong, and R. Urtasun, “Deep rigid instance scene flow,” 在 IEEE/CVF 计算机视觉与模式识别会议 2019, pp. 3614–3622. IEEE: https://ieeexplore.ieee.org/document/8953879 Google Scholar
[146] Y. Zou, Z. Luo, and J.-B. Huang, “DF-Net: Unsupervised joint learning of depth and flow using cross-task consistency,” 在 欧洲计算机视觉会议 (ECCV) 2018, pp. 36–53. DOI: https://doi.org/10.1007/978-3-030-01228-1_3 Google Scholar
[147] A. Ranjan, “Competitive collaboration: Joint unsupervised learning of depth, camera motion, optical flow and motion segmentation,” 在 IEEE/CVF 计算机视觉与模式识别会议 2019, pp. 12240–12249. IEEE: https://ieeexplore.ieee.org/document/8953778 Google Scholar
[148] Z. Yin and J. Shi, “GeoNet: Unsupervised learning of dense depth, optical flow and camera pose,” 在 IEEE 计算机视觉与模式识别会议 2018, pp. 1983–1992. IEEE: https://ieeexplore.ieee.org/document/8578310 Google Scholar
[149] N. Lee, W. Choi, P. Vernaza, C. B. Choy, P. H. Torr, and M. Chandraker, “Desire: Distant future prediction in dynamic scenes with interacting agents,” 在 IEEE 计算机视觉与模式识别会议 2017, pp. 336–345. IEEE: https://ieeexplore.ieee.org/document/8099716 Google Scholar
[150] Y. Hu, W. Zhan, and M. Tomizuka, “Probabilistic prediction of vehicle semantic intention and motion,” 在 IEEE 智能车辆研讨会 (IV) 2018, pp. 307–313. IEEE: https://ieeexplore.ieee.org/document/8500419 Google Scholar
[151] W. Luo, B. Yang, and R. Urtasun, “Fast and furious: Real time end-to-end 3D detection, tracking and motion forecasting with a single convolutional net,” 在 IEEE 计算机视觉与模式识别会议 2018, pp. 3569–3577. IEEE: https://ieeexplore.ieee.org/document/8578474 Google Scholar
[152] G. Guo and S. Zhao, “3D multi-object tracking with adaptive cubature Kalman filter for autonomous driving,” IEEE Trans. Intell. Veh., vol.8, no. 1, pp. 512–519, 2023 年 1 月. IEEE: https://ieeexplore.ieee.org/document/9732665 Google Scholar
[153] M. Bahramgiri, S. Nooshabadi, K. Olutomilayo, and D. Fuhrmann, “基于汽车雷达的牵引器回转角跟踪技术用于拖车倒车辅助系统,” IEEE Trans. Intell. Veh., vol. 8, no. 2, pp. 1922–1933, Feb. 2023. IEEE: https://ieeexplore.ieee.org/document/9693108 Google Scholar
[154] H. Lv, C. Liu, X. Zhao, C. Xu, Z. Cui, and J. Yang, “从置信区检测到场景推断的车道标记回归,” IEEE Trans. Intell. Veh., vol. 6, no. 1, pp. 47–56, Mar. 2021. IEEE: https://ieeexplore.ieee.org/document/9141486 Google Scholar
[155] T. Yan, Z. Xu, and S. X. Yang, “利用分布式仿生滑模控制实现多无人水下航行器系统的共识形成控制,” IEEE Trans. Intell. Veh., vol. 8, no. 2, pp. 1081–1092, Feb. 2023. IEEE: https://ieeexplore.ieee.org/document/9779067 Google Scholar
[156] Y. Zhu, C. Li, J. Tang, and B. Luo, “面向鲁棒 RGB-T 跟踪的质量感知特征聚合网络,” IEEE Trans. Intell. Veh., vol. 6, no. 1, pp. 121–130, Mar. 2021. IEEE: https://ieeexplore.ieee.org/document/9035457 Google Scholar
[157] J. E. Hoffmann, H. G. Tosso, M. M. D. Santos, J. F. Justo, A. W. Malik, and A. U. Rahman, “用于自动驾驶的实时自适应目标检测与跟踪,” IEEE Trans. Intell. Veh., vol. 6, no. 3, pp. 450–459, Sep. 2021. IEEE: https://ieeexplore.ieee.org/document/9259200 Google Scholar
[158] A. Milan, S. H. Rezatofighi, A. Dick, I. Reid, and K. Schindler, “使用循环神经网络的在线多目标跟踪,” in Proc. AAAI Conf. Artif. Intell., vol. 31, Feb. 2017, pp. 4225–4232. DOI: https://doi.org/10.1609/aaai.v31i1.11194 Google Scholar
[159] B. Paden, M. Čáp, S. Z. Yong, D. Yershov, and E. Frazzoli, “关于自动驾驶城市车辆运动规划与控制技术的综述,” IEEE Trans. Intell. Veh., vol. 1, no. 1, pp. 33–55, Mar. 2016. IEEE: https://ieeexplore.ieee.org/document/7490340 Google Scholar
[160] H. Bast, “交通网络中的路线规划,” in Algorithm Engineering. Cham, Switzerland : Springer, 2016, pp. 19–80. DOI: https://doi.org/10.1007/978-3-319-49487-6_2 Google Scholar
[161] B. Li, Z. Yin, Y. Ouyang, Y. Zhang, X. Zhong, and S. Tang, “在线轨迹再规划以应对自动泊车期间突发环境变化:并行拼接方法,” IEEE Trans. Intell. Veh., vol. 7, no. 3, pp. 748–757, Sep. 2022. IEEE: https://ieeexplore.ieee.org/document/9729517 Google Scholar
[162] Y. Huang, “基于人工势场的扩展阻力网络方法的自动驾驶车辆运动规划与跟踪框架,” IEEE Trans. Ind. Electron., vol. 67, no. 2, pp. 1376–1386, Feb. 2019. IEEE: https://ieeexplore.ieee.org/document/8643096 Google Scholar
[163] S. Teng, “自动驾驶的运动规划:现状与未来展望,” IEEE Trans. Intell. Veh., early access. IEEE: https://ieeexplore.ieee.org/document/10122127 Google Scholar
[164] M. Montemerlo, “Junior:斯坦福在城市挑战赛中的参赛方案,” J. Field Robot., vol. 25, no. 9, pp. 569–597, 2008. DOI: https://doi.org/10.1002/rob.20258 Google Scholar
[165] G. C. Y. Liu and X. Hu, “基于视觉感知的端到端自动驾驶运动规划综述,” J. Field Robot., vol. 25, no. 9, pp. 569–597, 2008. Google Scholar
[166] E. Rehder, J. Quehl, and C. Stiller, “像人类一样驾驶:使用卷积神经网络的模仿学习路径规划,” in Proc. Int. Conf. Robot. Autom. Workshops, 2017, pp. 1–5. Google Scholar
[167] S. Teng, L. Chen, Y. Ai, Y. Zhou, Z. Xuanyuan, and X. Hu, “用于端到端自动驾驶的层次可解释模仿学习,” IEEE Trans. Intell. Veh., vol. 8, no. 1, pp. 673–683, Jan. 2023. IEEE: https://ieeexplore.ieee.org/document/9965619 Google Scholar
[168] X. Zhang, Y. Jiang, Y. Lu, and X. Xu, “一种适用于自动驾驶车辆的可收敛地平线强化学习方法用于运动规划,” IEEE Trans. Intell. Veh., vol. 7, no. 3, pp. 556–568, Sep. 2022. IEEE: https://ieeexplore.ieee.org/document/9756946 Google Scholar
[169] B. Li, “基于优化的自动泊车轨迹规划,处理不规则障碍物:轻量化迭代框架,” IEEE Trans. Intell. Transp. Syst., vol. 23, no. 8, pp. 11970–11981, Aug. 2022. IEEE: https://ieeexplore.ieee.org/document/9531561 Google Scholar
[170] D. Fassbender, B. C. Heinrich, 和 H.-J. Wuensche, “高度受限城市环境下的自动驾驶车辆运动规划,”发表于 Proc. IEEE/RSJ Int. Conf. Intell. Robots Syst. (IROS),2016,pp. 4708–4713。IEEE: https://ieeexplore.ieee.org/document/7759692 Google Scholar
[171] W. Xu, J. Pan, J. Wei, 和 J. M. Dolan, “在道路上不确定性下的自动驾驶运动规划,”发表于 Proc. IEEE Int. Conf. Robot. Autom. (ICRA),2014,pp. 2507–2512。IEEE: https://ieeexplore.ieee.org/document/6907209 Google Scholar
[172] X. Li, Z. Sun, D. Cao, Z. He, 和 Q. Zhu, “实时轨迹规划用于自动化城市驾驶:框架、算法与验证,”IEEE/ASME Trans. Mechatronics,vol. 21,no. 2,pp. 740–753,Apr. 2016。IEEE: https://ieeexplore.ieee.org/document/7303933 Google Scholar
[173] H. Bai, S. Cai, N. Ye, D. Hsu, 和 W. S. Lee, “面向意图的在线POMDP规划用于拥挤环境中的自动驾驶,”发表于 Proc. IEEE Int. Conf. Robot. Autom. (ICRA),2015,pp. 454–460。IEEE: https://ieeexplore.ieee.org/document/7139219 Google Scholar
[174] K. Kondak 和 G. Hommel, “非全向移动平台自动泊车的时间最优运动计算,”发表于 Proc. IEEE Int. Conf. Robot. Autom. (ICRA),vol. 3,2001,pp. 2698–2703。IEEE: https://ieeexplore.ieee.org/document/933030 Google Scholar
[175] B. Li, Y. Ouyang, L. Li, 和 Y. Zhang, “不依赖弗里尼特框架的曲线路段自动驾驶:基于笛卡尔坐标的轨迹规划方法,”IEEE Trans. Intell. Transp. Syst.,vol. 23,no. 9,pp. 15729–15741,Sep. 2022。IEEE: https://ieeexplore.ieee.org/document/9703250 Google Scholar
[176] H. Fan, “百度 Apollo 运动规划器,”2018,arXiv:1807.08048。 Google Scholar
[177] P. Scheffe, T. M. Henneken, M. Kloock, 和 B. Alrifaee, “用于自动驾驶车辆比赛中实时最优轨迹规划的序列凸规划方法,”IEEE Trans. Intell. Veh.,vol. 8,no. 1,pp. 661–672,Jan. 2023。IEEE: https://ieeexplore.ieee.org/document/9760138 Google Scholar
[178] W. Lim, S. Lee, M. Sunwoo, and K. Jo, “基于采样与优化方法集成的自动驾驶汽车分层轨迹规划,” IEEE Trans. Intell. Transp. Syst., vol. 19, no. 2, pp. 613–626, Feb. 2018. IEEE: https://ieeexplore.ieee.org/document/8242694 Google Scholar
[179] C. Miller, C. Pek, and M. Althoff, “面向纵向与横向运动规划的高效混合整数规划,” in Proc. IEEE Intell. Veh. Symp. (IV), 2018, pp. 1954–1961. IEEE: https://ieeexplore.ieee.org/document/8500394 Google Scholar
[180] L. Claussmann, M. Revilloud, and S. Glaser, “利用模拟退火优化的高速公路无人驾驶非碰撞常模间隔内轨迹规划,” in Proc. Int. Conf. Robot. Autom. (ICRA), 2019, pp. 5922–5928. IEEE: https://ieeexplore.ieee.org/document/8793838 Google Scholar
[181] C. Rösmann, F. Hoffmann, and T. Bertram, “在独特拓扑中集成的在线轨迹规划与优化,” Robot. Auton. Syst., vol. 88, pp. 142–153, Feb. 2017. DOI: https://doi.org/10.1016/j.robot.2016.11.007 Google Scholar
[182] T. Gu, J. Atwood, C. Dong, J. M. Dolan, and J.-W. Lee, “可调节且稳定的城市无人驾驶实时轨迹规划,” in Proc. IEEE/RSJ Int. Conf. Intell. Robots Syst. (IROS), 2015, pp. 250–256. Google Scholar
[183] D. Le, Z. Liu, J. Jin, K. Zhang, and B. Zhang, “基于模型预测轨迹优化的历史改进最优运动规划用于车道内无人驾驶车辆,” in Proc. IEEE 45th Annu. Conf. Ind. Electron. Soc. (IECON), vol. 1, 2019, pp. 5223–5230. IEEE: https://ieeexplore.ieee.org/document/8927189 Google Scholar
[184] J. Park, S. Karumanchi, and K. Iagnemma, “基于同伦的分治策略,通过混合整数规划实现最优轨迹规划,” IEEE Trans. Robot., vol. 31, no. 5, pp. 1101–1115, Oct. 2015. IEEE: https://ieeexplore.ieee.org/document/7182335 Google Scholar
[185] J. Ziegler, P. Bender, T. Dang, and C. Stiller, “bertha 的轨迹规划—一种局部连续方法,” in Proc. IEEE Intell. Veh. Symp. Process., 2014, pp. 450–457. IEEE: https://ieeexplore.ieee.org/document/6856581 Google Scholar
[186] J. A. Reeds and L. A. Shepp, “适用于可以前进和倒退的车辆的最优路径,” Amer. J. Math., vol. 145, no. 2, pp. 367–393, 1990. DOI: https://doi.org/10.2140/pjm.1990.145.367 Google Scholar
[187] W. N. Patten, H. C. Wu, and W. Cai, “通过Pontryagin原理实现完美平行泊车,” J. Dyn. Syst. Meas. Control, vol. 116, no. 4, pp. 723–728, 1994. DOI: https://doi.org/10.1115/1.2899271 Google Scholar
[188] Y. Kuwata, S. Karaman, J. Teo, E. Frazzoli, J. P. How, and G. Fiore, “具有自主城市驾驶应用的实时运动规划,” IEEE Trans. Control Syst. Technol., vol. 17, no. 5, pp. 1105–1118, Sep. 2009. IEEE: https://ieeexplore.ieee.org/document/5175292 Google Scholar
[189] M. Rufli and R. Siegwart, “关于可变形输入/状态晶格图的设计,” in Proc. IEEE Int. Conf. Robot. Autom., 2010, pp. 3071–3077. IEEE: https://ieeexplore.ieee.org/document/5509350 Google Scholar
[190] K. Bergman, O. Ljungqvist, and D. Axehill, “通过紧密结合基于晶格的路径规划和最优控制来改进路径规划,” IEEE Trans. Intell. Veh., vol. 6, no. 1, pp. 57–66, Mar. 2021. IEEE: https://ieeexplore.ieee.org/document/9084267 Google Scholar
[191] M. McNaughton, C. Urmson, J. M. Dolan, and J.-W. Lee, “使用共形时空晶格进行自主驾驶的运动规划,” in Proc. IEEE Int. Conf. Robot. Autom., 2011, pp. 4889–4895. IEEE: https://ieeexplore.ieee.org/document/5980223 Google Scholar
[192] L. Ma, J. Xue, K. Kawabata, J. Zhu, C. Ma, and N. Zheng, “用于道路上自主驾驶的高效基于采样的运动规划,” IEEE Trans. Intell. Transp. Syst., vol. 16, no. 4, pp. 1961–1976, Aug. 2015. IEEE: https://ieeexplore.ieee.org/document/7042261 Google Scholar
[193] C. Pek and M. Althoff, “使用凸优化进行在线验证的自主车辆失效安全运动规划,” IEEE Trans. Robot., vol. 37, no. 3, pp. 798–814, Jun. 2021. IEEE: https://ieeexplore.ieee.org/document/9302873 Google Scholar