自动驾驶实时定位技术详解

智驾最前沿 2023-07-07 08:02

--关注、星标、回复“大模型”--

↓↓免费领取:大模型赋能自动驾驶研究↓↓

摘要

实时、准确和鲁棒的定位对于自动驾驶汽车(AVs)实现安全、高效驾驶至关重要,而实时性能对于AVs及时实现其当前位置以进行决策至关重要。迄今为止,没有一篇综述文章定量比较了基于各种硬件平台和编程语言的不同定位技术之间的实时性能,并分析了定位方法、实时性能和准确性之间的关系。因此,本文讨论了最先进的定位技术,并分析了它们在AV应用中的整体性能。

欢迎关注「智驾最前沿」微信视频号

为了进一步分析,本文首先提出了一种基于定位算法操作能力(LAOC)的等效比较方法,以比较不同定位技术的相对计算复杂性;然后,全面讨论了方法论、计算复杂性和准确性之间的关系。分析结果表明,定位方法的计算复杂性最大相差约107倍,而精度相差约100倍。与基于激光雷达的定位相比,基于视觉和数据融合的定位技术在提高精度方面的潜力约为2–5倍。基于激光雷达和视觉的定位可以通过提高图像配准方法的效率来降低计算复杂性。
与基于激光雷达和视觉的定位相比,基于数据融合的定位可以实现更好的实时性能,因为每个独立传感器不需要开发复杂的算法来实现其最佳定位潜力。V2X技术可以提高定位鲁棒性。最后,讨论了基于定量比较结果的AVs定位的潜在解决方案和未来方向。


介绍

自动驾驶车辆(AVs)有望在未来的智能交通系统中发挥关键作用,因为它们在确保安全驾驶、缓解交通压力和降低能耗方面具有潜力。目前对AVs的研究已进入道路测试阶段。例如,百度已经在复杂的道路场景中测试了Apollo 5.0系统,例如没有特殊标记的弯道或十字路口[1]。谷歌Waymo项目也在美国公共道路上完成了1000多万英里的路测,并在模拟中完成了70亿英里的路测[2]。
然而,在AVs商业化之前,该行业仍需要应对几个关键挑战。这些挑战包括a)提出实时、准确和低成本的自定位解决方案;b)实现实时和准确的环境感知模型;c)在复杂场景中实现智能、安全和高效的决策。同时,环境感知和决策模块显著依赖于自动驾驶汽车的实时和准确的自定位,以实现安全驾驶。因此,自定位是AV的核心要素之一。此外,只有当自动定位达到毫秒级实时性能和厘米级精度时,才能确保安全驾驶,如避免碰撞[3]。
作为一种典型的方法,地图匹配算法广泛应用于许多配备激光雷达[4]、雷达[5]、相机[6]或V2X[7]的定位解决方案中。地图匹配方法之一是使用现有地图来匹配检测到的环境特征(例如,拐角和道路标记),从而获得车辆位置信息。另一种技术是在应用程序中使用的SLAM,无需先验地图。它通过同时构建用于顺序映射的环境模型(地图)来实现车辆定位。地图算法主要关注从各种传感器提取的抽象数据,如激光雷达、雷达、相机或它们的组合。在基于传感器的定位技术方面,它依靠车载传感器来估计车量车辆的绝对或相对位置。之前的综述对其进行了详细讨论[8]。
在许多基于传感器的定位研究中,“传感器”被视为主要的定位传感器,作者试图探索一种主要基于其测量的创新方法,旨在解决某些特殊场景中的定位挑战。这并不意味着定位系统仅使用单个传感器来实现车辆定位。作为解释这一概念的示例,对于基于IMU的定位,参考文献[9]提出了一种交互多模型(IMM)方法,通过使用IMU和里程计传感器数据来消除由全球定位系统(GPS)中断或GPS信号块引起的系统漂移,从而提高了此类驾驶场景中的定位鲁棒性和完整性性能。基于传感器的定位技术可以指导AV定位系统的部署,包括如何选择能够满足实时性能的传感器、定位算法、融合算法和计算资源。
此外,关注定位输入(传感器硬件)可以让读者更好地了解不同系统部署在准确性、实时性、鲁棒性和成本方面的优缺点。因此,本次调查将从车载传感器开始,讨论不同的基于传感器的定位技术,然后讨论V2X定位技术,最后讨论基于数据融合的定位。
图1显示了车辆不同自定位技术,包括车载传感器、V2X和基于数据融合的技术。基于车载传感器的定位系统,包括基于主动和被动传感器的技术,依靠车载传感器感知周围环境,然后估计车辆位置。基于V2X的定位方法与周围环境节点(例如,相邻车辆或基础设施)通信,以接收其位姿信息,包括基于车辆对车辆(V2V)和车辆对基础设施(V2I)的技术,这些技术可以为定位算法提供多个参考坐标。数据融合不是一种直接感测位置的方法,而是一种后处理定位感测技术。其目标是融合各种传感器的测量结果,以获得比单个传感器更好的结果。
基于主动传感器的定位通过车载传感器(包括激光雷达、雷达和超声波传感器)主动感知周围环境以估计车辆位置。它们的测距原理是相同的,这是基于到达时间(TOA)方法的。它们的区别在于信号载体,即激光雷达、雷达和超声波传感器的激光、无线电和超声波。信号载波波长的差异导致这些传感器的成本和精度的显著变化。例如,激光雷达通常成本最高,但精度最好,超声波[10]-[13]的情况正好相反。
基于被动传感器的定位被动地接收环境信息,从中计算车辆位置。传感器包括GPS、IMU和视觉(例如,单目或双目摄像机)。根据空间三角测量方法,GPS需要在开阔的天空区域中有三颗或更多的卫星来获取车辆位置(2–10m)。GPS的优点是成本低,但在城市环境中,它经常遭受多径和nonline-of-sight(NLOS)误差以及缓慢的位置更新率。IMU使用高频采样率(>100Hz)测量车辆加速度和转速。
因此,可以通过给定初始姿态的航位推算来推导车辆的位置和方向[14]。尽管IMU具有快速的位置刷新率和高可靠性,但它也容易出现大量累积错误。基于视觉的定位通过使用来自单目或双目相机的图像作为输入来估计车辆位置。这类似于根据平面三角测量确定障碍物位置的人类视觉系统。图像中丰富的环境信息可以在适当的照明条件下提供令人满意的定位性能,但消耗大量的内存和计算资源。
基于V2V的定位是指vehicular ad hoc network(VANET)下的自动驾驶车辆,使用专用短程通信(DSRC)或长期演进技术来确定其他车辆的位姿,从而提高车辆的位置精度。基于V2I的定位是指目标车辆和静态基础设施之间的通信,使用它们的精确已知位置来确定目标车辆位置。基础设施的类型包括磁性标记、射频识别(RFID)标签、路边单元(RSU)和GPS基站。基于V2X的定位具有广泛的全局感知范围(300m[15]),但可能会受到网络延迟和城市拥堵的影响。
已经发表了许多调查,总结了现有的自定位技术,并全面讨论了它们的优缺点以及每种基于传感器的方法的潜在应用。然而,在评估各种定位方法时,最新的综述文件仅关注以下方面:
  • a) 经济和可靠的定位技术[8],其中经济对应于定位系统的成本,可靠对应于定位性能(包括准确性和可靠性),这些技术可以在各种驾驶场景(例如,下雪天气)中实现;
  • b) 准确度、可靠性和可用性[16],其中与定位系统相对应的可用性应在不同环境中可用,例如隧道中基于GPS的定位系统,在通信延迟的情况下的V2V方法;
  • c) 鲁棒性和可扩展性[17],[18],其中与定位系统相对应的鲁棒性在不同季节和交通条件下以低故障率长时间运行,可扩展性与车辆处理大规模自动驾驶的能力相对应。
自动定位的实时性能是评估AV安全驾驶的关键指标之一。上述调查还提到,研究人员在设计定位系统时应仔细考虑不同技术的计算负载和实时性能。然而,到目前为止,还没有调查对不同的自定位技术的实时性能进行比较和深入讨论。通过比较驾驶员行为对决策过程的反应时间[28]。论文进行了文献综述,以展示从感知障碍物到执行控制动作的时刻,AV行为的反应时间,如表I所示。根据计算机模拟和实际测试,为了满足安全驾驶,AV的整个决策过程的反应时间通常缩短至0.5s。然而,在极端情况下,检测和识别模块、规划和决策模块以及执行模块将占用近0.5秒,这导致为定位模块预留的执行时间非常有限。
因此,快速实时定位解决方案可以为AV系统的其他模块(如决策)节省计算资源,以实施复杂的策略以确保安全驾驶。目前,在各种硬件平台和编程语言上呈现了不同定位解决方案的实时性能。直接使用每个自定位研究论文提供的数据来比较实时性能没有意义,也不能反映AV中内存和计算资源的相对消耗。也没有调查对同一基准下各种定位解决方案的计算复杂性进行量化,这与定位系统的实时性能和部署成本有关。本文旨在研究现有的最先进的定位技术,并着重于提出的每种解决方案的创新算法或方法,以及在实时性能、准确性和鲁棒性方面的整体定位性能;提出一种等效方法,定量比较基于各种硬件平台和编程语言的不同定位解决方案之间的相对实时性能;最后总结现有的定位技术,并基于AV中的定量比较结果讨论潜在的解决方案和未来方向。表II总结了论文的调查与最近现有调查之间的关系和差异。


基于主动传感器的定位

基于激光雷达的定位

基于激光雷达的定位通常需要预先构建参考地图,以与点云数据或激光雷达反射强度数据相匹配。但在没有先验地图的情况下,它将使用SLAM技术构建实时地图以与先前生成的地图匹配。在AVs的应用中,高维地图包含丰富的特征信息,这提高了位置估计精度,但降低了存储效率并增加了处理时间[29],[30]。
Im等人[31]基于城市道路两侧建筑物的垂直角建立了一维角地图,用于匹配和定位。他们使用迭代端点拟合来提取垂直角的特征,并根据垂直线的长度和方向构建角特征图。然后,他们应用特征匹配和点云数据来计算车辆位置。由于提取的特征信息较少,该方法减少了匹配时间和地图数据文件大小(约14KB/km)。然而,最大水平位置误差达到0.46m;此外,这种方法不适用于没有建筑物的地区。参考文献[32]构建了由基于道路标记的道路反射密集图和基于垂直结构的概率占用网格图组成的2D占用网格图。首先,他们通过提取道路标记和拐角的线条特征,构建了一个1D扩展线地图(ELM)。这些要素仅包含直线两个端点的纬度和经度信息。然后,他们将ELM转换为2D网格地图,以便在定位过程中进行匹配。与[31]相比,[32]增加了道路标记特征以提高准确性性能,但该方法将ELM数据大小增加到134KB/km。
用于激光雷达定位的二维平面地图匹配在当前的研究中非常流行。例如,Levinson等人[4]通过使用SLAM式松弛算法来构建没有任何潜在移动物体的平坦地面反射图,然后使用部分滤波器(PF)来关联激光雷达,从而获得车辆定位。为了进一步提高鲁棒性,参考文献[33]使用了表示为remittance values的高斯分布的概率图,而不是表示为固定infrared remittance values的先前地图。它使地图中的静止物体和一致的角反射率能够通过贝叶斯推断快速识别。然后使用离线SLAM来对齐先前序列地图中的重叠轨迹,这使得定位系统不断学习和改进地图。与参考文献[4]中的方法相比,参考文献[33]提高了动态城市环境中AV的定位精度和鲁棒性。然而,这两种方法的地图数据大小已增加到每英里10MB左右。其他相关算法[29]、[35]—[42]可以参考具体论文。
基于3D地图的匹配可以实现更准确的位置,因为它包含环境对象的高度信息。参考文献[43]通过提取道路标记特征构建了3D地图。然后,系统使用正态分布变换(NDT)来处理不确定信息,之后基于PF推导出鲁棒性和精确定位。然而,3D NDT方法可能需要大量内存来保存ND体素(用于匹配的3D ND体素总数高达100MB[30]),这导致定位时间与second level一样长[44]。Li等人[45]提出构建3D占用网格地图,然后使用混合过滤框架(即cubature Kalman filter和PF的组合)来计算大规模户外定位并减少地图数据大小。尽管数据量减少了,但实验表明,该方法可以保持稳定、可靠的定位性能,这意味着定位误差小于0.097m。

基于雷达的定位

与基于激光雷达和视觉的定位相比,基于雷达的定位可以满足实时性能要求,因为其内存效率高且计算负载低[46],[47]。然而,基于雷达的SLAM在地图匹配中面临数据配准错误的风险,因为有时会提取不真实的特征,从而导致定位精度低的风险[5]。面向轨迹的扩展卡尔曼滤波器(EKF)-SLAM技术使用傅里叶-梅林变换顺序配准雷达图像,并在不匹配特征的情况下计算车辆位置,以避免此类特征带来的风险。缺点是定位误差达到13m(平均值)[46]。
参考文献[48]旨在通过Levy过程扩展半马尔可夫链,以提高长期变化环境中的鲁棒性,83%的估计位置误差小于0.2m。对于雨雪情况,[49]通过对误差传播的不确定性进行建模,然后匹配雷达图像以实现可靠定位,从而建立了参考地图。参考文献[50]提出了一种聚类SLAM技术,该技术使用基于密度的流聚类算法对动态环境中的雷达信号进行聚类。提出了一种无测量噪声的环境扫描用于地图匹配。PF用于使用该匹配结果来计算车辆位置。该技术中使用的地图大小仅为200KB。
此外,参考文献[51]和[52]提出了一种基于空间和多普勒的联合优化框架,以进一步提高定位速度。该框架通过构建稀疏高斯混合模型来表达参考点云,该模型是一种稀疏概率密度函数,可以降低计算复杂性。该方法的定位刷新率可达17Hz。参考文献[47]使用相同道路的雷达扫描数据构建参考地图。然后,使用迭代最近点(ICP)来匹配雷达图像以估计车辆位置。最后,应用EKF平滑估计。由于所需的映射数据的大小较小,该技术减少了地图匹配的计算负载。然而,挑战在于需要从传感器的相同模型中获取最新数据,并从与参考相同的道路中获取样本,以进行匹配。
此外,参考文献[53]设计了一种车载定位探地雷达(LGPR)系统,以构建道路地下地图。该系统可以抵抗复杂天气的信号干扰,因为它的雷达安装在底盘下,用于扫描地面。此外,它可以实现高精度(RMSE为12.7cm)和出色的实时性能(~126Hz刷新率)。然而,作者还提到,LGPR阵列的高度需要进一步降低,以适应更多的乘用车。

基于超声波的定位

由于低成本的超声波传感器,基于超声波的定位被广泛用于室内机器人定位。然而,短的检测距离和对环境温度、湿度和灰尘的敏感性都限制了超声波传感器在AV定位中的广泛应用[54],[55]。Moussa等人[56]使用EKF算法实现了基于超声波的辅助导航解决方案。当GPS无法限制车辆位置的漂移并增强系统的鲁棒性时,该解决方案使用超声波传感器作为定位的主要传感器。它可以实现出色的实时性能(约92Hz刷新率),但位置误差高达7.11m。Jung等人[13]使用超声波传感器、编码器、陀螺仪和数字磁罗盘,以及SLAM方法来估计车辆的绝对位置。该方法的平均位置更新时间长达10.65s。此外,长时间的SLAM计算过程可能会导致定位系统在位置更新之前由IMU导致的一些累积误差。因此,能够满足位置精度要求的平均行驶距离仅约为5.2m。总之,基于超声的定位技术可以实现低成本和低功耗的定位系统。然而,它的定位精度和鲁棒性仍然不能满足自动驾驶的要求。

讨论

基于激光雷达的地图匹配技术中的准确和鲁棒的特征检测方法可以提高AV定位的准确性和鲁棒性[57]。总之,就基于激光雷达的1D地图匹配技术而言,由于该方法仅采用少数异形线作为特征,例如参考文献[31]和[32]中所示的垂直角,因此特征配准中的计算负载和内存使用量较低。
然而,这种方法需要解决路边没有垂直建筑物的情况下的挑战。与1D地图相比,2D地图包含丰富的特征类型,但增加了地图存储空间。基于强度的2D地图方法可以增强积雪路面场景中的道路表示。基于混合地图的算法可以减少内存使用,并解决实时性能和定位精度之间的权衡,例如参考文献[38]中所示的拓扑度量地图。基于3D地图的匹配算法可以获得受益于3D特征的准确和鲁棒的位置。
然而,与基于1D地图和2D地图的方法相比,它需要最大的计算资源,这将增加AV定位系统的部署成本。与基于高成本激光雷达的定位相比,雷达是一种经济高效的解决方案,但毫米波雷达获得的环境模型分辨率低,且缺乏物体高度信息,使得定位系统难以实现鲁棒性和准确性。目前,雷达被广泛用作辅助定位传感器,以检测车辆与障碍物之间的距离。超声波传感器的检测范围(约3m)决定了基于超声波的定位主要用于短距离定位应用,例如自动停车,其中几个参考目标位于近距离。


基于被动传感器的定位

基于GPS的定位

GPS可以为AV提供低成本、高效的定位解决方案。然而,GPS经常受到城市中NLOS、多径或信号阻塞的影响,所有这些都对提供可靠车辆定位的目标提出了挑战[58],[59]。
当前主流的基于GPS的定位通过位置校正技术提高了准确性和可靠性,包括融合来自不同来源的测量[60]、过滤异常信号[61]和地图辅助[62]。参考文献[63]通过融合来自其他来源(包括GPS、RFID和V2V)的测量结果,改进了基于GPS的定位。作者分析了不同数据源的准确性,并过滤掉了冗余连接。它们只保留具有期望精度的连接,以在GPS降级环境中实现鲁棒性要求。所提出方法的位置精度约为2.9m,计算复杂度约为[64]的0.8%。参考文献[61]提出了一种GPS异常信号识别处理框架,以提高基于GPS的定位的鲁棒性。该框架可以根据原始GPS的质量决定输出原始GPS、估计GPS或去除异常信号的GPS。与前两种技术不同,Lu等人[65]通过匹配低精度开源地图来提高GPS精度。然而,该方法的局限性在于难以提取道路交叉口中的车道标记特征。同时,[66]通过去除异常GPS信号并结合数字地图的地形高度辅助,提出了一种基于全球导航卫星系统(GNSS)的定位方法。参考文献[67]通过匹配NLOS信号延迟提高了GNSS精度。尽管如此,[66]和[67]的位置RMS误差在城市场景中仍高达约10m。总之,使用独立GPS接收机实现可靠、准确的车辆定位是困难的。

基于IMU的定

IMU是惯性导航系统(INS)的一个组件,可以测量加速度和俯仰率,并具有强大的抗干扰能力[68]。然而,由于累积误差的缺点,自动驾驶系统不能使用IMU计算长距离的位置。在这种情况下,IMU被广泛用作备用传感器或融合源之一,以确保主定位传感器短时中断时的连续定位[69]。
参考文献[70]提出使用基于航位推算(DR)的紧密耦合(TC)方案来提高城市中的精度性能。参考文献[71]使用具有异常GPS测量抑制的修正TC,以在GPS无效环境下实现连续定位。Wang等人[72]提出了一种基于一组自回归、移动平均预测模型和占用网格约束的方案,以进一步提高定位精度;该方案还可以减少DR系统的累积误差和GPS上的多径干扰。其他相关算法[73]-[76]可以参考具体论文。除DR方法外,IMU输出的俯仰率信号的模式识别也可用于计算车辆位置。该方法的原理是通过分析俯仰率信号来提取车辆的振动和运动模式。然后,利用预先构建的索引地图进行模式匹配以进行位置估计。该技术没有累积误差,因此具有合理的精度(约5m)。然而缺点是它很容易受到测量噪声的影响[68],[77],[78]。

基于视觉的定位

基于视觉的定位通常可以达到合理的精度。多核CPU和GPU的普及及其强大的并行图像处理能力的提高缓解了此类定位方法的高计算复杂性带来的压力[79],[80]。
参考文献[81]使用四个鱼眼摄像头、一张预先构建的地图和当前车辆位姿来检测自主停车场景中给定范围内的对称停车标记。然后,将检测结果作为方向标记,以与预先构建的地图匹配。该方法可以实现车辆定位,平行位置误差为0.3米,定位时间为0.04s。Du等人[82]开发了一种改进的序列RANSAC算法,以有效地从图像中提取车道线,用于特征匹配;在具有车道线的场景中,它们实现了大约0.06m的位置误差和0.12s的定位刷新率。参考文献[83]为特征匹配构建了基于道路地标的轻量级3D语义地图,然后最小化残余配准误差以估计车辆位置。该地图可以减少内存使用,这只会导致图像匹配的四次迭代。然而,这种方法的缺点是,当在弯道场景中使用时,仍需要进一步测试。其他相关算法[6]、[84]、[85]、[86]、[87]可以参考具体论文。
同时,参考文献[88]开发了一个拓扑模型,以从参考地图中获得一组接近捕获图像的可能节点。然后,他们将提取的整体特征与最近节点的可能节点进行匹配。最后通过将该节点的特征与图像中的局部特征相关联,以0.45m的位置精度实现了可靠的车辆定位。然而,这种方法受到照明灵敏度的影响,这可能导致定位失败。参考文献[89]提出了一种扩展的赫尔普查变换方法,用于从全方位图像数据集进行语义描述和特征提取,以构建拓扑图。通过结合基于内容和特征的图像检索方法进行场景识别,该工作通过将识别结果与拓扑图匹配,在变化的亮度和动态障碍场景中实现了约85.5%置信度的鲁棒定位。然而,这种技术的挑战在于其位置刷新周期长达2秒。

讨论

总之,基于无源传感器的定位技术的分析显示了获得低成本AV定位的显著优势。然而,需要注意的是,独立的无源传感器不能满足精度和鲁棒性要求。GPS经常受到城市中NLOS、多径或信号阻塞的影响,这对定位的一致性和完整性提出了挑战。通过融合来自不同来源的GPS测量、缺陷信号边界和地图辅助,可以改进基于GPS的定位。当GPS信号不可用时,DR系统可以提供实时一致的车辆位置。
例如,如[9]所示,基于DR的IMM方法减少了系统漂移,提高了GPS中断或GPS信号模块环境中的定位鲁棒性和完整性。然而,基于GPS和基于IMU的定位仍然需要进一步提高GPS-IMU信号长期异常情况下的精度、一致性和完整性性能。基于视觉的定位可以实现0.14米的定位RMSE。但合理的定位时间通常要求系统配备GPU以加速。
此外,相机在照明不足或恶劣天气(如雾和雨)条件下的可靠性仍需进一步研究。上述讨论表明,通过融合多个低成本传感器,数据融合技术将成为实现成本高效定位解决方案的趋势。同时,参考文献[90]–[93]中关于传感器故障检测和识别方法的最新研究表明,在提高定位鲁棒性方面具有显著优势,如基于IMM的故障识别方法、基于多模型和模糊逻辑的故障检测方法等。未来的研究需要集中于这些技术和缺陷数据建模方法。


基于V2X的定位

基于V2V的定位

基于V2V的定位不要求车辆配备高精度传感器,以实现VANET下的精确位置。相反,它可以通过融合来自其他连接车辆的粗略位姿信息来实现合理的位置精度[94]。然而,其缺点是道路上参与车辆的分布不足或不均匀可能导致定位精度不足[95],[96]。
Liu等人[15]提出了一种基于与其他车辆共享GPS伪距离测量值的加权最小二乘-双差法来计算车辆间距离。他们使用分布式位置估计算法来融合共享数据,实现了约4米的定位精度。该解决方案减少了随机噪声的影响,并提高了计算车辆间距离的准确性。参考文献[97]提出使用贝叶斯方法来融合来自其他车辆的目标车辆GPS位置和车辆间距离的GPS位置信息,以进行车辆定位。该方法可以显著降低定位不确定性。为了消除参与车辆需要预定义动态运动模型来实现数据融合的挑战,参考文献[98]计算了关于车辆当前位置的置信度,这是一种可以推断车辆位置并在VANET中传播的概率。然后,他们使用到达角度和TOA技术来测量车辆间距离,从而显示相邻车辆的相对位置。最后,通过计算相邻位置的权重和来估计车辆位置;位置包括相对位置和信念。该方法的位置精度约为1.95m,但刷新率高达1.4s(7辆车接入网络)。其他相关算法[99]-[103]可以参考具体论文。

基于V2X的定位

基于V2I的定位基于附近基础设施的位置推断车辆位置。它可以实现准确、实时和鲁棒的定位性能。V2I技术的优点包括基础设施的高精度定位、独立于时间的稳定数据源和低计算复杂性。
参考文献[104]和[105]提出了基于磁标记的V2I定位。首先,在道路上以一定的间隔布置具有独特高斯极阵分布的磁标记,并将每个标记的位置和分布存储在数据库中。然后,检测每个标记,并在车辆行驶过程中计算其高斯分布。最后,通过在数据库中搜索该分布来确定车辆位置。该方法将失真的影响降至最低,并达到厘米级(<10cm)的定位精度。RFID技术,包括低成本的RFID读取器和RFID标签也用于定位。RFID标签部署在路面上,配备有RFID读取器的车辆可以根据标签确定位置[106],[107]。至于缺点,这些技术需要高密度的基础设施,并且容易受到基础设施堵塞的影响。其他相关算法[108]-[113]可以参考具体论文。

讨论

从V2X定位技术的回顾来看,V2V和V2I解决方案都不需要昂贵的专用硬件。对于基于V2V的解决方案,道路上参与车辆的充分和均匀分布可以提高定位精度和鲁棒性。然而,不断增加的车辆可能会导致较高的系统计算开销,但精度没有太大提高。用于在节点之间创建层次结构的高效集群架构可以在具有长距离的VANET下提供准确的V2V通信服务。
通过对此类架构的进一步研究,可以克服车辆间准确信息交换的挑战。CMM方法可以提供一种潜在的方法来消除天线之间的多径误差,但传播信号延迟的问题仍然需要进一步解决。V2X系统的信号延迟建议在10ms内[3]。可以通过优化网络参数(例如,数据波特率、传播频率和天线功率等)来解决信号降级和丢包问题,之前的调查已经对此进行了详细讨论[8]。基于RFID的V2I系统可以实现成本高效的AV定位。
然而,这些方法需要高密度的基础设施,并且容易受到基础设施堵塞的影响。基于RFID的技术非常适用于AV在固定路线上行驶的应用,例如动物园的观光巴士或港口的集装箱装卸车。优化RSU高度、传播角度和传输功率之间的关系可以确保信号强度和网络覆盖范围广,以实现基于RSU的V2I定位。尽管信号延迟仍需要进一步解决以提高定位精度。


基于数据融合的定位

基于多传感器的数据融合定位

之前的讨论表明,没有独立的传感器能够满足AV定位的准确性、实时性和可靠性要求。多个传感器的数据融合显示出实现准确、实时和可靠的自我定位的巨大潜力。
参考文献[114]开发了一种交互式多模型(IMM)滤波器,该滤波器由车辆动力学模型和车辆运动学模型组成,以通过使用低成本传感器实现成本高效的AV定位。GPS数据和车内传感器(即车轮速度传感器和转向角传感器)数据用于该过滤器。IMM滤波器可以基于各种驾驶场景来权衡数据融合实现的适当模型。
该方法可以在32位嵌入式处理器中实现合理的定位性能。参考文献[115]建议使用三个基于IMM的UKF构建模型,以融合低成本传感器数据,如GPS和惯性传感器。该模型减少了来自惯性传感器的大部分不确定噪声,预测并补偿了定位误差,并可以在GPS中断期间实现1.18米的位置精度。对于动态机动情况,如强加速、高速转弯以及启动和停止,Ndjeng等人[116]表明,使用低成本传感器(如IMU、里程计和GPS)的基于IMM的定位系统优于基于EKF的定位系统。他们通过实际实验得出结论,基于IMM的定位鲁棒性性能优于基于EKF的车辆动力学操纵的高可变性。其他相关算法[117]-[131]可以参考具体论文。

基于地图的数据融合定位

基于地图的数据融合技术基于多传感器测量,并通过添加地图信息来提高定位性能。例如,Suhr等人[132]提出将低成本传感器与数字地图融合,以提高实时性能。他们将车道和道路标记特征表示为一组关键点,并使用前视摄像头模块处理捕获的图像。该解决方案可以减少内存使用和计算开销;此外,其位置刷新率约为100Hz,位置精度约为0.5m。
蔡等人[133]提出了一种数据驱动的运动模型,不使用惯性传感器来消除积分误差的挑战。他们通过使用高清地图校正了GPS位置和相机的横向距离,然后将这两种信息用作融合数据。与纯GPS定位相比,该方法的位置误差减少了1/3。Gruyer等人[134],[135]提出了一种基于精确数字地图、GPS、IMU和两个相机的地图辅助数据融合方法,以获得亚分米精度的AV横向位置。
他们首先通过两个侧面摄像头估计了车辆到车辆左右两侧道路标记的距离。然后,他们使用EKF通过GPS和IMU传感器测量来估计车辆位置。最后,他们将先前估计的车辆位置和通过基于点到线段的地图匹配算法获得的匹配线段位置相结合,以进一步提高定位精度和可靠性。其他相关算法[136]-[139]可以参考具体论文。

讨论

分析表明,基于低成本多传感器(如GPS、IMU、摄像头和里程计等)数据融合的技术可以为自动驾驶车辆提供一种经济高效的商业定位解决方案。融合GPS测量的多传感器数据融合技术仍然需要解决GPS完整性问题。基于IMM的融合方法可以减少来自惯性传感器的大部分不确定噪声,并在GPS中断或GPS信号阻塞期间提高定位精度和鲁棒性。然而,IMM的定位误差仍然达到米级。
通过将缺陷数据建模为区间,区间方法可以实现具有高完整性和一致性的车辆定位。该方法的定位RSSE和更新时间可以分别为约15cm、约170ms。间隔技术可以为市场提供一种潜在的基于融合的定位解决方案。然而,在不同复杂环境中的整体定位性能仍需要进一步验证,以实现完全AVs。与地图融合的协作方法还可以获得准确和鲁棒的定位解决方案。
例如,参考文献[136]显示了一种协作方法,该方法可以通过与多传感器(例如GPS、相机等)、SLAM和地图融合来增强定位精度和鲁棒性。此外,还可以关注不同传感器的故障检测和识别技术,以确保更稳健的AV定位。综上所述,上述讨论表明,基于数据融合的技术具有在经济性、实时性、准确性和鲁棒性之间权衡商用自动驾驶车辆定位性能的巨大潜力。


精度和实时性能讨论

定位性能评估的相关工作

实时、准确和稳健的AV定位是确保安全驾驶的关键要素之一。不同定位技术的性能比较可以指导AV系统的传感器选择和研究目的。已经发表了许多与不同定位算法的准确性和鲁棒性性能比较相关的工作。Zhang等人[138]从理论上分析了RI-EKF-SLAM的收敛性和一致性,并将其定位性能与SO(3)-EKF-SLAM进行了比较。Zhang等人通过一维、二维和三维模拟比较了基于RI-EKF的SLAM和基于优化的SLAM的准确性和一致性性能[140]。
此外,Mourllion等人[141]在车辆定位的预测步骤中展示了卡尔曼滤波器变量的性能,例如EKF、UKF以及一阶和二阶的除法差(DD1和DD2)。Gruyer等人[142]使用基于精度和滤波器不确定性和一致性的标准以及多传感器实验测量,比较了这些KF变体的整体定位过程(预测和校正步骤)。Ndjeng等人[116]评估了动态机动场景下基于IMM和基于EKF的低成本定位系统的准确性和鲁棒性性能。到目前为止,很少有工作对定位实时性能进行了比较。参考文献[6]和[149]比较了基于CPU和GPU平台的同一解决方案的定位时间。参考文献[143]在CPU和GPU上运行滤波算法,以比较它们的执行时间。
然而,上述实时性能比较仅在各种平台上运行相同的算法。在各种硬件平台和编程语言上展示了不同定位解决方案的实时性能。此外,整个解决方案的定位时间受数据提取和原始搜索步骤、核心定位算法执行、地图存储和更新(如果使用了地图)的影响。为了在没有实际测试的情况下对不同解决方案进行快速实时性能比较,首先,论文假设不同研究论文中显示的定位时间与完整的定位解决方案有关,而不仅仅是算法。其次假设每个解决方案中运行的代码都充分利用了所有计算源。因此,基于不同的硬件计算能力和编程语言执行效率,可以将不同解决方案的本地化时间转换为相同的基准。然后,可以近似地和定量地比较不同解决方案的实时性能。

等效比较法

对不同定位技术的讨论表明,AV定位主要依赖CPU和GPU作为硬件平台,MATLAB和C/C++作为编程语言。众所周知,不同的硬件具有不同的计算能力。例如,当使用滤波算法处理激光雷达3D点云数据时,GPU比CPU快52倍[143]。对于编程语言来说,C/C++是一种编译语言,在执行之前被翻译成机器语言。MATLAB是一种解释语言,其中每行代码都必须在执行期间由解释器读取和解释,这使得它比编译语言要慢得多[144],[145]。因此,在比较不同定位技术的实时性能时,必须考虑使用硬件和编程语言的因素。
作为第一步,必须确定CPU/GPU系列之间以及CPU和GPU之间的定位算法操作能力(LAOC)等效转换系数。CPU/GPU系列中的所有CPU/GPU都源自不同定位技术的硬件平台。在本文中,使用单精度浮点(SPFP)峰值性能来确定GPU/CPU系列的LAOC等效转换关系,因为定位算法通常涉及SPFP操作。在CPU系列中,SPEC CPU®2006基准测试[146]旨在比较不同CPU在硬件级别的计算密集型性能。这取决于处理器、内存结构和总线的因素。该基准可以全面评估和比较不同CPU的硬件性能[147]。因此,CPU系列之间的LAOC等效转换关系基于SPECfp2006[148],其中给出了每秒CPU相对峰值浮点运算(FLOPS)性能。对于标准化,本文所示相对峰值FLOPS性能的最小值作为基线,其LAOC等效转换系数确定为CPU系列之间的LAOC等效转换系数通过使用,如表III所示。
对于GPU系列,影响FLOPS功能的因素包括频率f、内核数量N和每个内核FMA的每个周期的单精度融合乘加运算(FMA)。FMA可以在所选GPU的官方网站中找到。理论上的单精度峰值性能可以通过使用以下方程来估计。
对于相同的数据传输和复制以表示GPU的实际SPFP计算能力,GPU系列之间的转换关系基。对于归一化,论文将本文中给出的最小FLOPS峰值性能定义为基线,其LAOC等效转换因子为GPU系列之间的LAOC等效转化因子通过使用a计算,如表IV所示:
对于CPU和GPU之间的LAOC等效关系,Charmette等人[6],[149]在比较定位应用中的CPU和GPU计算性能方面进行了许多有代表性的工作。在本文中,CPU和GPU之间的转换因子基于他们的最新研究结论[6]。结论表明,同一种方法GPU的定位时间大约是CPU的45倍。作者提到,双核CPU中只有一个内核用于定位。因此,论文认为[6]中CPU的峰值FLOPS性能是相同双核CPU的一半,如表III所示。[6]中CPU和GPU之间的LAOC等效转换系数确定
论文考虑将C/C++作为编程语言基准,其LAOC等效转换因子设置MATLAB设置
最后论文选择基准峰值FLOPS性能作为硬件基准,选择C/C++作为编程语言基准。基于不同硬件和编程语言的定位时间必须转移到此基准进行比较。转换方法由以下等式给出。

其中TR是实际定位时间,TC是定位时间假定在该基准上运行的时间。TC反映了每次定位的相对计算复杂度技巧。

方法验证

在本文中,参考文献[29]用于评估所提出的基于LAOC的等效比较方法。参考文献[29]比较了基于CPU和GPU平台的相同解决方案的定位时间。CPU和GPU的TR和TC、硬件和软件的LAOC等效转换因子h和s分别列于表V中。表V显示,转换前定位时间的差异是由于硬件平台(CPU和GPU)不同造成的。转换后的定位时间大大增加,因为硬件基准的峰值FLOPS性能最低,编程语言也相同。此外,转换结果表明,,这意味着转换后基于CPU和GPU的定位时间相似。这是因为解决方案A和解决方案B都是相同的解决方案,但在不同的硬件平台中实现。因此,基于LAOC的等效比较方法是合理的,可以用于近似和定量地比较不同的定位解决方案。表VI总结了使用方程(2)计算的不同定位技术的相对计算复杂性。

讨论

1)准确度和实时性能:本节定量比较了上述所有定位技术的计算复杂性和位置误差。图2显示,在基于激光雷达的定位中,基于3D地图的方法在精度方面优于基于2D地图的方法,因为它包含丰富的特征信息。然而,基于3D地图的技术增加了内存使用量和计算负载,导致算法的计算复杂度较高。此外,尽管基于2D地图的技术之间的精度差异较小,但由于不同的方法,计算复杂性差异很大。
例如,[29]中的2D GMM匹配技术的计算复杂度约为[42]中多层RANSAC配准和2D地图匹配方法的组合的2000倍。与基于激光雷达的定位技术相比,基于雷达和超声波的定位技术具有更低的计算复杂性,因为它们发射低密度电磁波。雷达定位的计算复杂性和位置误差介于激光雷达和超声波定位之间;尽管粒子群优化和网格地图匹配方法相结合实现了合理的定位性能,但该方法需要严格的传感器部署。由于超声波传感器的低精度,基于超声波的技术位置精度的位置精度约为10m。
图3显示,对于开阔天空中的纯GPS定位,GPS接收机可以输出频率为1Hz、精度为2–10m的位置信息,而不受车辆操作系统的限制。与其他基于传感器的定位相比,基于IMU的技术由于其快速的位置刷新率,可以实现最低的计算复杂度,但其累积误差仅在10分钟的驾驶时间内导致约1m的定位误差。在基于视觉的定位方面,图像中包含的丰富环境信息使其计算复杂性与基于激光雷达的方法相似。然而,由于图像质量和镜头失真的挑战,视觉无法准确测量周围物体的范围。因此,其定位精度低于基于激光雷达的技术。此外,它的计算复杂度随着参考地图的维数而降低,但其位置精度变化不大。
如图4所示,与基于激光雷达和视觉的定位相比,基于V2X的定位的实时性能更好,但由于信号延迟或参与节点不足的挑战,其精度不令人满意。
图5显示,与其他基于传感器的定位相比,基于数据融合的技术可以在精度和实时性能方面实现平衡。这是因为它利用每个传感器的优点来减少其他传感器缺点的影响,并且每个独立传感器不需要开发复杂的算法来实现其最佳定位潜力。
总之,不同的基于传感器的定位技术的计算复杂性最大相差约10^7倍,而位置误差相差约100倍。表VII总结了不同传感器技术在精度和实时性能方面的性能。
2)应用场景:满足AV应用安全驾驶要求的精度和实时性能分别是位置误差和位置输出频率,要求分别小于30cm[3]和100ms[151]。分析表明,基于激光雷达、视觉和数据融合的定位具有满足精度性能的潜力。基于激光雷达和视觉的技术使用强大的处理器,如高性能GPU和多核CPU,可以满足实时性能要求。基于数据融合的技术融合多个低成本传感器(例如,相机、GPS、IMU和车载传感器)的计算复杂性低于基于激光雷达和视觉的技术。总之,融合技术在实现经济高效的自主定位方面具有相当大的潜力。
此外,表VII还可以指导不同场景下的定位解决方案选择。对于行人和车辆高度参与交通的城市环境,与其他常见驾驶环境相比,定位精度和实时要求最高。尽管基于激光雷达、视觉和基于激光雷达或视觉的数据融合技术可能会增加硬件部署成本以实现实时性能,但这些技术可以获得精确的定位精度。高速公路和郊区场景中,AV周围的行人和车辆较少。这些场景中的精度要求可能低于城市环境中的精度。
然而,AVs需要远距离检测传感器来感知周围的障碍物和高频位置输出,以满足高速驾驶。因此,具有远距离传感器感知和实时性能的定位技术可能是一种潜在的选择,例如基于数据融合、雷达和V2V的技术。由于专用车道上的障碍物较少,且用作城市巴士或观光巴士的AVs行驶速度较低,因此准确度和实时性要求低于上述情况。在这种情况下,低成本的数据融合、V2I和基于雷达的定位技术可能是首选方案。在自动停车场景中,检测距离和定位实时性能不需要像上述应用中那样高。因此,低成本的超声波和雷达技术可能是最有前途的选择。


结论

本文综述了基于主动传感器、被动传感器、V2X和数据融合的最新自定位技术,并定量比较了它们的精度和计算复杂性性能。与1D地图和3D地图匹配方法相比,基于激光雷达的2D地图匹配方法显示了在成本、准确性、实时性和鲁棒性之间平衡商用AVs定位性能的最重要前景。然而,基于激光雷达的定位比其他基于传感器的定位(如基于雷达的定位、基于视觉的定位和基于V2X的定位)更昂贵。
此外,基于激光雷达的(2D)解决方案的实时性能可能受到系统计算能力的限制,并且需要强大的CPU/GPU加速,这会增加AV的部署成本。需要进一步改进基于激光雷达的(2D)解决方案,以使用低成本处理器缩短定位更新时间。基于无源传感器的定位解决方案在部署成本低方面显示出显著优势。挑战在于,对于典型的无源传感器,例如基于GPS的传感器和IMU,定位的完整性和一致性使得该技术仍然难以应用于AV。基于视觉的定位可以实现高精度的车辆位置,但可能需要GPU加速来处理大量图像数据。
相机在照明不足或恶劣天气下的可靠性也需要进一步解决。V2X技术可以在VANET的广泛信号强度和网络覆盖范围内提供成本高效的AV定位解决方案。基于RFID的技术非常适合固定路线的AV应用,例如动物园的观光巴士、港口的集装箱装卸车。
然而,V2X系统中的信号延迟和数据包丢失问题需要进一步优化,以提高定位精度和一致性。与其他基于传感器的定位解决方案相比,基于数据融合的技术在权衡商用AV的经济性、实时性、准确性和鲁棒性的定位性能方面具有最大的潜力。例如,基于区间理论的技术可以通过融合低成本传感器数据(例如GPS、IMU和里程计)来实现具有高完整性和一致性的车辆定位。在商业化之前,在不同的变化环境和各种驾驶条件(如长途驾驶)下对该技术进行进一步研究和验证至关重要。
此外,实时性和准确性性能之间的比较分析表明,不同基于传感器的定位技术的位置误差最大相差约100倍。基于激光雷达、视觉和数据融合的定位技术有可能满足AV安全驾驶的精度要求(小于30cm)。与其他基于传感器的技术相比,基于激光雷达的技术实现了最佳的定位精度,并且不同基于激光雷达方法实现的位置精度相似。此外,高维地图匹配或基于强度的匹配方法可以将位置误差减少约2-3倍,但可以将计算复杂性增加约20-2000倍。与基于激光雷达的定位相比,基于视觉和数据融合的定位在提高位置精度方面的潜力约为2–5倍。
就实时性能而言,不同基于传感器的技术之间的计算复杂度最大变化约10^7倍。与精度相比,它有很大的改进空间。IMU、超声波、多传感器融合和基于雷达的自定位可以通过低成本处理器满足安全驾驶的实时性能要求(<100ms),而基于激光雷达和视觉的定位可以通过使用强大的处理器实现实时定位。然而,基于IMU、超声波和雷达的技术定位精度不足,通常被用作AV中的辅助定位解决方案。
与不同的方法相比,基于激光雷达的技术具有最高的计算复杂性和大约2000倍的最大差异。重点改进激光雷达图像配准方法可以提高基于激光雷达的技术的实时定位性能。基于视觉的定位的计算复杂性与基于激光雷达的方法相似,与不同方法相比,其最大差异约为1000倍。提高捕获图像关联的效率和准确性可以提高准确性和实时性能。此外,匹配低维特征可以降低计算复杂性,但对精度没有实质性影响。与基于激光雷达和视觉的定位相比,基于数据融合的定位实现了更好的实时性能,因为每个独立传感器不需要开发复杂的算法来实现其最佳定位潜力。此外,它实现了准确度和实时性能之间的最佳平衡。总之,基于激光雷达、视觉和数据融合的技术在实时性能方面仍有很大提高。
讨论表明,没有一个传感器能够满足自动驾驶的所有定位要求。与其他基于单一传感器的技术相比,基于数据融合的技术将是实现AV成本高效自定位的研究重点。除了传统的融合信息源,如GPS和IMU,V2X将是一个有前途的解决方案,主要原因是它对光照和天气具有出色的鲁棒性。它具有广泛的检测范围(约300m),可以增加数据源并提高其稳定性。
然而,精度、实时性能和鲁棒性之间的权衡仍需进一步研究。此外,未来的研究需要集中于传感器故障检测和识别技术以及缺陷数据建模方法,以确保稳健和一致的AV定位。随着新的新兴方法的兴起,如机器学习和深度学习。基于地图的定位性能可以得到增强,因为人工智能算法具有自动学习特征的巨大潜力。我们让读者参考Fayyad等人最近的调查[152],该调查对基于深度学习的定位进行了全面综述。

参考

[1] Baidu. (2019). Apollo-an Open Autonomous Driving Platform.[Online]. Available: https://github.com/ApolloAuto/apollo

[2] Google. (2018). Technology—Waymo. [Online]. Available: https://waymo.com/tech/

[3] 5G-PPP. (2015). 5G Automotive Vision. [Online]. Available: https://5gppp.eu/wp-content/uploads/2014/02/5G-PPP-White-Paper-on-Automotive-Vertical-Sectors.pdf

[4] J. Levinson, M. Montemerlo, and S. Thrun, “Map-based precision vehicle localization in urban environments,” in Robotics Science and Systems, vol. 4. Cambridge, MA, USA: MIT Press, 2007, p. 1.

[5] H. Ma, E. Smart, A. Ahmed, and D. Brown, “Radar image-based positioning for USV under GPS denial environment,” IEEE Trans.Intell. Transp. Syst., vol. 19, no. 1, pp. 72–80, Jan. 2018.

[6] B. Charmette, E. Royer, and F. Chausse, “Vision-based robot localization based on the efficient matching of planar features,” Mach. Vis.Appl., vol. 27, no. 4, pp. 415–436, May 2016.

[7] M. Rohani, D. Gingras, and D. Gruyer, “A novel approach for improvedvehicular positioning using cooperative map matching and dynamic base station DGPS concept,” IEEE Trans. Intell. Transp. Syst., vol. 17,no. 1, pp. 230–239, Jan. 2016.

[8] S. Kuutti, S. Fallah, K. Katsaros, M. Dianati, F. Mccullough, and A. Mouzakitis, “A survey of the state-of-the-art localization techniques and their potentials for autonomous vehicle applications,” IEEE Internet Things J., vol. 5, no. 2, pp. 829–846, Apr. 2018.

[9] A. N. Ndjeng, D. Gruyer, and S. Glaser, “New likelihood updating for the IMM approach application to outdoor vehicles localization,” in Proc. IEEE/RSJ Int. Conf. Intell. Robots Syst., Oct. 2009,pp. 1223–1228.

[10] Velodyne. (2017). HDL-64E S3 Manual. [Online]. Available: https://vel odynelidar.com/hdl-64e.html

[11] Velodyne. (2018). HDL-32E Manual. [Online]. Available: https://vel odynelidar.com/hdl-32e.html

[12] E. Jose, M. Adams, J. S. Mullane, and N. M. Patrikalakis, “Predicting millimeter wave radar spectra for autonomous navigation,” IEEE Sensors J., vol. 10, no. 5, pp. 960–971, May 2010.

[13] S. Jung, J. Kim, and S. Kim, “Simultaneous localization and mapping of a wheel-based autonomous vehicle with ultrasonic sensors,” Artif. Life Robot., vol. 14, no. 2, pp. 186–190, Nov. 2009.

[14] G. Dissanayake, S. Sukkarieh, E. Nebot, and H. Durrant-Whyte,“The aiding of a low-cost strapdown inertial measurement unit using vehicle model constraints for land vehicle applications,” IEEE Trans.Robot. Autom., vol. 17, no. 5, pp. 731–747, Oct. 2001.

[15] K. Liu, H. B. Lim, E. Frazzoli, H. Ji, and V. C. S. Lee, “Improvingpositioning accuracy using GPS pseudorange measurements for cooperative vehicular localization,” IEEE Trans. Veh. Technol., vol. 63, no. 6,pp. 2544–2556, Jul. 2014.

[16] F. de Ponte Müller, “Survey on ranging sensors and cooperative techniques for relative positioning of vehicles,” Sensors, vol. 17, no. 2, p. 271, Jan. 2017.

[17] C. Cadena et al., “Past, present, and future of simultaneous localization and mapping: Toward the robust-perception age,” IEEE Trans. Robot., vol. 32, no. 6, pp. 1309–1332, Dec. 2016.

[18] G. Bresson, Z. Alsayed, L. Yu, and S. Glaser, “Simultaneous localization and mapping: A survey of current trends in autonomous driving,” IEEE Trans. Intell. Vehicles, vol. 2, no. 3, pp. 194–220, Sep. 2017.

[19] J. Ku, M. Mozifian, J. Lee, A. Harakeh, and S. Waslander, “Joint 3D proposal generation and object detection from view aggregation,”in Proc. IEEE/RSJ Int. Conf. Intell. Robots Syst., Oct. 2017, pp. 1–8.

[20] L. Caltagirone, M. Bellone, L. Svensson, and M. Wahde, “LIDAR–camera fusion for road detection using fully convolutional neural networks,” Robot. Auton. Syst., vol. 111, pp. 125–131, Jan. 2019.

[21] Z. Chen, J. Zhang, and D. Tao, “Progressive LiDAR adaptation for road detection,” IEEE/CAA J. Automatica Sinica, vol. 6, no. 3, pp. 693–702,May 2019.

[22] C. Urmson, “Driving beyond stopping distance constraints,” in Proc.IEEE/RSJ Int. Conf. Intell. Robots Syst., Oct. 2006, pp. 1189–1194.

[23] F. Institute. (2019). Radar Sensor Module to BringAdded Safety to Autonomous Driving. [Online]. Available:https://www.fraunhofer.de/content/dam/zv/en/press-media/2019/june/izm-radar-sensor-module-to-bring-added-safety-to-autonomousdriving.pdf

[24] Y. Zhang et al., “Toward a more complete, flexible, and safer speedplanning for autonomous driving via convex optimization,” Sensors,vol. 18, no. 7, p. 2185, Jul. 2018.

[25] H. An and J.-I. Jung, “Decision-making system for lane change using deep reinforcement learning in connected and automated driving,”Electronics, vol. 8, no. 5, p. 543, May 2019.

[26] B. Sebastian, “Dynamic decision-making in continuous partially observable domains: A novel method and its application for autonomous driving,” Ph.D. dissertation, Karlsruhe Inst. Technol.,Karlsruhe, Germany, 2015.

[27] Y. Pan, Q. Lin, H. Shah, and J. M. Dolan, “Safe planning for self-driving via adaptive constrained ILQR,” 2020, arXiv:2003.02757.[Online].Available:https://arxiv.org/abs/2003.02757

[28] X. Wang, J. Wang, J. Zhang, and X. Ban, “Driver’s behavior and decision-making optimization model in mixed traffic environment,”Adv. Mech. Eng., vol. 7, no. 2, Feb. 2015, Art. no. 759571.

[29] R. W. Wolcott and R. M. Eustice, “Robust LIDAR localization using multiresolution Gaussian mixture maps for autonomous driving,” Int.J. Robot. Res., vol. 36, no. 3, pp. 292–319, Mar. 2017.

[30] E. Takeuchi and T. Tsubouchi, “A 3-D scan matching using improved 3-D normal distributions transform for mobile robotic mapping,”in Proc. IEEE/RSJ Int. Conf. Intell. Robots Syst., Oct. 2006,pp. 3068–3073.

[31] J.-H. Im, S.-H. Im, and G.-I. Jee, “Vertical corner feature based precise vehicle localization using 3D LIDAR in urban area,” Sensors, vol. 16,no. 8, p. 1268, Aug. 2016.

[32] J.-H. Im, S.-H. Im, and G.-I. Jee, “Extended line map-based precise vehicle localization using 3D LIDAR,” Sensors, vol. 18, no. 10,p. 3179, Sep. 2018.

[33] J. Levinson and S. Thrun, “Robust vehicle localization in urban environments using probabilistic maps,” in Proc. IEEE Int. Conf. Robot. Automat., May 2010, pp. 4372–4378.

[34] G.-P. Gwon, W.-S. Hur, S.-W. Kim, and S.-W. Seo, “Generation of a precise and efficient lane-level road map for intelligent vehicle systems,” IEEE Trans. Veh. Technol., vol. 66, no. 6, pp. 4517–4533, Jun. 2017.

[35] M. Aldibaja, N. Suganuma, and K. Yoneda, “Improving localization accuracy for autonomous driving in snow-rain environments,” in Proc.IEEE/SICE Int. Symp. Syst. Integr. (SII), Dec. 2016, pp. 212–217.

[36] M. Aldibaja, N. Suganuma, and K. Yoneda, “Robust intensity-based localization method for autonomous driving on snow–wet road surface,”IEEE Trans. Ind. Informat., vol. 13, no. 5, pp. 2369–2378,Oct. 2017.

[37] R. W. Wolcott and R. M. Eustice, “Fast LIDAR localization using multiresolution Gaussian mixture maps,” in Proc. IEEE Int. Conf.Robot. Automat. (ICRA), Seattle, WA, USA, May 2015, pp. 2814–2821.

[38] Y. Hu, J. Gong, Y. Jiang, L. Liu, G. Xiong, and H. Chen, “Hybrid map-based navigation method for unmanned ground vehicle in urban scenario,” Remote Sens., vol. 5, no. 8, pp. 3662–3680, Jul. 2013.

[39] B. Wu et al., “A voxel-based method for automated identification and morphological parameters estimation of individual street trees from mobile laser scanning data,” Remote Sens., vol. 5, no. 2, pp. 584–611, Jan. 2013.

[40] A. Schlichting and C. Brenner, “Vehicle localization by lidar point correlation improved by change detection,” ISPRS Int. Arch. Photogramm.,Remote Sens. Spatial Inf. Sci., vol. 41, pp. 703–710, Jun. 2016.

[41] T.-D. Vu, J. Burlet, and O. Aycard, “Grid-based localization and local mapping with moving object detection and tracking,” Inf. Fusion,vol. 12, no. 1, pp. 58–69, Jan. 2011.

[42] R. Wang et al., “A robust registration method for autonomous driving pose estimation in urban dynamic environment using LiDAR,” Electronics, vol. 8, no. 1, p. 43, Jan. 2019.

[43] N. Akai, L. Y. Morales, E. Takeuchi, Y. Yoshihara, and Y. Ninomiya, “Robust localization using 3D NDT scan matching with experimentally determined uncertainty and road marker matching,” in Proc.IEEE Intell. Vehicles Symp. (IV), Los Angeles, CA, USA, Jun. 2017, pp. 1356–1363.

[44] C. Ulas and H. Temeltas, “A fast and robust feature-based scanmatching method in 3D SLAM and the effect of sampling strategies,” Int. J. Adv. Robotic Syst., vol. 10, no. 11, p. 396, Nov. 2013.

[45] L. Li, M. Yang, C. Wang, and B. Wang, “Hybrid filtering framework based robust localization for industrial vehicles,” IEEE Trans. Ind. Informat., vol. 14, no. 3, pp. 941–950, Mar. 2018.

[46] D. Vivet, F. Gérossier, P. Checchin, L. Trassoudaine, and R. Chapuis, “Mobile ground-based radar sensor for localization and mapping:An evaluation of two approaches,” Int. J. Adv. Robotic Syst., vol. 10,no. 8, p. 307, Aug. 2013.

[47] E. Ward and J. Folkesson, “Vehicle localization with low cost radar sensors,” in Proc. IEEE Intell. Vehicles Symp. (IV), Jun. 2016, pp. 864–870.

[48] M. Rapp, M. Hahn, M. Thom, J. Dickmann, and K. Dietmayer, “Semi-Markov process based localization using radar in dynamic environments,”in Proc. IEEE 18th Int. Conf. Intell. Transp. Syst., Sep. 2015,pp. 423–429.

[49] K. Yoneda, N. Hashimoto, R. Yanase, M. Aldibaja, and N. Suganuma,“Vehicle localization using 76 GHz omnidirectional millimeter-wave radar for winter automated driving,” in Proc. IEEE Intell. Vehicles Symp. (IV), Jun. 2018, pp. 971–977.

[50] F. Schuster, M. Worner, C. G. Keller, M. Haueis, and C. Curio, “Robust localization based on radar signal clustering,” in Proc. IEEE Intell. Vehicles Symp. (IV), Jun. 2016, pp. 839–844.

[51] M. Rapp, M. Barjenbruch, M. Hahn, J. Dickmann, and K. Dietmayer, “Probabilistic ego-motion estimation using multiple automotive radar sensors,” Robot. Auton. Syst., vol. 89, pp. 136–146, Mar. 2017.

[52] M. Rapp, M. Barjenbruch, K. Dietmayer, M. Hahn, and J. Dickmann, “A fast probabilistic ego-motion estimation framework for radar,” in Proc. Eur. Conf. Mobile Robots (ECMR), Sep. 2015, pp. 1–6.

[53] M. Cornick, J. Koechling, B. Stanley, and B. Zhang, “Localizing ground penetrating RADAR: A step toward robust autonomous ground vehicle localization,” J. Field Robot., vol. 33, no. 1, pp. 82–102, Jan. 2016.

[54] O. De Silva, G. K. I. Mann, and R. G. Gosine, “An ultrasonic and vision-based relative positioning sensor for multirobot localization,”IEEE Sensors J., vol. 15, no. 3, pp. 1716–1726, Mar. 2015.

[55] J.-I. Rejas, A. Sanchez, G. Glez-de-Rivera, M. Prieto, and J. Garrido,“Environment mapping using a 3D laser scanner for unmanned ground vehicles,” Microprocessors Microsyst., vol. 39, no. 8, pp. 939–949, Nov. 2015.

[56] M. Moussa, A. Moussa, and N. El-Sheimy, “Ultrasonic based heading estimation for aiding land vehicle navigation in GNSS denied environment,” ISPRS Int. Arch. Photogramm., Remote Sens. Spatial Inf. Sci., vol. 42, pp. 315–322, Sep. 2018.

[57] A. Y. Hata and D. F. Wolf, “Feature detection for vehicle localization in urban environments using a multilayer LIDAR,” IEEE Trans. Intell. Transp. Syst., vol. 17, no. 2, pp. 420–429, Feb. 2016.

[58] J. Breßler and M. Obst, “GNSS positioning in non-line-of-sight context—A survey for technological innovation,” Adv. Sci., Technol. Eng. Syst. J., vol. 2, no. 3, pp. 722–731, Jun. 2017.

[59] P. D. Groves, L. Wang, D. Walter, H. Martin, K. Voutsis, and Z. Jiang, “The four key challenges of advanced multisensor navigation and positioning,” in Proc. IEEE/ION Position, Location Navigat. Symp.(PLANS), Monterey, CA, USA, May 2014, pp. 773–792.

[60] M. Schreiber, H. Konigshof, A.-M. Hellmund, and C. Stiller, “Vehicle localization with tightly coupled GNSS and visual odometry,” in Proc. IEEE Intell. Vehicles Symp. (IV), Jun. 2016, pp. 858–863.

[61] S. G. Park and D. J. Cho, “Smart framework for GNSS-based navigation in urban environments,” Int. J. Satell. Commun. Netw., vol. 35, no. 2, pp. 123–137, Mar. 2017.

[62] S. Peyraud et al., “About non-line-of-sight satellite detection and exclusion in a 3D map-aided localization algorithm,” Sensors, vol. 13, no. 1, pp. 829–847, Jan. 2013.

[63] A. Amini, R. M. Vaghefi, J. M. de la Garza, and R. M. Buehrer, “Improving GPS-based vehicle positioning for intelligent transportation systems,” in Proc. IEEE Intell. Vehicles Symp., Jun. 2014, pp. 1023–1029.

[64] R. M. Vaghefi, M. R. Gholami, R. M. Buehrer, and E. G. Strom, “Cooperative received signal strength-based sensor localization with unknown transmit powers,” IEEE Trans. Signal Process., vol. 61, no. 6, pp. 1389–1403, Mar. 2013.

[65] W. Lu, S. A. Rodríguez F., E. Seignez, and R. Reynaud, “Lane markingbased vehicle localization using low-cost GPS and open source map,” Unmanned Syst., vol. 3, no. 4, pp. 239–251, Oct. 2015.

[66] M. Adjrad and P. D. Groves, “Enhancing least squares GNSS positioning with 3D mapping without accurate prior knowledge,” Navigation, vol. 64, no. 1, pp. 75–91, Mar. 2017.

[67] R. Kumar and M. G. Petovello, “A novel GNSS positioning technique for improved accuracy in urban canyon scenarios using 3D city model,” in Proc. 27th Int. Tech. Meeting Satell. Division Inst. Navigat. (ION GNSS), Sep. 2014, pp. 8–12.

[68] J. Gim and C. Ahn, “IMU-based virtual road profile sensor for vehicle localization,” Sensors, vol. 18, no. 10, p. 3344, Oct. 2018.

[69] W. M. H. W. Azree, M. A. A. Rahman, and H. Zamzuri, “Vehicle localization using wheel speed sensor (WSS) and inertial measurement unit (IMU),” J. Soc. Automot. Eng. Malaysia, vol. 2, no. 10, pp. 43–59, 2018.

[70] X. Li, R. Jiang, X. Song, and B. Li, “A tightly coupled positioning solution for land vehicles in urban canyons,” J. Sensors, vol. 2017, pp. 1–11, Mar. 2017.

[71] K.-W. Chiang, T. Duong, and J.-K. Liao, “The performance analysis of a real-time integrated INS/GPS vehicle navigation system with abnormal GPS measurement elimination,” Sensors, vol. 13, no. 8, pp. 10599–10622, Aug. 2013.

[72] S. Wang, Z. Deng, and G. Yin, “An accurate GPS-IMU/DR data fusion method for driverless car based on a set of predictive models and grid constraints,” Sensors, vol. 16, no. 3, p. 280, Feb. 2016.

[73] Z. Xiao, V. Havyarimana, T. Li, and D. Wang, “A nonlinear framework of delayed particle smoothing method for vehicle localization under non-Gaussian environment,” Sensors, vol. 16, no. 5, p. 692, May 2016.

[74] I. Belhajem, Y. B. Maissa, and A. Tamtaoui, “Improving low cost sensor based vehicle positioning with machine learning,” Control Eng. Pract., vol. 74, pp. 168–176, May 2018.

[75] B.-H. Lee, J.-H. Song, J.-H. Im, S.-H. Im, M.-B. Heo, and G.-I. Jee, “GPS/DR error estimation for autonomous vehicle localization,” Sensors, vol. 15, no. 8, pp. 20779–20798, Aug. 2015.

[76] D. Gruyer and E. Pollard, “Credibilistic IMM likelihoodupdating applied to outdoor vehicle robust ego-localization,” in Proc. 14th Int. Conf. Inf. Fusion, Jul. 2011, pp. 1–8.

[77] A. Dean, R. Martini, and S. Brennan, “Terrain-based road vehicle localisation using particle filters,” Vehicle Syst. Dyn., vol. 49, no. 8, pp. 1209–1223, Aug. 2011.

[78] E. I. Laftchiev, C. M. Lagoa, and S. N. Brennan, “Vehicle localization using in-vehicle pitch data and dynamical models,” IEEE Trans. Intell. Transp. Syst., vol. 16, no. 1, pp. 206–220, Feb. 2015.

[79] N. Piasco, D. Sidibé, C. Demonceaux, and V. Gouet-Brunet, “A survey on visual-based localization: On the benefit of heterogeneous data,” Pattern Recognit., vol. 74, pp. 90–109, Feb. 2018.

[80] S. Sivaraman and M. M. Trivedi, “Looking at vehicles on the road: A survey of vision-based vehicle detection, tracking, and behavior analysis,” IEEE Trans. Intell. Transp. Syst., vol. 14, no. 4, pp. 1773–1795, Dec. 2013.

[81] S. Houben, M. Neuhausen, M. Michael, R. Kesten, F. Mickler, and F. Schuller, “Park marking-based vehicle self-localization with a fisheye topview system,” J. Real-Time Image Process., vol. 16, no. 2, pp. 289–304, Apr. 2019.

[82] X. Du and K. K. Tan, “Vision-based approach towards lane line detection and vehicle localization,” Mach. Vis. Appl., vol. 27, no. 2, pp. 175–191, Feb. 2016.

[83] Z. Xiao, K. Jiang, S. Xie, T. Wen, C. Yu, and D. Yang, “Monocular vehicle self-localization method based on compact semantic map,” in Proc. 21st Int. Conf. Intell. Transp. Syst. (ITSC), Maui, HI, USA, Nov. 2018, pp. 3083–3090.

[84] K. Yoneda, R. Yanase, M. Aldibaja, N. Suganuma, and K. Sato, “Monocamera based localization using digital map,” in Proc. 43rd Annu. Conf. IEEE Ind. Electron. Soc. (IECON), Beijing, China, Oct. 2017, pp. 8285–8290.

[85] K. Yoneda, R. Yanase, M. Aldibaja, N. Suganuma, and K. Sato, “Mono-camera based vehicle localization using Lidar intensity map for automated driving,” Artif. Life Robot., vol. 24, no. 2, pp. 147–154, Jun. 2019.

[86] A. Viswanathan, B. R. Pires, and D. Huber, “Vision-based robot localization across seasons and in remote locations,” in Proc. IEEE Int. Conf. Robot. Automat. (ICRA), Stockholm, Sweden, May 2016, pp. 4815–4821.

[87] T. Naseer, W. Burgard, and C. Stachniss, “Robust visual localization across seasons,” IEEE Trans. Robot., vol. 34, no. 2, pp. 289–302, Apr. 2018.

[88] C. Li, Z. Hu, Z. Li, Y. Ma, and M. A. Sotelo, “Multiscale site matching for vision-only self-localization of intelligent vehicles,” IEEE Intell. Transp. Syst. Mag., vol. 10, no. 3, pp. 170–183, Jun. 2018.

[89] H.-Y. Lin, C.-W. Yao, K.-S. Cheng, and V. L. Tran, “Topological map construction and scene recognition for vehicle localization,” Auto. Robots, vol. 42, no. 1, pp. 65–81, Jan. 2018.

[90] N. Pous, D. Gingras, and D. Gruyer, “Intelligent vehicle embedded sensors fault detection and isolation using analytical redundancy and nonlinear transformations,” J. Control Sci. Eng., vol. 2017, pp. 1–10, Jan. 2017.

[91] V. Judalet, S. Glaser, D. Gruyer, and S. Mammar, “IMM-based sensor fault detection and identification for a drive-by-wire vehicle,” IFACPapersOnLine, vol. 48, no. 21, pp. 1158–1164, 2015.

[92] V. Judalet, S. Glaser, D. Gruyer, and S. Mammar, “Fault detection and isolation via the interacting multiple model approach applied to driveby- wire vehicles,” Sensors, vol. 18, no. 7, p. 2332, Jul. 2018.

[93] N. Pous, D. Gruyer, and D. Gingras, “Fault detection architecture for proprioceptive sensors based on a multi model approach and fuzzy logic decisions,” in Proc. 1st Int. Conf. Vehicle Technol. Intell. Transp. Syst., May 2015, pp. 25–32.

[94] G. Zhang, W. Wen, and L.-T. Hsu, “A novel GNSS based V2V cooperative localization to exclude multipath effect using consistency checks,” in Proc. IEEE/ION Position, Location Navigat. Symp. (PLANS), Monterey, CA, USA, Apr. 2018, pp. 1465–1472.

[95] S. Fujii et al., “Cooperative vehicle positioning via V2V communications and onboard sensors,” in Proc. IEEE Veh. Technol. Conf. (VTC Fall), Sep. 2011, pp. 1–5.

[96] M. Shen, J. Sun, and D. Zhao, “The impact of road configuration in V2V-based cooperative localization: Mathematical analysis and realworld evaluation,” IEEE Trans. Intell. Transp. Syst., vol. 19, no. 10, pp. 3220–3229, Oct. 2018.

[97] M. Rohani, D. Gingras, V. Vigneron, and D. Gruyer, “A new decentralized Bayesian approach for cooperative vehicle localization based on fusion of GPS and VANET based inter-vehicle distance measurement,” IEEE Intell. Transp. Syst. Mag., vol. 7, no. 2, pp. 85–95, Apr. 2015.

[98] K. Golestan, F. Sattar, F. Karray, M. Kamel, and S. Seifzadeh, “Localization in vehicular ad hoc networks using data fusion and V2V communication,” Comput. Commun., vol. 71, pp. 61–72, Nov. 2015.

[99] L. Altoaimy and I. Mahgoub, “Fuzzy logic based localization for vehicular ad hoc networks,” in Proc. IEEE Symp. Comput. Intell. Vehicles Transp. Syst. (CIVTS), Dec. 2014, pp. 121–128.

[100] L. Rivoirard, M. Wahl, P. Sondi, D. Gruyer, and M. Berbineau,“A cooperative vehicle ego-localization application using V2V communications with CBL clustering,” in Proc. IEEE Intell. Vehicles Symp. (IV), Jun. 2018, pp. 722–727.

[101] G. Soatti, M. Nicoli, N. Garcia, B. Denis, R. Raulefs, and H. Wymeersch, “Implicit cooperative positioning in vehicular networks,” IEEE Trans. Intell. Transp. Syst., vol. 19, no. 12, pp. 3964–3980, Dec. 2018.

[102] M. Shen, J. Sun, H. Peng, and D. Zhao, “Improving localization accuracy in connected vehicle networks using Rao–Blackwellized particle filters: Theory, simulations, and experiments,” IEEE Trans. Intell. Transp. Syst., vol. 20, no. 6, pp. 1–12, Sep. 2018.

[103] S. Nam, D. Lee, J. Lee, and S. Park, “CNVPS: Cooperative neighboring vehicle positioning system based on vehicle-to-vehicle communication,” IEEE Access, vol. 7, pp. 16847–16857, 2019.

[104] Y.-S. Byun, R.-G. Jeong, and S.-W. Kang, “Vehicle position estimation based on magnetic markers: Enhanced accuracy by compensation of time delays,” Sensors, vol. 15, no. 11, pp. 28807–28825, Nov. 2015.

[105] Y. Byun and Y. Kim, “Localization based on magnetic markers for an all-wheel steering vehicle,” Sensors, vol. 16, no. 12, p. 2015, Nov. 2016.

[106] J. Wang, D. Ni, and K. Li, “RFID-based vehicle positioning and its applications in connected vehicles,” Sensors, vol. 14, no. 3, pp. 4225–4238, Mar. 2014.

[107] H. Qin, Y. Peng, and W. Zhang, “Vehicles on RFID: Error-cognitive vehicle localization in GPS-less environments,” IEEE Trans. Veh. Technol., vol. 66, no. 11, pp. 9943–9957, Nov. 2017.

[108] X. Wang, M. Huang, C. Shen, and D. Meng, “Robust vehicle localization exploiting two based stations cooperation: A MIMO radar perspective,” IEEE Access, vol. 6, pp. 48747–48755, 2018.

[109] H. Zarza, S. Yousefi, and A. Benslimane, “RIALS: RSU/INSaided localization system for GPS-challenged road segments,” Wireless Commun. Mobile Comput., vol. 16, no. 10, pp. 1290–1305, Jul. 2016.

[110] J. Li, J. Gao, H. Zhang, and T. Z. Qiu, “RSE-assisted lanelevel positioning method for a connected vehicle environment,” IEEE Trans. Intell. Transp. Syst., vol. 20, no. 7, pp. 1–13, Oct. 2018.

[111] N. Alam, A. T. Balaei, and A. G. Dempster, “An instantaneous lanelevel positioning using DSRC carrier frequency offset,” IEEE Trans.Intell. Transp. Syst., vol. 13, no. 4, pp. 1566–1575, Dec. 2012.

[112] C.-H. Ou, “A roadside unit-based localization scheme for vehicular ad hoc networks,” Int. J. Commun. Syst., vol. 27, no. 1, pp. 135–150, Jan. 2014.

[113] J. Vales-Alonso, F. Vicente-Carrasco, and J. J. Alcaraz, “Optimal configuration of roadside beacons in V2I communications,” Comput. Netw., vol. 55, no. 14, pp. 3142–3153, Oct. 2011.

[114] K. Jo, K. Chu, and M. Sunwoo, “Interacting multiple model filterbased sensor fusion of GPS with in-vehicle sensors for real-time vehicle positioning,” IEEE Trans. Intell. Transp. Syst., vol. 13, no. 1, pp. 329–343, Mar. 2012.

[115] Q. Xu, X. Li, and C.-Y. Chan, “A cost-effective vehicle localization solution using an interacting multiple model–unscented Kalman filters (IMM-UKF) algorithm and grey neural network,” Sensors, vol. 17, no. 6, p. 1431, Jun. 2017.

[116] A. N. Ndjeng, D. Gruyer, S. Glaser, and A. Lambert, “Low cost IMU– odometer–GPS ego localization for unusual maneuvers,” Inf. Fusion, vol. 12, no. 4, pp. 264–274, Oct. 2011.

[117] R. Vivacqua, R. Vassallo, and F. Martins, “A low cost sensors approach for accurate vehicle localization and autonomous driving application,” Sensors, vol. 17, no. 10, p. 2359, Oct. 2017.

[118] R. P. D. Vivacqua, M. Bertozzi, P. Cerri, F. N. Martins, and R. F. Vassallo, “Self-localization based on visual lane marking maps: An accurate low-cost approach for autonomous driving,” IEEE Trans. Intell. Transp. Syst., vol. 19, no. 2, pp. 582–597, Feb. 2018.

[119] A. Bak, D. Gruyer, S. Bouchafa, and D. Aubert, “Multi-sensor localization-visual odometry as a low cost proprioceptive sensor,” in Proc. 15th Int. IEEE Conf. Intell. Transp. Syst., Sep. 2012, pp. 1365–1370.

[120] J. Godoy, D. Gruyer, A. Lambert, and J. Villagra, “Development of an particle swarm algorithm for vehicle localization,” in Proc. IEEE Intell. Vehicles Symp., Jun. 2012, pp. 1114–1119.

[121] N. Nedjah and L. de Macedo Mourelle, Swarm Intelligent Systems. Berlin, Germany: Springer, 2006.

[122] A. R. A. Bacha, D. Gruyer, and A. Lambert, “A robust hybrid multisource data fusion approach for vehicle localization,” Positioning, vol. 4, no. 4, pp. 271–281, 2013.

[123] A. R. A. Bacha, D. Gruyer, and A. Lambert, “A performance test fora new reactive-cooperative filter in an ego-vehicle  localization application,” in Proc. IEEE Intell. Vehicles Symp., Jun. 2014, pp. 548–554.

[124] A. R. A. Bacha, D. Gruyer, and A. Lambert, “OKPS: A reactive/ cooperative multi-sensors data fusion approach designed for robust vehicle localization,” Positioning, vol. 7, no. 1, pp. 1–20, 2016.

[125] A. Lambert, D. Gruyer, B. Vincke, and E. Seignez, “Consistent outdoor vehicle localization by bounded-error state estimation,” in Proc. IEEE/RSJ Int. Conf. Intell. Robots Syst., Oct. 2009, pp. 1211–1216.

[126] B. Vincke, A. Lambert, D. Gruyera, A. Elouardi, and E. Seignez, “Static and dynamic fusion for outdoor vehicle localization,” in Proc. 11th Int. Conf. Control Automat. Robot. Vis., Dec. 2010, pp. 437–442.

[127] I. K. Kueviakoe, A. Lambert, and P. Tarroux, “A real-time interval constraint propagation method for vehicle localization,” in Proc. 16thInt. IEEE Conf. Intell. Transp. Syst., Oct. 2013, pp. 1707–1712.

[128] K. Kueviakoe, Z. Wang, A. Lambert, E. Frenoux, and P. Tarroux, “Localization of a vehicle: A dynamic interval constraint satisfaction problem-based approach,” J. Sensors, vol. 2018, pp. 1–12, Apr. 2018.

[129] Z. Wang and A. Lambert, “A low-cost consistent vehicle localization based on interval constraint propagation,” J. Adv. Transp., vol. 2018, pp. 1–15, Jun. 2018.

[130] Z. Wang, A. Lambert, and X. Zhang, “Dynamic ICSP graph optimization approach for car-like robot localization in outdoor environments,” Computers, vol. 8, no. 3, p. 63, Sep. 2019.

[131] X. Li, W. Chen, C. Chan, B. Li, and X. Song, “Multi-sensor fusion methodology for enhanced land vehicle positioning,” Inf. Fusion,vol. 46, pp. 51–62, Mar. 2019.

[132] J. K. Suhr, J. Jang, D. Min, and H. G. Jung, “Sensor fusion-based low-cost vehicle localization system for complex urban environments,” IEEE Trans. Intell. Transp. Syst., vol. 18, no. 5, pp. 1078–1086, May 2017.

[133] H. Cai, Z. Hu, G. Huang, D. Zhu, and X. Su, “Integration of GPS, monocular vision, and high definition (HD) map for accurate vehicle localization,” Sensors, vol. 18, no. 10, p. 3270, Sep. 2018.

[134] D. Gruyer, R. Belaroussi, and M. Revilloud, “Map-aided localization with lateral perception,” in Proc. IEEE Intell. Vehicles Symp., Jun. 2014, pp. 674–680.

[135] D. Gruyer, R. Belaroussi, and M. Revilloud, “Accurate lateral positioning from map data and road marking detection,” Expert Syst. Appl., vol. 43, pp. 1–8, Jan. 2016.

[136] G. Bresson, M. Rahal, D. Gruyer, M. Revilloud, and Z. Alsayed “A cooperative fusion architecture for robust localization: Application to autonomous driving,” in Proc. IEEE 19th Int. Conf. Intell. Transp. Syst., Nov. 2016, pp. 859–866.

[137] G. Wan et al., “Robust and precise vehicle localization based on multisensor fusion in diverse city scenes,” in Proc. IEEE Int. Conf. Robot. Automat. (ICRA), May 2018, pp. 4670–4677.

[138] T. Zhang, K. Wu, J. Song, S. Huang, and G. Dissanayake, “Convergence and consistency analysis for a 3-D invariant-EKF SLAM,” IEEE Robot. Autom. Lett., vol. 2, no. 2, pp. 733–740, Apr. 2017.

[139] F. Bounini, D. Gingras, H. Pollart, and D. Gruyer, “From simultaneous localization and mapping to collaborative localization for intelligent vehicles,” IEEE Intell. Transp. Syst. Mag., early access, Mar. 3, 2020, doi: 10.1109/MITS.2019.2926368.

[140] Y. Zhang, T. Zhang, and S. Huang, “Comparison of EKF based SLAMand optimization based SLAM algorithms,” in Proc. 13th IEEE Conf. Ind. Electron. Appl. (ICIEA), May 2018, pp. 1308–1313.

[141] B. Mourllion, D. Gruyer, A. Lambert, and S. Glaser, “Kalman filters predictive steps comparison for vehicle localization,” in Proc. IEEE/RSJ Int. Conf. Intell. Robots Syst., Aug. 2005, pp. 565–571.

[142] D. Gruyer, A. Lambert, M. Perrollaz, and D. Gingras, “Experimentalcomparison of Bayesian positioning methods based  on multi-sensor data fusion,” Int. J. Vehicle Auton. Syst., vol. 12, no. 1, pp. 24–43, 2014.

[143] J. M. Bedkowski and T. Röhling, “Online 3D LIDAR Monte Carlolocalization with GPU acceleration,” Ind. Robot, Int. J., vol. 44, no. 4, pp. 442–456, Jun. 2017.

[144] A. Ernest, E. Mensah, and A. Gilbert, “Qualitative assessment of compiled, interpreted and hybrid programming languages,” Commun.Appl. Electron., vol. 7, no. 7, pp. 8–13, Oct. 2017.

[145] T. Andrews, “Computation time comparison between MATLAB and C++ using launch windows,” California Polytech. State Univ., San Luis Obispo, CA, USA, Tech. Rep., 2012.

[146] SPEC. (2017). SPEC CPU 2006. [Online]. Available: https://www.spec.org/cpu2006/

[147] N. S. H. M. Ali and S. M. E. Babiker, “Performance evaluation of multi-core systems using SPEC CPU2006 benchmark,” J. Basic Appl. Sci., vol. 2, no. 2, Apr. 2017.

[148] SPEC. (2017). SPECfp2006. [Online]. Available: https://www.spec. org/cpu2006/results/cfp2006.html

[149] B. Charmette, E. Royer, and F. Chausse, “Efficient planar features matching for robot localization using GPU,” in Proc. IEEE Comput. Soc. Conf. Comput. Vis. Pattern Recognit. (Workshops), Jun. 2010,pp. 16–23.

[150] S. B. Aruoba and J. Fernández-Villaverde, “A comparison of programming languages in macroeconomics,” J. Econ. Dyn. Control, vol. 58, pp. 265–273, Sep. 2015.

[151] Vehicle Safety Communications Project: Task 3 Final Report: Identify Intelligent Vehicle Safety Applications Enabled by DSRC, C. V. S. C. Consortium, Nat. Highway Traffic Saf. Admin., US Dept. Transp., Washington, DC, USA, 2005.

[152] J. Fayyad, M. A. Jaradat, D. Gruyer, and H. Najjaran, “Deep learning sensor fusion for autonomous vehicle perception and localization: A review,” Sensors, vol. 20, no. 15, p. 4220, Jul. 2020.

转载自自动驾驶之心,文中观点仅供分享交流,不代表本公众号立场,如涉及版权等问题,请您告知,我们将及时处理。

-- END --

智驾最前沿 「智驾最前沿」深耕自动驾驶领域技术、资讯等信息,解读行业现状、紧盯行业发展、挖掘行业前沿,致力于助力自动驾驶发展与落地!公众号:智驾最前沿
评论
  • 彼得·德鲁克被誉为“现代管理学之父”,他的管理思想影响了无数企业和管理者。然而,关于他的书籍分类,一种流行的说法令人感到困惑:德鲁克一生写了39本书,其中15本是关于管理的,而其中“专门写工商企业或为企业管理者写的”只有两本——《为成果而管理》和《创新与企业家精神》。这样的表述广为流传,但深入探讨后却发现并不完全准确。让我们一起重新审视这一说法,解析其中的矛盾与根源,进而重新认识德鲁克的管理思想及其著作的真正价值。从《创新与企业家精神》看德鲁克的视角《创新与企业家精神》通常被认为是一本专为企业管
    优思学院 2025-01-06 12:03 129浏览
  • 根据环洋市场咨询(Global Info Research)项目团队最新调研,预计2030年全球无人机锂电池产值达到2457百万美元,2024-2030年期间年复合增长率CAGR为9.6%。 无人机锂电池是无人机动力系统中存储并释放能量的部分。无人机使用的动力电池,大多数是锂聚合物电池,相较其他电池,锂聚合物电池具有较高的能量密度,较长寿命,同时也具有良好的放电特性和安全性。 全球无人机锂电池核心厂商有宁德新能源科技、欣旺达、鹏辉能源、深圳格瑞普和EaglePicher等,前五大厂商占有全球
    GIRtina 2025-01-07 11:02 74浏览
  • PLC组态方式主要有三种,每种都有其独特的特点和适用场景。下面来简单说说: 1. 硬件组态   定义:硬件组态指的是选择适合的PLC型号、I/O模块、通信模块等硬件组件,并按照实际需求进行连接和配置。    灵活性:这种方式允许用户根据项目需求自由搭配硬件组件,具有较高的灵活性。    成本:可能需要额外的硬件购买成本,适用于对系统性能和扩展性有较高要求的场合。 2. 软件组态   定义:软件组态主要是通过PLC
    丙丁先生 2025-01-06 09:23 85浏览
  • 这篇内容主要讨论三个基本问题,硅电容是什么,为什么要使用硅电容,如何正确使用硅电容?1.  硅电容是什么首先我们需要了解电容是什么?物理学上电容的概念指的是给定电位差下自由电荷的储藏量,记为C,单位是F,指的是容纳电荷的能力,C=εS/d=ε0εrS/4πkd(真空)=Q/U。百度百科上电容器的概念指的是两个相互靠近的导体,中间夹一层不导电的绝缘介质。通过观察电容本身的定义公式中可以看到,在各个变量中比较能够改变的就是εr,S和d,也就是介质的介电常数,金属板有效相对面积以及距离。当前
    知白 2025-01-06 12:04 176浏览
  • 在智能家居领域中,Wi-Fi、蓝牙、Zigbee、Thread与Z-Wave等无线通信协议是构建短距物联局域网的关键手段,它们常在实际应用中交叉运用,以满足智能家居生态系统多样化的功能需求。然而,这些协议之间并未遵循统一的互通标准,缺乏直接的互操作性,在进行组网时需要引入额外的网关作为“翻译桥梁”,极大地增加了系统的复杂性。 同时,Apple HomeKit、SamSung SmartThings、Amazon Alexa、Google Home等主流智能家居平台为了提升市占率与消费者
    华普微HOPERF 2025-01-06 17:23 146浏览
  • 大模型的赋能是指利用大型机器学习模型(如深度学习模型)来增强或改进各种应用和服务。这种技术在许多领域都显示出了巨大的潜力,包括但不限于以下几个方面: 1. 企业服务:大模型可以用于构建智能客服系统、知识库问答系统等,提升企业的服务质量和运营效率。 2. 教育服务:在教育领域,大模型被应用于个性化学习、智能辅导、作业批改等,帮助教师减轻工作负担,提高教学质量。 3. 工业智能化:大模型有助于解决工业领域的复杂性和不确定性问题,尽管在认知能力方面尚未完全具备专家级的复杂决策能力。 4. 消费
    丙丁先生 2025-01-07 09:25 85浏览
  • 每日可见的315MHz和433MHz遥控模块,你能分清楚吗?众所周知,一套遥控设备主要由发射部分和接收部分组成,发射器可以将控制者的控制按键经过编码,调制到射频信号上面,然后经天线发射出无线信号。而接收器是将天线接收到的无线信号进行解码,从而得到与控制按键相对应的信号,然后再去控制相应的设备工作。当前,常见的遥控设备主要分为红外遥控与无线电遥控两大类,其主要区别为所采用的载波频率及其应用场景不一致。红外遥控设备所采用的射频信号频率一般为38kHz,通常应用在电视、投影仪等设备中;而无线电遥控设备
    华普微HOPERF 2025-01-06 15:29 132浏览
  • By Toradex 秦海1). 简介嵌入式平台设备基于Yocto Linux 在开发后期量产前期,为了安全以及提高启动速度等考虑,希望将 ARM 处理器平台的 Debug Console 输出关闭,本文就基于 NXP i.MX8MP ARM 处理器平台来演示相关流程。 本文所示例的平台来自于 Toradex Verdin i.MX8MP 嵌入式平台。  2. 准备a). Verdin i.MX8MP ARM核心版配合Dahlia载板并
    hai.qin_651820742 2025-01-07 14:52 51浏览
  • 村田是目前全球量产硅电容的领先企业,其在2016年收购了法国IPDiA头部硅电容器公司,并于2023年6月宣布投资约100亿日元将硅电容产能提升两倍。以下内容主要来自村田官网信息整理,村田高密度硅电容器采用半导体MOS工艺开发,并使用3D结构来大幅增加电极表面,因此在给定的占位面积内增加了静电容量。村田的硅技术以嵌入非结晶基板的单片结构为基础(单层MIM和多层MIM—MIM是指金属 / 绝缘体/ 金属) 村田硅电容采用先进3D拓扑结构在100um内,使开发的有效静电容量面积相当于80个
    知白 2025-01-07 15:02 81浏览
  • 根据Global Info Research项目团队最新调研,预计2030年全球封闭式电机产值达到1425百万美元,2024-2030年期间年复合增长率CAGR为3.4%。 封闭式电机是一种电动机,其外壳设计为密闭结构,通常用于要求较高的防护等级的应用场合。封闭式电机可以有效防止外部灰尘、水分和其他污染物进入内部,从而保护电机的内部组件,延长其使用寿命。 环洋市场咨询机构出版的调研分析报告【全球封闭式电机行业总体规模、主要厂商及IPO上市调研报告,2025-2031】研究全球封闭式电机总体规
    GIRtina 2025-01-06 11:10 106浏览
  • 本文介绍Linux系统更换开机logo方法教程,通用RK3566、RK3568、RK3588、RK3576等开发板,触觉智能RK3562开发板演示,搭载4核A53处理器,主频高达2.0GHz;内置独立1Tops算力NPU,可应用于物联网网关、平板电脑、智能家居、教育电子、工业显示与控制等行业。制作图片开机logo图片制作注意事项(1)图片必须为bmp格式;(2)图片大小不能大于4MB;(3)BMP位深最大是32,建议设置为8;(4)图片名称为logo.bmp和logo_kernel.bmp;开机
    Industio_触觉智能 2025-01-06 10:43 87浏览
我要评论
0
点击右上角,分享到朋友圈 我知道啦
请使用浏览器分享功能 我知道啦