
Citation: | TAO Qianwen, HU Zhaozheng, WAN Jinjie, HU Huahua, ZHANG Ming. Intelligent Vehicle Localization Based on Polarized LiDAR Representation and Siamese Network[J]. Journal of Electronics & Information Technology, 2023, 45(4): 1163-1172. doi: 10.11999/JEIT220140 |
高精度、高稳定性的定位技术是智能车系统的关键。目前主流的智能车定位技术是基于全球定位系统 (Global Positioning System, GPS) 的定位技术。普通GPS定位误差为2~10 m,需与高精度惯导或载波相位差分技术结合获得高精度定位,但无法适用于大范围卫星信号盲区[1]。2020年,中国科协公布的十大工程技术难题就包含“无人车如何实现在卫星不可用条件下的高精度智能导航”问题[2]。针对这个问题,研究学者提供了许多辅助定位手段,按照传感器类型主要可分为视觉定位方法与LiDAR定位方法。
视觉定位方法主要包括视觉里程计、视觉即时建图与定位 (Simultaneous Localization and Mapping, SLAM) 以及基于视觉地图的定位方法[3]。视觉里程计计算连续帧之间的位姿,随着时间推移会产生累计误差,无法进行长时间定位。视觉SLAM采用闭环检测方法解决累计误差问题[4],但在复杂交通场景下闭环检测的效率与准确率都难以满足智能车的实时性与安全性需求。近年来许多研究学者提出了基于视觉地图的定位方法[5,6]。李祎承等人[5]提出利用多尺度视觉特征构建节点级视觉地图,并通过多尺度地图匹配实现车辆定位。视觉地图能提供稳定的位置参考,可有效避免累计误差问题,但由于光照变化、图像重叠视野较小等原因,视觉地图匹配的成功率较低。姚萌等人[6]提出利用语义信息与视觉地图序列进行匹配,有效地提高地图匹配的鲁棒性,但受限于图像重叠视野较小的原因,更适用于轻轨这类具有固定行驶轨道的场景。
近年来随着成本降低,LiDAR成为智能车系统中的关键传感器。基于LiDAR的定位方法主要包括LiDAR里程计,LiDAR SLAM[7]与基于LiDAR地图的定位方法[8-11]。与视觉相机相比,LiDAR可直接获取高精度的3维信息,无需3维重建且不受光照影响。但LiDAR里程计与LiDAR SLAM也具有累计误差与闭环检测效率低等问题。基于LiDAR地图的定位方法可根据LiDAR地图类型进行分类,LiDAR地图主要可分为3维全局地图[8]、栅格地图[9]、车道级地图[10]与节点级地图[11]等。Koide等人[8]利用正态分布变换算法配准查询点云与3维全局地图。百度[9]利用直方图滤波计算车辆在栅格地图中的位姿。但3维全局地图与栅格地图检索复杂,均需要高精度GPS装置提供先验信息缩小检索范围。胡钊政等人[10]通过LiDAR检测墙面并匹配车道级地图获取横向位置约束以增强定位精度。但车道级地图仅能利用稀疏的车道线、道路标志与墙面等提供横向或纵向约束,缺少完整的道路场景信息。Yin等人[11]提出使用LocNet网络从点云中提取向量化指纹并与地图指纹进行相似度建模实现全局检索。Kim等人[12]提出一种基于点云的非直方图全局描述符并使用相似性评分计算点云间的距离实现全局定位。Chen等人[13]提出利用点云的多类信息进行特征学习从而估计点云之间的重叠率与偏航角。但这些方法需要在每个地图节点保存3维点云以进行点云配准与位姿估计,导致地图存储量过大,现有的网络传输设备难以支持用户端下载基于3维点云的节点级地图。
具体而言,基于LiDAR地图的定位方法主要具有以下3类问题:(1) 现有的LiDAR地图表征模型具有数据量大、存储量大等问题,导致地图检索效率低、传输实时性差;(2) 现有的LiDAR地图匹配方法缺少地图粗匹配方法,需要高精度定位装置提供先验信息;(3) 现有的LiDAR地图匹配方法仍是对单帧点云与单帧地图节点之间的相似度进行建模,导致地图匹配的鲁棒性较差。针对以上问题,本文提出了轻量级点云极化地图表征方法与基于点云极化地图匹配的智能车定位方法,创新之处主要为以下两点:
(1) 提出了一种基于孪生网络的点云极化地图粗匹配方法。轻量级点云极化地图模型由一系列的节点组成,每个节点均包含点云极化图、点云极化指纹以及轨迹信息。其中点云极化图是一种基于多通道图像模型的3维点云无损轻量化表征模型,点云极化指纹是一种利用孪生网络结构从点云极化图中提取并训练的具有场景分辨能力的指纹信息。利用基于孪生网络的点云极化指纹匹配方法可以实现快速的点云极化地图粗匹配,缩小地图检索的范围,无需GPS提供先验位置信息。
(2) 提出了一种基于HMM2的地图序列精确匹配方法。相比于单帧点云与单帧地图节点之间的相似度建模,该方法以地图节点序列作为状态,以查询点云极化图为观测,对查询图像与地图节点序列之间相似度进行建模,并融入地图节点间的拓扑关系与车辆运动学模型,增强地图匹配的鲁棒性与准确性。
本文算法的整体框架如图1所示,主要包括点云极化地图构建方法与基于点云极化地图匹配的智能车定位方法。轻量级点云极化地图由一系列的数据采集节点构成,每个数据采集节点主要包括3种要素:点云极化图、点云极化指纹与轨迹信息。智能车定位方法首先利用基于孪生网络的点云极化地图粗匹配方法缩小定位范围,然后利用基于HMM2的地图序列精确匹配方法获取最近的地图节点,最后通过与最近地图节点之间的点云配准计算车辆位姿,从而实现智能车定位。
本文提出了一种轻量化、简洁化、结构化的点云极化表征模型,将无序的3维点云转化为有序的2维点云极化图,并能通过成熟的图像处理技术与深度学习技术进行特征提取与匹配。设定LiDAR传感器包含N条激光束,水平视场角与分辨率为
row=l+1col=aRes + 1} | (1) |
其中,
机械式LiDAR传感器一般以16 bit二进制形式输出距离,以8 bit二进制形式输出反射强度。因此可利用3通道RGB图像的两个通道存储距离,一个通道存储反射强度,无任何数据损失。如果扫描点没有返回值,R, G, B 3个通道的像素值均设置为255。以Velodyne VLP-16为例,具有16线激光束,水平视场角及分辨率分别为360°和0.2°,所生成的点云极化图像素大小为16×1800。为了方便处理,将点云极化图从左到右均分成10块并从上到下地拼接成一个160像素×180像素大小的图像。最后采用无损压缩算法的位图格式(PNG格式)保存点云极化图。根据不同LiDAR传感器的性质,可以获取不同大小的点云极化图。
如图3所示,本文构建了一种孪生网络模型PL-Net对两个点云极化图的相似度进行建模[14],输入为一对点云极化图
f=F(I) | (2) |
通过VGG16网络分别从
d=‖f1−f2‖1 | (3) |
最后通过Sigmoid函数将绝对差转换为一个具有如式(4)所示正则化的交叉熵损失的概率值
Loss(I1,I2,L)=Llg(P(I1,I2))+(1−L)⋅lg(P(I1,I2))+λ‖ϖ‖2 | (4) |
其中,
PL-Net框架中输入的标签
L={1, dis(I1,I2)≤ε0, dis(I1,I2)>ε | (5) |
其中,
本文采用节点级的点云极化地图表征模型对整体道路环境表征,该模型由一序列的数据采集节点构成。在离线建图阶段,装载有LiDAR传感器和高精度GPS装置的数据采集车在道路上匀速行驶,LiDAR传感器采集点云数据,高精度GPS装置采集高精度GPS数据。其中高精度GPS装置仅在离线建图阶段使用。
考虑到地图存储量,点云极化地图中的每个数据采集节点仅包含3个元素:(1) 轨迹位姿信息。轨迹位姿信息表示每个采集点与第1个采集点之间的位姿关系,通过LiDAR SLAM算法获取,并通过高精度GPS数据矫正;(2) 点云极化图。点云极化图是通过轻量级3维点云极化表征模型从LiDAR传感器中直接获取的,相比3维点云具有更小的存储大小;(3) 点云极化指纹。点云极化指纹是一种具有独特性与分辨性的道路场景表征信息,通过VGG16网络从点云极化图中提取并通过孪生网络进行训练。
更进一步地,通过GPS接收器与LiDAR传感器之间的标定,可以获取地图的局部坐标系与GPS全局坐标系之间的转换矩阵
为了快速鲁棒的地图检索,本文提出基于孪生网络的点云极化地图粗匹配方法寻找距离当前车辆位置
{{\boldsymbol{x}}_t} = 2{{\boldsymbol{x}}_{t - 1}} - {{\boldsymbol{x}}_{t - 2}} | (6) |
其中,
给定一个阈值
如图4所示,在地图粗匹配结果的基础上,本文采用HMM2模型来解决地图精确匹配问题,即从地图粗匹配结果中选出最近的地图节点。将所构建的点云极化地图作为状态空间,其中所有的地图节点表示为
{X^ * } = \mathop {\arg \max }\limits_{{X_t}} P\left( {{X_t}|{Z_{1:t}}} \right) \propto \mathop {\arg \max }\limits_{{X_t}} P\left( {{X_t},{Z_{1:t}}} \right) | (7) |
本文提出采用HMM2模型对隐藏状态的转移进行建模,即
P\left( {{X_t},{Z_{1:t}}} \right) = \sum\limits_{{X_1}} {\sum\limits_{{X_2}} \cdots } \sum\limits_{{X_{t - 1}}} {P\left( {{X_{1:t}},{Z_{1:t}}} \right)} | (8) |
HMM2框架包含一个长度为
{\alpha _t}{\text{ = }}P\left( {{X_{t - 1:t}},{Z_{1:t}}} \right) | (9) |
根据链式法则与HMM2模型的属性,
\begin{split} {\alpha }_{t}=& {\displaystyle \sum _{{X}_{t-2}}P\left({X}_{t-2:t},{Z}_{1:t}\right)}=\displaystyle \sum _{{X}_{t-2}}P\left({Z}_{t}|{X}_{t-2:t},{Z}_{1:t\text-1}\right)\\ &P\left({X}_{t}|{X}_{t-2:t-1},{Z}_{1:t\text-1}\right) P\left({X}_{t-2:t-1},{Z}_{1:t-1}\right) \\ =&\underset{发射概率}{\underbrace{P\left({Z}_{t}|{X}_{t}\right)}}{\displaystyle \sum _{{X}_{t-2}}\underset{状态转移概率}{\underbrace{P\left({X}_{t}|{X}_{t-2:t-1}\right)}}}{\alpha }_{t-1}\\[-21pt] \end{split} | (10) |
其中,
因此,仅需确定了初始状态概率,即可递归地计算
P\left( {{X_t},{Z_{1:t}}} \right) = \sum\limits_{{X_{t - 1}}} {P\left( {{X_{t - 1:t}},{Z_{1:t}}} \right)} = \sum\limits_{{X_{t - 1}}} {{\alpha _t}} | (11) |
最后,通过式(12)计算最大联合概率获取最近地图节点
{X^ * } = \mathop {\arg \max }\limits_{{X_t}} P\left( {{X_t},{Z_{1:t}}} \right){\text{ = }}\mathop {\arg \max }\limits_{{X_t}} \sum\limits_{{X_{t - 1}}} {{\alpha _t}} | (12) |
由式(10)可知递归计算的关键之处在于初始状态概率、发射概率和状态转移概率建模。过程如下:
(1) 初始状态概率:初始状态概率表示状态的初始概率分布。如果车辆从地图节点
\begin{split} & {\boldsymbol{\pi}} \left({X}_{1}\right)={\left[\begin{array}{cccc}{\pi }_{1}& {\pi }_{2}& \cdots & \begin{array}{ccc}{\pi }_{j}& \cdots & {\pi }_{n}\end{array}\end{array}\right]}^{{\rm{T}}},\\ & 且\text{ }\left\{\begin{array}{cc}{\pi }_{j}=1,& j=i\\ {\pi }_{j}=0,& j\ne i\end{array}\right. \end{split} | (13) |
其中,
(2) 状态转移概率:状态转移概率
\begin{split} & P\left( {{X_t} = {M_k}\left| {{X_{t - 1}} = {M_j},{X_{t - 2}}} \right. = {M_i}} \right) \\ & \quad \propto \exp \left( { - \frac{{{{\left\| {{\boldsymbol{g}}\left( {{M_k}} \right) - {{\boldsymbol{u}}_s}} \right\|}^2}}}{{2{\sigma _s}^2}}} \right) \end{split} | (14) |
其中,
(3) 发射概率:发射概率
P\left( {{Z_t}\left| {{X_t}} \right.} \right) \propto \exp \left( { - \frac{{{{\left\| {N\left( {{X_t},{Z_t}} \right) - {u_e}} \right\|}^2}}}{{2{\sigma _e}^2}}} \right) | (15) |
其中,
本节对HMM2框架中的初始状态概率,状态转移概率与发射概率进行建模,并采用前向算法递归地计算最优地图匹配序列。具有最大联合概率的地图节点
根据上节所提的地图序列精确匹配方法获取了距离当前车辆最近的地图节点后,即可通过点云配准计算当前车辆位姿。首先根据LiDAR传感器性质,将最近地图节点中存储的点云极化图转换成3维点云。然后通过快速的广义迭代最近点(Generalized Iterative Closet Point, GICP) 算法[17]与查询点云进行点云配准,获取车辆在地图中的位姿
{{\boldsymbol{P}}_c} = {{\boldsymbol{P}}_t} \cdot {{\boldsymbol{P}}_g} | (16) |
实验中分别采用了校园内采集的实地数据集与公开的KITTI数据集[18]验证本文方法。实验平台为具有英特尔i7处理器、8GB RAM, GeForce GTX 1660 Ti显卡的联想拯救者笔记本电脑。
如图5所示,实地数据集是使用装载有一个Velodyne VLP-16与一个高精度惯导 (型号为BDStar Npos220) 的数据采集车在校区采集的3次数据,分别包含1514,1201和1670个激光点云数据及同步的高精度GPS数据。车辆行驶速度为10~20 km/h,传感器的采集频率均为10 Hz,实验路线 (图5(b)中红色路径) 总长约为540 m。第1次数据用于点云极化地图构建,第1, 2次数据用于孪生网络训练,第3次实验数据用于定位方法测试。高精度GPS数据仅有2个作用:(1) 在离线建图阶段用于矫正LiDAR SLAM算法计算的轨迹位姿信息,确保所构建的点云极化地图的精度;(2) 在定位阶段用于验证定位算法的精度。
在定位之前,需预先构建点云极化地图。整个地图的存储大小与路径长度、地图分辨率
实验利用实地数据集在不同
$ \Delta m $ (m) | $\mu $内地图节点的 平均数目 (个) | 粗匹配结果的 平均数目 (个) | ${\overline P _f}$ (%) |
1.0 | 10.0 | 3.0 | 95.42 |
1.5 | 6.7 | 2.9 | 96.39 |
2.0 | 5.0 | 3.1 | 95.70 |
在地图粗匹配结果的基础上进行基于HMM2的地图序列精确匹配,影响地图序列精确匹配结果的因素主要有:基于SURF特征的点云极化图匹配准确率,概率模型中的
$ \Delta m $ (m) | ${\overline P _s}$ (%) |
1.0 | 85.09 |
1.5 | 95.88 |
2.0 | 97.71 |
为了验证其他因素对地图序列精确匹配的影响,实验中分别改变这些因素以获取地图序列精确匹配结果的准确率。首先设定
$ {\sigma _s} $ | $ {\sigma _e} $ | ||||
0.5 | 1.0 | 1.5 | 2.0 | 2.5 | |
0.8 | 97.99 | 97.99 | 98.57 | 98.28 | 97.99 |
1.0 | 97.99 | 97.99 | 98.85 | 97.71 | 97.13 |
1.2 | 97.71 | 97.99 | 98.28 | 96.85 | 96.28 |
$v$ (m/s) | $ \Delta m $ (m) | |
1.5 | 2.0 | |
5 | 96.22 | 98.46 |
10 | 95.04 | 98.09 |
15 | 97.99 | 98.85 |
选定
通过地图序列精确匹配获取最近地图节点后,基于点云配准的智能车定位结果及误差分布如图8中蓝色圆圈点线所示。本文方法定位结果的平均绝对误差(Mean Absolute Error, MAE)与均方根误差(Root Mean Square Error, RMSE)分别为0.36 m与0.39 m。其中定位误差小于0.50 m的定位次数占总实验次数的83.48%,定位误差小于0.75 m的定位次数占比为94.86%,定位误差小于1.00 m的定位次数占比为99.43 %。最后还与文献[11]、文献[12]、文献[13]及文献[7]中的定位方法进行对比,对比结果如图8与表6所示。实验结果表明,与其他方法相比,本文方法使用Velodyne VLP-16能实现高于98%的地图匹配准确率、0.36 m的MAE误差和12.74 Hz的定位频率,具有更好的地图匹配鲁棒性、定位精度与较好的实时性。
为了验证本文方法对不同LiDAR传感器与不同场景的鲁棒性,本文还采用了公开的KITTI数据集(2011年9月30日采集的城市场景数据)进行试验。实验路线 (图9中红色路径) 总长约为1917 m,共有2085数据采集点。实验采用奇数序号的节点数据用于点云极化地图构建,采用偶数序号的节点数据用于定位方法测试,还采用奇数序号的节点数据与KITTI数据集中其他的城市场景数据进行孪生网络训练。
在定位之前,需预先构建点云极化地图。本文采用的KITTI数据集中两相邻地图节点之间的平均距离约为1.8 m,即为地图分辨率
同样地,基于孪生网络的地图粗匹配结果包含最近节点的概率为93.36%。设定协方差
同样地,智能车定位结果及误差分布如图11中蓝色圆圈点线所示,定位结果的MAE与RMSE分别为0.18 m与0.52 m。其中定位误差小于0.25 m的定位次数占总实验次数的88.39%,小于0.50 m的占比为94.05%,小于0.75 m的占比为96.07%。最后与文献[11]、文献[12]、文献[13]及文献[7]中定位方法的对比结果如图11与表8所示。需要说明的是,文献[11]的方法计算定位误差时去除了6.91%定位失败的节点,即在地图匹配阶段未能获取任何地图节点,而本文方法与文献[12]、文献[13]及文献[7]在每个定位测试节点均能获取定位结果。实验结果表明,与其他方法相比,本文方法使用Velodyne HDL-64E能实现高于96%的地图匹配准确率、0.18 m的MAE误差和7.21 Hz的定位频率,具有更好的地图匹配鲁棒性、定位精度与较好的实时性。虽然低于LeGO-LOAM算法定位频率,但与其他方法相比仍具有较大优势且比LeGO-LOAM算法中的回环检测模块 (1.64 Hz) 具有更高的效率,满足智能车的实时性需求。此外,与文献[11]、文献[12]、文献[13]及文献[7]相比,本文方法对不同的场景与不同的激光雷达传感器在地图匹配、车辆定位和定位效率上均具有更好的鲁棒性。
本文提出了一种轻量级的点云极化地图表征模型,还提出了一种基于点云极化地图匹配的智能车定位方法。实验结果表明,本文方法对不同的LiDAR传感器与不同的场景具有良好的鲁棒性,地图匹配准确率可达96%,车辆定位精度可达30 cm左右,且能满足智能车的实时性需求。此外,本文算法提供稳定的、鲁棒的定位结果,可与其他算法的定位结果相融合,如文献[7]中代替回环检测模块为LiDAR里程计提供更精确的位姿参考,或如文献[9]中与其他传感器定位结果进行融合。
[1] |
XIAO Zhu, CHEN Yanxun, ALAZAB M, et al. Trajectory data acquisition via private car positioning based on tightly-coupled GPS/OBD integration in urban environments[J]. IEEE Transactions on Intelligent Transportation Systems, 2022, 23(7): 9680–9691. doi: 10.1109/TITS.2021.3105550
|
[2] |
中国科学技术协会. 中国科协发布2020重大科学问题和工程技术难题[EB/OL]. https://www.cast.org.cn/art/2020/8/16/art_90_130822.html, 2020.
|
[3] |
GUO Xiansheng, ANSARI N, HU Fangzi, et al. A survey on fusion-based indoor positioning[J]. IEEE Communications Surveys & Tutorials, 2020, 22(1): 566–594. doi: 10.1109/COMST.2019.2951036
|
[4] |
刘国忠, 胡钊政. 基于SURF和ORB全局特征的快速闭环检测[J]. 机器人, 2017, 39(1): 36–45. doi: 10.13973/j.cnki.robot.2017.0036
LIU Guozhong and HU Zhaozheng. Fast loop closure detection based on holistic features from SURF and ORB[J]. Robot, 2017, 39(1): 36–45. doi: 10.13973/j.cnki.robot.2017.0036
|
[5] |
李祎承, 胡钊政, 王相龙, 等. 面向智能车定位的道路环境视觉地图构建[J]. 中国公路学报, 2018, 31(11): 138–146,213. doi: 10.3969/j.issn.1001-7372.2018.11.015
LI Yicheng, HU Zhaozheng, WANG Xianglong, et al. Construction of a visual map based on road scenarios for intelligent vehicle localization[J]. China Journal of Highway and Transport, 2018, 31(11): 138–146,213. doi: 10.3969/j.issn.1001-7372.2018.11.015
|
[6] |
姚萌, 贾克斌, 萧允治. 基于单目视频和无监督学习的轻轨定位方法[J]. 电子与信息学报, 2018, 40(9): 2127–2134. doi: 10.11999/JEIT171017
YAO Meng, JIA Kebin, and SIU Wanchi. Learning-based localization with monocular camera for light-rail system[J]. Journal of Electronics &Information Technology, 2018, 40(9): 2127–2134. doi: 10.11999/JEIT171017
|
[7] |
SHAN Tixiao and ENGLOT B. LeGO-LOAM: Lightweight and ground-optimized LiDAR odometry and mapping on variable terrain[C]. Proceedings of 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), Madrid, Spain, 2018: 4758–4765.
|
[8] |
KOIDE K, MIURA J, and MENEGATTI E. A portable three-dimensional LiDAR-based system for long-term and wide-area people behavior measurement[J]. International Journal of Advanced Robotic Systems, 2019, 16(2): 72988141984153. doi: 10.1177/1729881419841532
|
[9] |
WAN Guowei, YANG Xiaolong, CAI Renlan, et al. Robust and precise vehicle localization based on multi-sensor fusion in diverse city scenes[C]. Proceedings of 2018 IEEE International Conference on Robotics and Automation (ICRA), Brisbane, Australia, 2018: 4670–4677.
|
[10] |
胡钊政, 刘佳蕙, 黄刚, 等. 融合WiFi、激光雷达与地图的机器人室内定位[J]. 电子与信息学报, 2021, 43(8): 2308–2316. doi: 10.11999/JEIT200671
HU Zhaozheng, LIU Jiahui, HUANG Gang, et al. Integration of WiFi, laser, and map for robot indoor localization[J]. Journal of Electronics &Information Technology, 2021, 43(8): 2308–2316. doi: 10.11999/JEIT200671
|
[11] |
YIN Huan, WANG Yue, DING Xiaqing, et al. 3D LiDAR-based global localization using Siamese neural network[J]. IEEE Transactions on Intelligent Transportation Systems, 2020, 21(4): 1380–1392. doi: 10.1109/TITS.2019.2905046
|
[12] |
KIM G, CHOI S, and KIM A. Scan context++: Structural place recognition robust to rotation and lateral variations in urban environments[J]. IEEE Transactions on Robotics, 2022, 38(3): 1856–1874. doi: 10.1109/TRO.2021.3116424
|
[13] |
CHEN Xieyuanli, LÄBE T, MILIOTO A, et al. OverlapNet: A siamese network for computing LiDAR scan similarity with applications to loop closing and localization[J]. Autonomous Robots, 2022, 46(1): 61–81. doi: 10.1007/s10514-021-09999-0
|
[14] |
BROMLEY J, GUYON I, LECUN Y, et al. Signature verification using a “Siamese” time delay neural network[C]. Proceedings of the 6th International Conference on Neural Information Processing Systems (NIPS), Denver, USA, 1993: 737–744.
|
[15] |
BAY H, ESS A, TUYTELAARS T, et al. Speeded–up robust features (SURF)[J]. Computer Vision and Image Understanding, 2008, 110(3): 346–359. doi: 10.1016/j.cviu.2007.09.014
|
[16] |
FISCHLER M A and BOLLES R C. Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography[J]. Communications of the ACM, 1981, 24(6): 381–395. doi: 10.1145/358669.358692
|
[17] |
SERVOS J and WASLANDER S L. Multi-channel generalized-ICP: A robust framework for multi-channel scan registration[J]. Robotics and Autonomous Systems, 2017, 87: 247–257. doi: 10.1016/j.robot.2016.10.016
|
[18] |
GEIGER A, LENZ P, and URTASUN R. Are we ready for autonomous driving? The KITTI vision benchmark suite[C]. Proceedings of 2012 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Providence, USA, 2012: 3354–3361.
|
1. | 汤伟,方嘉楠,张龙,杨晓东,李国强. 基于孪生网络的高速公路雾天能见度识别方法. 交通信息与安全. 2023(04): 122-131+142 . ![]() |
$ \Delta m $ (m) | $\mu $内地图节点的 平均数目 (个) | 粗匹配结果的 平均数目 (个) | ${\overline P _f}$ (%) |
1.0 | 10.0 | 3.0 | 95.42 |
1.5 | 6.7 | 2.9 | 96.39 |
2.0 | 5.0 | 3.1 | 95.70 |
$ \Delta m $ (m) | ${\overline P _s}$ (%) |
1.0 | 85.09 |
1.5 | 95.88 |
2.0 | 97.71 |
$ {\sigma _s} $ | $ {\sigma _e} $ | ||||
0.5 | 1.0 | 1.5 | 2.0 | 2.5 | |
0.8 | 97.99 | 97.99 | 98.57 | 98.28 | 97.99 |
1.0 | 97.99 | 97.99 | 98.85 | 97.71 | 97.13 |
1.2 | 97.71 | 97.99 | 98.28 | 96.85 | 96.28 |
$v$ (m/s) | $ \Delta m $ (m) | |
1.5 | 2.0 | |
5 | 96.22 | 98.46 |
10 | 95.04 | 98.09 |
15 | 97.99 | 98.85 |
$ \Delta m $ (m) | $\mu $内地图节点的 平均数目 (个) | 粗匹配结果的 平均数目 (个) | ${\overline P _f}$ (%) |
1.0 | 10.0 | 3.0 | 95.42 |
1.5 | 6.7 | 2.9 | 96.39 |
2.0 | 5.0 | 3.1 | 95.70 |
$ \Delta m $ (m) | ${\overline P _s}$ (%) |
1.0 | 85.09 |
1.5 | 95.88 |
2.0 | 97.71 |
$ {\sigma _s} $ | $ {\sigma _e} $ | ||||
0.5 | 1.0 | 1.5 | 2.0 | 2.5 | |
0.8 | 97.99 | 97.99 | 98.57 | 98.28 | 97.99 |
1.0 | 97.99 | 97.99 | 98.85 | 97.71 | 97.13 |
1.2 | 97.71 | 97.99 | 98.28 | 96.85 | 96.28 |
$v$ (m/s) | $ \Delta m $ (m) | |
1.5 | 2.0 | |
5 | 96.22 | 98.46 |
10 | 95.04 | 98.09 |
15 | 97.99 | 98.85 |