文丨胖仔研究社
编辑丨胖仔研究社
前言
在自动驾驶汽车中,感知、决策和控制都需要在地图上进行,即定位和建图。激光雷达提供了一种用于感知周围环境的新技术。 我们可以在这里使用 LIDAR数据,以了解如何使用激光雷达来获得可靠的导航。
与其他传感器相比,激光雷达可以提供更好的精度和更高的分辨率。因此,它们能够提供高分辨率的图像和三维地图。 在 LIDAR中, SLAM算法的一个主要问题是如何在不同传感器之间同步数据。
自动驾驶技术
在自动驾驶汽车中,传感器包括摄像头、雷达、激光雷达和超声波传感器。这些传感器用于获取关于周围环境的数据,这些数据被用来在汽车的底层控制系统中进行决策和控制。
激光雷达是一种主动光学设备,用于测量物体的距离。它提供了高分辨率的图像,可以检测到目标并提供其3D形状。这些数据还可以帮助汽车驾驶人员了解周围的环境。
当汽车行驶时,传感器通过无线方式将数据传输到汽车上的控制器。例如,摄像头和雷达传感器将感知到的环境数据发送给控制器,控制器将其转换为汽车的运动,并生成控制输入,例如制动和转向命令。
在自动驾驶中,控制是通过计算实现的。算法通过预先确定的规则来决策,这些规则可以用于各种情况:转弯、刹车、加速和减速等。这些规则被称为规则集。
每个车辆都有自己的规则集来适应其环境。这是因为不同的汽车有不同的结构、尺寸和外观。此外,每个车辆都有不同的速度限制和限制要求。因此,算法可以使用这些数据来生成控制输入,例如汽车需要进行多少次转向或刹车操作以及需要加速多少次或减速多少次等。
当车辆在道路上行驶时,传感器将收集来自车辆前方和后方物体的数据。传感器可以从二个主要方面收集数据:
1.摄像头:通过图像传感器获取数据。2.超声波传感器:通过超声波传感器获取数据
基于上述二个主要方面,可以生成控制输入,例如需要转向多少次、刹车多少次或加速多少次等。算法可以使用这些控制输入来生成汽车控制输出。
例如,如果算法需要控制汽车以在特定区域转弯或停车,则需要知道如何计算车辆转弯次数或停车次数。在这些情况下,算法会使用规则集来计算控制输入。在这种情况下,算法将根据当前状态和规则集生成控制输入来执行控制命令。
同步定位与建图技术的发展:SLAM算法是计算机视觉领域中最重要的分支之一。它是通过创建包含地图数据的图像来解决定位和建图问题的,而不是依赖于精确的3D地图数据。尽管 SLAM技术已有20多年的历史,但它仍然是一个活跃而充满活力的领域。
在过去的20年里, SLAM技术已经取得了巨大进展。有许多方法可以用来解决这些问题,包括视觉传感器、激光雷达、惯性测量单元(IMU)、雷达、惯导系统和混合传感器(包括雷达和 IMU)。其中,大多数方法都是通过视觉传感器来进行定位和建图的。
尽管有很多方法,但一些最先进的技术仍未被广泛应用。这是因为它们需要大量的计算资源,并且由于它们依赖于特定类型的传感器,所以它们具有较大的局限性。
SLAM技术也存在着一些问题,例如当传感器之间的相对位置发生变化时, SLAM算法可能会出现错误或失败。
基于激光雷达的自动驾驶同步定位与建图方法
基于激光雷达的 SLAM算法通常包括两个部分:传感器数据融合和地图构建。传感器数据融合是指将来自多个传感器的数据(包括激光雷达数据)融合成一个全局地图。对于基于激光雷达的自动驾驶汽车,这个过程可以分为以下几步:
1.数据融合:通过多个传感器同步观测,将多个传感器的数据结合成全局地图,并计算出全局地图中每个点的3D位置。
2.地图构建:通过在每个局部区域内提取特征,并将其与全局地图中的特征进行匹配,从而构建局部地图。
3.全局定位:通过全局定位,将每个点与其周围其他点进行比较。根据比较结果,实时更新局部地图。
4.路径规划:在全局地图中确定最佳路径,并进行相应的转弯和刹车操作。
激光雷达数据融合:在基于激光雷达的定位与建图中,通常使用多个激光雷达来完成全局定位和地图构建。首先,对激光雷达的原始数据进行滤波处理,剔除其中不可用的数据。
然后,将这些数据与其他传感器(例如惯性测量单元)的数据进行匹配,以获得激光雷达的当前位置和姿态。最后,计算每个激光雷达传感器获得的位置和姿态之间的误差。根据误差的大小和方向,确定使用哪些传感器进行融合。
在基于激光雷达的定位与建图中,通常采用基于一致性滤波(Cubic Filtering)方法进行传感器数据融合。该方法利用多个激光雷达获得的数据之间的一致性,以消除测量中的异常值和偶然误差,并构建全局地图。
基于图像的特征提取和匹配:SLAM的另一个研究热点是基于图像的特征提取和匹配方法。在这个方面, Lidar和RGB-D技术已被广泛使用,其基本原理是通过图像或视频流获取图像的特征点。
这些特征点可以通过 Lidar或RGB-D传感器获得,然后提取它们作为全局特征。然后,利用全局特征与局部地图中的点进行匹配,从而构建一个完整的局部地图。
但是,这种方法存在一些不足之处:由于受相机抖动、光照变化、几何畸变和光照条件影响,在图像中提取的特征点可能不准确。
另外,当使用大量局部特征点时,图像中存在的一些异常特征可能会被忽略。因此,该方法很难适用于环境变化较大的场景。因此,基于图像的特征提取和匹配方法仍然是当前研究的热点。
基于激光雷达的自动驾驶同步定位与建图方法的应用前景
通过激光雷达和摄像头的集成,我们可以获得丰富的感知信息,这对于实现自主驾驶和安全至关重要。激光雷达提供了从静态环境到动态环境的360°视角。这是我们可以期待的,因为它允许我们观察周围环境中的物体和动态变化。
另一方面,摄像头提供了更多关于周围环境的信息。但这是一个有争议的观点,因为在自动驾驶汽车中,摄像头的使用已经变得非常普遍,甚至可能取代激光雷达。
对于 LIDAR和视觉系统之间数据融合问题,有一些方法可以解决这个问题。例如,可以使用基于卡尔曼滤波的方法来解决传感器之间的同步问题。
这意味着当传感器收集到数据时,它们会更新它们自己的状态。这样做的好处是,即使在传感器无法工作时,它也能使自动驾驶汽车运行。同样重要的是要注意到,不同传感器之间如何同步数据也很重要。
激光雷达与视觉融合定位技术
自动驾驶汽车的定位是其自主决策的基础,它通过环境感知来确定车辆在道路上的位置,然后对车辆进行控制。定位技术的主要目的是确定车辆当前所在位置。通常,定位技术可分为基于点云(Point Cloud)的定位和基于里程计(Tracking)的定位。
基于点云的定位技术是将所有激光雷达数据都存储在云中,以实现车辆对环境进行高精度感知。该方法通常需要昂贵的硬件设备和大量数据处理,其优点是它可以直接测量和计算出所有可用的点云数据。
该方法的缺点是它需要大量点云数据,而且不能很好地处理在行驶过程中可能发生变化的点云数据。同时,它也无法处理诸如车道线、路标和行人等障碍物。
基于里程计(Tracking)的定位技术是通过确定车辆在地图中位置来进行定位。这种方法依赖于里程计,因为它是以里程计为基础进行计算的,并且必须以车辆本身作为参考系来计算里程计。
这意味着需要在车辆行驶过程中进行大量数据处理,从而使系统难以适应环境变化和其他传感器数据。
激光雷达与视觉融合定位技术是两种不同类型定位技术的组合,可以使车辆能够同时提供位置和环境信息,实现高精度、高可靠和实时应用。这种方法不仅能够提供全局地图信息,还可以提供更精确和可靠的局部地图信息。
基于视觉的定位技术将摄像头作为辅助传感器来获取周围环境信息,其主要优势是它不需要激光雷达数据,并且能够处理更为复杂的环境特征。但它也存在一些缺点:它必须与激光雷达进行同步才能使用;它需要大量数据处理和处理能力。
它不能很好地适应变化或障碍物;由于摄像头可能无法及时捕获到这些信息,因此其定位精度可能会降低。因此,基于视觉的定位技术适用于复杂、动态变化环境和人类驾驶条件下的自动驾驶应用。
笔者观点
虽然在自动驾驶汽车中使用激光雷达作为传感器似乎是一种趋势,但是对同步的关注也是必要的。我们可以通过一组算法来解决这个问题。虽然现有的方法旨在同步所有传感器,但也有一些问题需要解决,比如如何在不同传感器之间保持一致性。
SLAM算法可以分为两类,一类是基于图优化的算法,另一类是基于信息融合的算法。如果在图优化的算法中使用了信息融合,那么它必须能够从两个来源中提取高质量的信息。
参考文献
1、吴亚光,曹晓楠,李伟,王鑫,李峰,张俊军。基于激光雷达的自主导航方法研究。汽车工程学报。
2、陈俊磊,谢东昕。基于激光雷达的城市环境无人驾驶系统的定位与建图[J]。中国智能交通,2017。
3、徐玉恒,张庆辉,陈华平,朱丽芳,赵东辉。基于激光雷达的自适应图像分割方法研究。计算机图形学学报。2019。
4、张耀宇,周鹏,陈亚敏。基于深度学习的车辆目标检测方法研究。计算机工程,2018。
5、陈兴东,何玉平。基于激光雷达的车辆目标检测与定位技术研究。计算机工程,2019。