自动驾驶传感器 | 视觉传感器(三)

基于视觉传感器的认知过程是从获得的图像中获取感兴趣信息的过程。图像认知是一个逆解码的过程,它需要通过算法甄别各种无效的信息,获取有效的信息。现在的视觉认知可分为传统计算机视觉和新型计算机视觉两种。前者的核心是基于逻辑驱动的,以特征识别作为主要手段,后者以深度学习为代表,是基于数据驱动的。

对于一个通用的自动驾驶系统,视觉传感器主要探测的对象有标线、其他地面标记、交通标志、可行驶区域(自由空间)、静态障碍物(如停放的车辆)、动态障碍物(行人和通用移动障碍物)

一些典型算法的介绍

对于道路标线和其他众多交通对象。基本的处理过程利用图像传感器,可以使用图像顶视图整形,边缘提取和 Hough 空间分析来检测车位线边缘,从而实现标记检测。或者使用基于颜色分析的手段来定位位置,从外也可以使用基于 HOG 和 LBP特征的方法。

可行驶区域的检测主要是为自动驾驶提供路径规划辅助,可以实现整个的路面检测,也可以只提取出部分的道路信息,对不同的环境,有不同的路面检测方法,基本的方法有基于路面颜色、道路模型、路面纹理特征等获取路面的基本结构特征, 可通过这些特征进一步的获得灭点、道路边缘线、道路的基本方向(直走、左转、右转、左急转、右急转)等潜在信息。对这些特征使用传统的分割提取方法或者机器学习的方法进行可行驶区域的最终提取。

车辆、行人检测和跟踪通常是使用前置摄像头完成的,但随着环视摄像头的发展和计算能力的发展,车辆周边的车辆和行人都可以得到检测。车辆的检测和跟踪对于自动驾驶系统来说是极其重要的。通常来说,车辆检测问题和行人检测问题都是使用某种分类方法解决,视觉系统相比其他传感器能够根据对象类型轻松可靠地进行分类。典型的分类器包括 SVM,随机森林和卷积神经网络。

立体估计提供了障碍物的附加检测,大大减少了汽车紧急制动时的误报数量。现在有两种主要类型的相机深度感知技术:立体和单目。立体相机的主要优势是提高了感知深度的能力。它通过解决每个像素的对应问题,允许将像素位置从左相机图像映射到右相机图像。单目系统也能感知深度,但需要摄像机的运动来创建场景重建的基线。

自由空间是传感器视场范围内车辆周围未被物体占据的区域,可以被归类为占据网格图问题,并且通常通过将地表与其他物体分开来检测,与其他传感器类型不同,视觉系统可以提供不同且独立的估算车辆自由空间的方法。如可利用三维点云及其相应的障碍物信息;也可以通过重建车辆周围路面的特征提供有价值的自由空间信息。融合视觉的自由空间技术是有益的,其可以增加可用空间测量的准确性和可靠性。

对认知过程的特征工程介绍

传感器的认知过程本质上是从图像数据到模型的映射,对该过程的影响因素的分析不再侧重于物理过程,而是侧重于信息提取过程。现有的图像处理算法有天然的不完备性,外界的三维信息在图像传感器中转化成为二维信息,信息量被削减了一个维度,由上文分析的感知过程也可以知道,由于硬件能力有限,图像中还存在着大量的噪声,最后,图像是经由复杂的图像物理形成的,图像亮度(辐射率)依赖于光源类型、强度和位置,观察者位置,表面局部几何性质和表面反射特性等,其逆任务,即从基于亮度的图像中抽取出模型,是一个典型的病态过程。

对自动驾驶系统的视觉认知技术而言,特征的提取是工作的核心。

抽象的图像处理过程如图所示,为了从图像中提取信息,图像像素需要被分组以形成集合。每个像素群对应于感兴趣的对象,不同的像素群会组成我们所需要的特征。图像的软件算法识别是一个自底向上的信息处理方式,从抽象的符号到更高的抽象描述,

其中的关键部分就是对特征的提取。精确定义特征需要结合实际问题和应用类型,对自动驾驶系统而言,典型的环境对象,如车道线、行人、车辆都有自己的特征。

特征提取是图象处理中的一个初级运算,它检查每个像素来确定该像素是否代表一个特征。从另外一个角度来看,自动驾驶的算法提取是从图像空间到特征空间再到任务空间的过程。

图像特征有不同的分类方法。从是否直观的角度来看可分为经典特征和新型特征。经典特征典型如颜色特征等,其视觉特征是自然的。新型特征则有着复杂的提取方式和计算属性,典型如用于人脸识别的 HOG 特征。从全局角度看有全局特征和局部特征之分。从特征抽象程度的角度来看,特征可分为底层、中层、语义特征。底层特征是所有直接可从图像中提取的特征,语义特征指有直接的语义含义的。中层特征介于两者之间。

0%