深度学习 在自动驾驶 感知领域的应用

本文章来自: Apollo开发者社区

原创: 阿波君                  致敬

环境感知在自动驾驶汽车、视频监控等相当一部分深度视觉应用中占据了核心地位。

如果一辆车子要实现自动驾驶,那么障碍物感绝对是最基础也是最核心的功能。

Apollo 障碍物感知系统分为 3D 检测、ROI 滤波、识别、运算、感知五大版块。

其感知过程如下:

首先LiDAR探测到信号,传递给ROI的Filter,滤波后的信号通过Obstacle Segmentation 和 Detection识别,

然后进行 Tracking。

扫描二维码关注公众号,回复: 9232018 查看本文章

Apollo在运算这一块采用的是NVIDIA GPU,运算能力强劲,可以实现10Hz的输出,最后是Obstacles感知。

环境感知主要包括当前环境的语义分割静态动态的目标检测,采用人工智能技术中的深度卷积神经网络通过前期的数据训练以及特征提取,给出复杂环境中场景物体类别等信息,帮助计算机精准地理解周边的环境态势。

TIPS

本次直播课程是由深度学习资深研究者-杨阳博士从百度Apollo自动驾驶感知技术出发,讲解环境感知中深度学习的实用性与高效性。

课程从Apollo 3.5感知技术介绍、自动驾驶中的目标检测与识别、深度学习在目标检测中的意义、Apollo中深度学习的应用、百度深度学习框架对目标检测的实操五个方面着手,全面解读深度学习在目标检测中的运用。

以下是杨阳博士分享的全部内容,希望给各位开发者带来更多的帮助。

以下,ENJOY

首先,本次课程将以百度Apollo自动驾驶技术为出发点,详解百度深度学习技术在Apollo自动驾驶目标检测中的应用

其次,基于百度深度学习框架对目标检测技术更进一步探讨,最后理论联系实际,通过一个典型案例体验百度深度学习在环境感知中的实用性与高效性。

首先我们可以从安全驾驶角度来简单了解自动驾驶的重要性。

为什么我们需要自动驾驶?

这里罗列了一些自动驾驶的优势,除了减少交通事故、节省燃料外,还涉及到获得更多自主休息的时间。

此外,自动驾驶技术还有很多其它优点,例如可以轻轻松松停车,让老人开车相对更安全一些。

 

表中给出了全球对于自动驾驶技术的评级,包括从纯粹的人工驾驶L0级到高度的自动驾驶L4级。

不过目前各国重点研发的还是有条件的自动驾驶,例如L3级的自动驾驶以及高度的自动驾驶L4级,完全的自动驾驶(L5级)目前还没有办法做到。

自动驾驶技术的评级

一些企业推出了有条件的自动驾驶,还有一些停留在部分自动驾驶L2级和辅助自动驾驶L1级的测试阶段,暂未投入到商用。

Apollo今年刚刚推出了L4级的自动驾驶车辆以及相关解决方案,相信未来在L5级的自动驾驶领域,我国一定会有所突破,及早实现L5级自动驾驶。

接下来探究自动驾驶车辆基本组成,以百度Apollo3.5的无人驾驶车辆为例,明确整个自动驾驶车辆包括哪些部分。

首先,车辆顶端应配置360度3D扫描雷达,以及前排摄像头阵列、后排摄像头阵列,同时还包含GPS天线、前置雷达等。这些都是用来对周围环境进行感知的。

                                                                  无人驾驶车辆的基本组成

感知结果得到实时处理后,就会产生大量数据,从而汇总到车后端的实时处理系统中,也就是计算和存储系统。随后汽车便可在行进过程中对车辆周围环境的完全感知。

如今的Apollo3.5传感器部分以及计算存储系统相当完善的。从Apollo完整框架分析,我们可以看到上端是云端服务,下端三层属于车端服务。

全新的Apollo3.5技术框架对其中14个模块进行了升级,主要分布在硬件系统以及软件系统中。

例如,3.5版本感知算法加上全新的传感器升级,可以达到360度无死角的全面覆盖。

 最                                                                   新发布的Apollo 3.5 总体框架

云端服务方面,涉及例如高精度地图、仿真数据平台、安全模块等。

全新的基于多场景的决策和预测架构,使开发变得更加灵活与友好,所以一些开发者完全可以选择这种软件平台和硬件平台来进行相应开发,同时我们也将90%仿真驱动开放,大力提升开发者们的效率以及研发安全性。

Apollo对于自动驾驶具备至关重要的四个模块进行了相应升级,包括规划预测感知以及定位

 Apollo 3.5 更新的四大软件模块

增加盲区检测传感器以及雷达后,Apollo3.5在感知能力上也得到了升级。

用于盲区检测的传感器套件以及新的128线的激光雷达,拓展了检测范围,配合3D定位算法以及目标检测算法,表现更强大。

 Apollo 3.5 感知能力有了升级

所谓目标检测,就是区分图像/视频中的目标与其他部分。

例如图中的建筑物、树林、盒子以及瓶子等,同画面产生了明显区分。

如何让计算机像人类一样明确区分目标/非目标呢?

这就涉及目标检测。让计算机能够区分出这些,是目标检测的第一步

目标检测的第二步是让计算机识别刚才区分出来的画面究竟是什么,从而确定视频或图像中目标的种类

例如为了实现自动驾驶的目标,最初需要让计算机认识交通目标,才能让其成为真正的AI老司机。

  自动驾驶中物体识别系统

如何建立一个高准确率、高召回率的物体识别系统?这是无人车感知的一个核心问题,而、物体检测更是重中之重,要求我们针对不同传感器,设计不同的算法来准确检测障碍物。

例如Apollo技术框架中为3D设计了CNSEG深度学习算法,还包括为二级图像设计的YOLO3D深度学习算法等。

已Apollo为例,我们要求完成单帧障碍物的检测,并借助传感器内外参数标定转换矩阵,将检测结果统一影射到车身的座标系中,这种物体检测算法既快速又准确。

 以Apollo为例展示不同传感器的物体检测

有些小伙伴可能产生疑问,描述了这么多种方法,为什么一定要使用深度学习呢?

或许将深度学习与传统图像处理PK下,就能明了其中缘由。

业界共知,传统的目标检测与识别算法分为三部分,包含目标特征提取、目标识别以及目标定位。其中,涉及的典型算法就是基于组件检测的DPM算法

实际上DPM算法就是训练出物体的梯度模型,然后对实际物体进行套用。

但很显然,人为提取出来模型种类还是有限的,面对现实中纷繁多变的大千世界,即便是后来人为成功提取了更多特征因素,也很难做到对图像中全部细节进行详细描述。

由于传统目标检测算法主要基于人为特征提取,对于更复杂或者更高阶的图像特征很难进行有效描述,所以限制了目标检测的识别效果,这一点可以被认定是人为特征提取导致传统算法的性能瓶颈。

                                                                  传统图像处理和深度学习的区别

同传统的图像处理方法不同,采用深度学习的方法进行图像处理,最大的区别就是特征图不再通过人工特征提取,而是利用计算机,这样提取出来的特征会更丰富全面。

深度学习就是通过集联多层的神经网络形成一个很深的层,当层数越多,提取出来的特征也就越多而且越丰富。

所以在目标检测和识别的过程中,最主要使用的深度学习特征提取模型就是深度卷积网络,英文简称CNN。

为什么CNN图像处理的方式比以前更好呢?究其原因,根本还是在于对图像特征提取。

例如,当我们使用多层进行特征提取的时候,其实有些层是针对图像的边缘轮廓来提取的,有些则是针对质地或者纹理来进行的,还有些是针对物体特征进行操作。不同的层有不同的分割方式。

卷积神经网络的每一层如果能够准确提取出所需特征,最后判断时将会容易不少。因此,决定CNN的目标检测和识别的关键就在于对每一层如何设计。

著名的卷积神经网络AlexNet,由多伦多大学的Hinton教授团队于2012年提出后,立马轰动了计算机的视觉领域,对其他相关行业也产生了深远影响。

AlexNet在整个算法处理的步骤,其实与之前提到的一般CNN的处理方式没有本质区别,而且在国际上每年都会举办图像检测算法的比赛,AlexNet就在某届图像检测比赛中获得了冠军。

那一年AlexNet横空出世,把当年的Top5错误率硬生生降到了17%以下。

  传统图像处理和深度学习的区别

深度学习能够在目标检测中大显身手,针对当前目标检测的方法又有哪些?

简单将当前的方法进行分类,其实可以归纳为三种算法方案:

第一种是对于候选区域的目标检测算法,典型的网络是R-CNN和FasterR-CNN;

第二个方案则是基于回归的目标检测算法,典型实现是YOLO和SSD;

最后一种是基于增强学习的目标检测算法,典型表现为深度Q-Learning学习网络,但这几种算法其实各有各的优缺点。

 深度学习目标检测方法分类

今天的话题是目标检测,自然就会提及在多种算法门派中如何进行选择,以及在自动驾驶领域中适合其研发的算法以及框架是什么的问题。

深度学习框架可以尝试使用百度PaddlePaddle。

就目前而言,市面上深度学习框架很多,包括Tensorflow、Caffe、PyTorch、MXNet等在内,而PaddlePaddle是众多深度学习框架中唯一一款国内自主研发的框架。

它支持分布式计算,即多GPU多台机器并行计算,同时还支持FPGA,与其他一些仅支持GPU的框架不同,支持FPGA是PaddlePaddle的一个亮点。

                                           国内自主研发的深度学习框架—PaddlePaddle

FPGA特有的流水线结构降低了数据同内存的反复交互,从而大大降低了运行功耗,这对于深度学习进行大规模的推断有诸多好处。

如果能将这一特性扩展到自动驾驶领域,对于未来降低汽车的发热问题显然有很大帮助。

而PaddlePaddle中的PaddleMobile框架以API的方式支持移动端设备,这样就可以利用手机来完成想要的功能。

先前提到的三种方案,首先来看候选区域目标检测算法。这类算法的典型案例是FasterR-CNN。

FasterR-CNN工作的基本步骤可归纳:首先提取图像中的候选区域,随后针对这些候选区域进行分类判断,对选出的区域做位置回归,随之进行目标定位,最后输出一个定位结果。

总体来说,首先要先选择、再判断,最后剔除不想要的。

这类似于找工作,选择这种方法进行图像目标检测可以做到精准定位以及识别,所以精度较高,不过由于需要反复进行候选区域的选择,所以算法的效率被限制。

                                                                        候选区域目标检测算法

值得注意的一点,FasterR-CNN引入了一种称为区域生成网络RPN的概念,用来进行算法加速。

可以看到,RPN实际上是在分类和特征图,也就是卷积层出来之后的特征图之间,这样就解决了端到端的问题。

同时,我们可以利用GPU来进行网络加速,从而提升检测的速率,这也是为什么FasterR-CNN和R-CNN相比多了一个Faster的原因。

此外,候选区域检测这类算法在VOC2007数据集上,也可以达到检测精度为73.2%的准确率。

前面候选区域的目标检测算法主要是利用对于候选区域进行目标提取。

接下来介绍的第二个算法就是刚才提到的回归目标检测算法,它的特点是SingleShot,也就是只需观测一次图片就能进行目标的检测以及识别,因此算法的效率非常高。

在此罗列了一个称之为SSD的典型回归目标检测算法。

这个算法分为四个步骤

第一步 通过深度神经网络提取整个图片的特征;

第二步 对于不同尺度的深度特征图设计不同大小的特征抓取盒;

第三步 通过提取出这些抓去盒中的特征进行目标识别;

最后,在识别出的这些结果中运用非极大值抑制选择最佳的目标识别结果。

                                                                        回归目标检测算法

所以SSD算法核心思想与第一种算法类型类似,都是从深度神经网络的不同层提取特征,分别利用这些特征进行回归预测。

当然基于回归的目标检测算法是不能同候选区域目标检测算法那样特别精确的,尤其是对画面中一些小目标,同样给出SSD算法在VOC2007数据集上准确度的数值,为68%。

虽然比候选区域目标检测算法低那么一点点,但是基本上性能没有太大损失,此外,由于它是SingleShot,算法的效率也是相当高的。

前面提及的两种类型算法,对于图中目标的边框、尺寸都是固定的,也就是说检测算法中目标边框虽然数目特别多,但一旦边框确定就无法改变,因此并不能适应场景变化。

为了检测出不同目标、不同场景,就需要准备出多种区域选择框。由于检测目标在画面中的大小更是差别巨大,如果能够根据不同的情况在目标候选区域进行边框调整,就可以做到适应各种各样的环境了。

回到第三种算法的介绍,增强学习算法的场景适应性算是比较强的。增强学习算法目标检测可被看成不断动态调整候选区域边框的过程,这种算法的典型代表是Q-Learning学习算法。

                                                                      增强学习目标检测算法

首先,通过图像进行特征提取,可以通过CNN网络来完成;

第二,主动搜索。目的是根据不同的目标和场景调整搜索的步长,并且结合历史动作反馈的信息,凭借深度Q-Learning学习网络来预测下一步的动作,也就是通过算法中设定一定的奖励机制来判断这个特征提取边框的大小变化以及上下左右移动是否有效。

当网络中预测下一步动作完成后,再开始进行识别并最后输出结果。因此,这类算法的核心思想可以看成是由原来不可以改变大小的、静态的特征抓取框,变成了现在可变的动态抓取框,但这类算法目前在VOC2007数据集上准确度的数值是46.1%,比较低。

数值低的原因主要是在进行边框调整过程中,很容易造成特征抓取框和标定的区域差距比较大,这样会严重影响模型的训练效果,从而造成性能的下降;

此外由于要进行主动搜索和多次边框的调整,所以算法的计算也比较耗时。

不过这种算法唯一的好处是相对灵活,俗称百搭。

最后总结下,可以看到,从速度上回归目标检测算法是最快的,原因在于只需看一次图片就能够“一见钟情”;

而从精度角度而言,后续区域目标检测算法已经可以达到很高的精度水平了,然而回归目标检测算法的能力也能够做到和候选区域算法比较接近的程度。

以上我们介绍的,都是典型的基本算法。从框架支持的角度来看,开发者很容易搭建候选区域检测算法和回归目标检测算法框架。

由于增强学习这种算法的动态变化比较大,直接用框架来实现目前是有一定难度的,但如果大家对深度学习框架有所了解,其实目前已经有可支持深度Q-Learning网络的模型。

 三种算法比较

三种算法介绍完毕之后,究竟哪种算法最适合人们熟知的自动驾驶场景呢?当然是回归目标检测算法。

虽然在理论上候选区域目标检测算法能够做到精确度特别高,但由于需要反复观测画面,所以大大降低了检测速度,特别是在自动驾驶领域中,需要进行高速反应来完成目标识别,在这个层面并不适合。

第一点,关于车道线的检测。

目前百度Apollo采用了称为分离车道线网络的结构,图像通过一个D9和一个空间卷积神经网络S-CNN完成对于道路上车道线的检测和识别,整个网络的核心是下面展示的S-CNN,网络中用来增强对于行车时车道的检测能力。

S-CNN首先将特征图的行和列分别看成多个层级的形式。

同时采用顺序卷积,非线性激活函数以及求和操作形成一个深度神经网络,好处是将原来CNN隐藏层之间空间关系关联起来,从而更好处理画面中连续相关的目标,这个算法特别对于行车时车道的目标检测任务,精度很高,准确率高达96.53%。

                                                                              行车时车道的目标检测

可以看出,传统情况下都是在实际检测过程中有一些干扰,使得在检测过程中原来需要正确检测出的像素点和其他的像素点发生了关联,受到的周围环境干扰比较大。

不过S-CNN就不一样了,这是深度挖掘了前后线条间的相关性,避免这种情况出现,所以可以清晰的看到图上检测出来的电线杆和车道线都是比较粗和连续的。

针对百度Apollo和当前版本的百度Apollo对于车道线检测效果的对比,很直观看到,采用刚才提出的算法以后,对于自动驾驶的视觉系统而言,性能提升非常明显。

原来路边车道线模糊或者根本看不到车道线的地方现在通过引入新的分离的车道线检测技术以后,可以看出Apollo在行使过程中可以准确检测出车道线了。

                                                                          百度Apollo Demo

在Apollo2.5和3.0中,基于YOLO设计了一些单物摄像头下的物体检测神经网络,称为Mult-Task YOLO 3D。

因为它的最终输出是单目摄像头3D障碍物检测的信息,最后会输出多于2D图像检测的全部信息,所以可以看到与普通的CNN网络检测出来的效果并不一样,这是立体的检测结果,也就是说检测出来的那个框结果是立体的。

                                                          百度Apollo中 Mult-Task YOLO 3D

不同之处在于首先就是3D框输出,其次它也会输出相对障碍物所检测出来的一些偏转角。

此外现在的Apollo3.5还包含物体的分割信息,具有物体分割的功能。其中包括车道线的信息,用来提供给定位模块等。

在Apollo检测的事例中可以看到,算法其实对于路边的行人判断还是比较准确的,可以在一堆繁忙的公路上清晰看到最终要检测出来的某个行人。

此外,Apollo单目摄像头下的障碍物检测速度是比较快的,特别是对繁忙路段和高速场景都是比较适配,检测速度达到了30Hz,也就是说每秒钟可以检测30张图像。

除此之外,Apollo还有一些相关功能,例如典型目标的检测,包含了基于经典计算机视觉障碍的物体识别和基于深度学习的障碍物识别。

基于经典计算机视觉的障碍物识别的计算复杂度比较低,单核CPU可以达到实现,同时因为复杂度比较低,训练也比较快。

此外,深度学习主要依赖GPU,当速度比较快,而且训练数据足够多的时候,可以得到最好的准确度。

为了方便开发者们的理解,我们以百度PaddlePaddle为例为大家介绍实际目标检测中的可喜效果。

首先提出PaddlePaddle官方仓库里的MobileNet+SSD的检测效果。该模型可以从官方仓库上下载,整个模型也非常适合移动端场景,算法的流程和前面介绍的比较类似。

最初采用G网络MobileNet来抽取特征,随后利用前面介绍的SDD中的堆叠卷积盒来进行特征识别,不同位置检测不同大小、不同形状的目标,最后再利用非极大值抑制筛选出最合适的识别结果,整个模型最重要的是对候选框信息的获取,包括框的位置、目标类别、置信概率三个信息在内。

                                                        PaddlePaddle仓库中目标检测模型分析

具体如何获取这些框的相关信息呢?

实际上PaddlePaddle已经提供了封装好的API,使用时直接调用即可。

我们调用这个函数,就是Multi_box_head,从MobileNet最后一层进行连接,用来生成SSD中的特征抓取盒,其中包含所谓的四个返回值,分别是候选框边界的精细回归、框内出现物体的置信度、候选框原始位置、候选框原始位置方差。

实际上就是候选框的位置以及关于这些位置相对偏移的量。

如果把这些值进行输出可视化,首先给出的是出现物体的置信度,通常用框进行识别的过程中,一般认为框里只近似保留一种,最后只会出现一类判断结果。

第一个值如果是最大的,就被认为属于背景类,也就是说第一个张量,它的这个框的目标就是背景。

接着把所有背景选出来之后,再把这些背景去掉,剩下来的自然而然就是画面中要识别出来的目标。

                                                                            输出可视化解释

接下来利用Detection_output这一层,加入一个可视化的边框的操作,可以看到,蓝色的表示人,红色的表示摩托车,最后利用非极大值抑制的操作,把这些框当中多余的框全部去掉,只保留最贴近检测效果的框,也就是最后想要的结果。

可以看到,经过非极大值抑制后,同类的折叠框一般只保留概率较高的、重叠较小的,这就完成了最终的目标检测。

发布了178 篇原创文章 · 获赞 373 · 访问量 30万+

猜你喜欢

转载自blog.csdn.net/qq_41204464/article/details/102921607