细看深度学习在ADAS中的应用

发布者:yuehui最新更新时间:2017-10-26 来源: 21ic关键字:ADAS  无人驾驶  深度神经网络 手机看文章 扫描二维码
随时随地手机看文章

内容提纲:

ADAS系统包括车辆检测、行人检测、交通标志识别、车道线检测等多种任务,同时,由于无人驾驶等应用场景的要求,车载视觉系统还应具备相应速度快、精度高、任务多等要求。对于传统的图像检测与识别框架而言,短时间内同时完成多类的图像分析任务是难以实现的。

袁雪副教授的项目组提出使用一个深度神经网络模型实现交通场景中多任务处理的方法。其中交通场景的分析主要包括以下三个方面:大目标检测(车辆、行人和非机动车),小目标分类(交通标志和红绿灯)以及可行驶区域(道路和车道线)的分割。

这三类任务可以通过一个深度神经网络的前向传播完成,这不仅可以提高系统的检测速度,减少计算参数,而且可以通过增加主干网络的层数的方式提高检测和分割精度。

以下为当天分享的内容总结。

图文分享总结

一、任务分析

 

WHO在2009年统计的一个数据显示,在全世界范围内每年由交通事故死亡的人数有123万人。但是我们知道,在朝鲜战争中,整个战争死亡的人数也差不多一百多万。也就是说,每年死于交通事故的人数差不多等于一次非常惨烈的战争的死亡人数了。根据WHO统计,在全世界范围内每年由交通事故造成的死亡人数有123万之多;而发生交通事故90%是由司机人为原因造成的,比如注意力不集中、超速、安全意识弱等等。所以目前减少交通事故的最主要途径通过采用高级辅助驾驶系统(ADAS)就是减少认为错误。

 

对于ADAS系统,基本上包括这些功能:夜视辅助、车道保持、司机提醒、防撞提醒、车道变换辅助、停车辅助、碰撞疏解、死角障碍物检测、交通标志识别、车道线偏移提醒、司机状态监测、远光灯辅助等。这些功能是ADAS所必备的。

为了实现这些功能,一般其传感器需要包括视觉传感器、超声波传感器、GPS&Map传感器、Lidar传感器、Radar传感器,还有一些别的通信设备。但是我们在市面上看到的大多数传感器其功能其实是比较少的,例如mobile I,它只有车道保持、交通标志识别、前车监测和距离监测的功能,但并不全面。从厂家或者用户的角度来说,自然我们希望能用最便宜的传感器来完成更多ADAS的功能。最便宜的传感器基本上就是视觉传感器。所以我们设计方案时就想,能不能通过算法将视觉传感器实现更多ADAS系统的功能呢?这就是我们整个研发的初衷。

此外,我们还需要考虑ADAS的一些特点。ADAS系统(包括无人驾驶)是在一个嵌入式平台下进行的,也就是说它的计算资源很少。那么我们也必须考虑如何在这样一个计算资源非常少的基础上,保证ADAS系统能够快速且高精度地响应,同时还能保证多任务的需求。这是我们第二个要考虑的问题。

 

为了解决以上两个问题,我们首先把ADAS的任务分解一下。如图所示,我们将ADAS的任务分解成目标检测与识别、图像分割、摄像机成像目标跟踪、图像分割。我们过去一年多的研发工作其实就是,用一个深度学习框架来同时实现上述这四个的功能。

对于一个前向传播的网络,其计算量和计算时间主要取决于它的参数数量,而80%的参数都来自全链接层,所以我们的第一个想法就是去掉全链接层。其次,网络越深,它的参数就会越多所以如果我们把目标检测与识别、图像分割、摄像机成像目标跟踪、图像分割做成四个网络的话,就会有X4倍的参数。

 

所以针对这两个考量,我们用一个主干的网络来做前面的运算,然后在后面再根据具体的任务分成多个小的分支加到主干网络上。这样多个图像处理的任务就可以通过一个主干网络的前向传播来完成了,其参数大大减少,计算速度也变的更快。同时我们也能实现多个任务同时进行的需求。另外,在最后我们还可以将多个结果进行融合,驾到训练过程的调整中,这样就可以提高我们结果的可信性。

但是在这个过程中我们也碰到一些难点。第一个难点就是我们在同一个网络中需要将较大的目标(例如车辆)和较小的目标(例如交通标志)同时检测出来。第二个难点是,测速测距时我们需要的目标的位置是非常精确的,目前这个问题我们还没有解决。

二、模型结构

 

这个是我们设计的网络的一个基本结构。它分为几个部分:主干网络(我们称为解码器)、多个分支(我们称为编码器)和基于CRF的结果融合。现在这个网络我们只设计了两个编码器,一个是检测任务编码器,还有一个是分割任务编码器,以后我们还可以增加其他的编码器。结果融合,主要是想用它来影响主干网络的一些权重选择。主干网络,我们选择了一些比较有人气的算法,例如VGG 16、GoogleNet、ResNet等。分割任务编码器我们用了FCN编码器,检测任务编码器我们用了YOLO9000编码器。

1、主干网络

 

下面我们来详细看一下这个网络各个部分。首先我们来看主干网络。主干网络我们使用了VGG、GoogleNet或者ResNet。这几个是可选择的。从右侧的这张图(纵轴是网络深度,圈的大小表示模型的大小)我们可以看到ResNet在深度和大小上都比较好,我们选择使用ResNet可以有比较好的实时性。


2、FCN语义分割解码器

 

然后我们看一下FCN语义分割解码器。在神经网络中,一张图片经过主干网络后,再对其提取高维特征图。其实这个过程就是用pooling的方法给它降维。结果到了输出高维特征图时,它只有原图像的1/32大小了。随后我们采用上采样把它升维成原图像大小。上采样的过程就如左侧所示,这个示例中我们将2*2的图像上采样成4*4的图像。

 

上采样的结果就是解码器预测出来的,我们将它与标注好的图像进行比较运算,算出loss,然后对权重进行修改。在上采样中一个问题就是,比较小的物体是计算不出来的。我们知道一些较浅的卷积层感知阈比较小,它会包含更多比较局部的信息;而较深的卷积层具有较大的感知阈,它能够学习到更加抽象的信息。于是FCN就通过将pool3、pool4和pool5的信息叠加在一起进行上采样,这样就可以做到同时上采样多个尺度的信息了。

3、目标检测/识别解码器 YOLO

 

其次我们再来介绍一下用于目标检测/识别的解码器YOLO。我们使用的是YOLO V2的解码器,但这里我们先介绍一下YOLO V1。这是YOLO V1的主框架,它的主干网络是Darknet19,我们不用管它。我们重点关注编码器的过程。主干网络输出的特征图,这种特征图会用1*1 的卷积核给正规化成7*7*30的特征图。那么这个30是什么呢?

 

在这样一个7*7的矩形框中,每一个方形框用一个点来表示。然后我们分别用5维表示包含这个方形框的一个矩形框,其中4维表示x、y、z、w,另外一维为confidence。

 

在YOLO V1中30维的前10个为两个这样的矩形框。它们的(x,y,z,w)分别表示了坐标预测,而另外一维为confidence预测。另外的20维为类别预测(也就是说在模型中有20种可能出现的例如汽车、行人之类的模型 )。

 

YOLO V2与V1最大的不同就是采用了Anchor boxes。所谓Anchor boxes就是每个中心预测(例如9种)不同大小和比例的建议框,每一个建议框对应一个4维的坐标预测、1维confidence预测和20维的类别预测。它提出一个非常有意思的思想就是维度聚类,也即现在训练集里通过聚类的方式算出Anchor boxes的大小。这样,例如它从9个boxes选出5个boxes。于是对于VOC数据集,总共就5*(4+1+20)=125个输出维度。

 

YOLO V2 Anchor boxes的选择以及维度聚类的思想对于我们车载摄像的问题是更有效的,因为我们摄像机的位置是相对固定的,所以我们可以算出每一个目标的大小都是相对比较固定的。

我们在YOLO V2的基础上也做了一些改动。首先是我们做了一些细粒度特征,来检测小目标。其次我们还在浅层特征中进一步地做坐标预测,然后加到我们的整个预测当中,这样可以提高小目标的预测。

4、一些思考

 

在这个研究的过程中,我们做了一些思考。

首先,在计算机视觉领域里,低中层视觉问题更关注原始视觉信号,与语义信息的联系相对松散,同时也是许多高层视觉问题的预处理步骤。本届CVPR有关低中层视觉问题的论文有很多,涵盖去模糊、超分辨率、物体分割、色彩恒定性(color constancy)。

其次,在最后的层中抽象的特征对分类很有帮助,可以很好地判断出一幅图像中包含什么类别的物体,但是因为丢失了一些物体的细节,不能很好地给出物体的具体轮廓,指出每个像素具体属于哪个物体。

我们该如何将浅层特征和深层特征结合起来呢?这其实还需要进一步的研究。

三、数据库建立

 

在数据库这方面,我们发现国内的路况与国外路况很不一样,且中国的车的种类也多种多样。所以我们开发了一种半自动标注软件,也就是我们可以通过算法自动完成车辆标注,同时我们还可以手动修正误差较大的标注。目前我们已经标注了5万张矩形标注数据集。我们力争在年底能够开放数据集,另一方面我们也能协助企业建立数据库。

 

另外在数据库建立方面,我们还要拓展一下数据库类型。例如通过原来白天的图片,我们可以生成黑夜的图片,增加到我们的训练样本中去。

四、结果显示



关键字:ADAS  无人驾驶  深度神经网络 引用地址:细看深度学习在ADAS中的应用

上一篇:扰乱自动驾驶汽车需要黑客吗?几张贴纸就能搞定
下一篇:全面解析丰田研究院Guardian和Chauffeur自动驾驶系统

推荐阅读最新更新时间:2024-05-03 01:52

无人驾驶大脑提供商智行者科技宣布完成数亿元C+轮融资
据悉,业界领先的无人驾驶大脑提供商北京智行者科技有限公司(以下简称“智行者科技”),宣布完成由新鼎资本、华夏未名等数亿人民币的C+轮投资。 据悉,本轮融资资金将继续用于加强智行者科技在无人驾驶产品方面的技术优势,加速乘用车领域的 L4 级别自动驾驶车队的组建和落地,与车厂共同部署不同场景Robotaxi落地运营项目,同时实现特种车领域领域的快速量产落地。 此外,这笔资金还将用于无人驾驶顶级人才的招聘,以及进一步开拓海外市场、为客户提供更加完善的服务。 智行者科技自成立以来,已完成多轮融资,投资方包括顺为资本、厚安(厚朴/Arm)、百度、京东等知名投资机构。今年五月,智行者科技刚刚完成C1轮融资。 图片来源:天眼查 智行者科技是业
[机器人]
马斯克只用2年来实现无人驾驶
  自 2015 年,有不少的汽车制造商加入自动驾驶的行列。但是,这个系统更多的只是给司机一些驾驶上的辅助,而不是完全能够取代司机存在的无人驾驶系统。按照目前的发展进度看来,无人驾驶系统尽管离我们并不遥远,但是要完全实现,还是有一段距离的。   之前有相关的学者表示,完全取代人类的无人驾驶系统建行给可能在 2017 年开始成型,2020 年后开始普及。不过这些都只是乐观预测,至于是否真如他们所想,还是未知之数。   针对这个猜想,特斯拉的 CEO Elon Musk 的预测则更加乐观。他在上周接受采访时表示:“特斯拉的完全无人驾驶系统将可能在两年内实现,届时你将不需要驾驶你的汽车。甚至,你只要通过远程唤醒,车就能够自动驾驶
[嵌入式]
北京12号线将成全球首条无人驾驶地铁 我国自主研发
  中国铁路通信信号集团有限公司今天宣布,成功中标北京市轨道交通12号线工程信号系统项目,这也是全球首条互联互通 无人驾驶 地铁项目。下面就随工业控制小编一起来了解一下相关内容吧。   北京12号线将成全球首条无人驾驶地铁 我国自主研发   北京轨道交通12号线是北京市轨道交通线网中主城区北部东西走向的骨干线路,西起西四环四季青桥南,东至东坝管庄路西口,线路全长29.4公里,共设车站21座。   据介绍,该项目是城市轨道交通领域首次采用互联互通、全自动运行(FAO)并基于行车指挥的综合监控(TIAS)制式的 CBTC 信号系统(基于通信的列车自动控制系统),这是中国通号拥有完全自主知识产权的 CBTC 信号系统在城轨技术领域
[工业控制]
浅析恩智浦“无人驾驶”的底层技术
随着“互联网+人工智能”逐步渗透进入人们的生活中,汽车已成为搭载多种智能芯片的智慧移动终端,并逐步走向真正的“无人驾驶”。作为强大的智能移动终端,汽车通过V2X技术与其他车辆和基站实现无线通信,将车辆周围的数据信息进行分析与处理,从而实现脱离驾驶员的操控,避免因人为原因出现的如疲劳驾驶、超速、闯红灯等危险行为的发生。通过城市智能交通网络的建立,可以实现整体调控汽车流量和流向,进而改善高峰期拥堵现象,从源头上降低汽车交通安全事故,提升交通通行率。 “无人驾驶”依据其“自动化”程度可以分为四级:第一级,特定功能的自动驾驶,仅实现自适应巡航控制,自动刹车和车道保持功能;第二级,合并功能的自动驾驶,实现部分自动停车入位,交通堵塞时提供
[汽车电子]
无人驾驶要收集多少数据才够?
无人驾驶汽车是通过车载传感系统感知道路环境,自动规划行车路线并控制车辆到达预定目标的智能汽车。无人驾驶行驶在路上,需要收集多方数据,对收集到的数据进行分析,才能对出现的事故进行处理。那么数据对于汽车,对于车主而言,意味着什么呢。跟随汽车电子小编一起来看看吧。 “被汽车收集的个人数据,究竟用于何处?”这是慢腾腾的纽约时报上个月的一则头条文章。该头条文章回应了英特尔CEO科再奇及巴克莱银行Brain Johnson关于车载数据的言论,科再奇表示,一辆无人驾驶汽使用的数据量达到4000GB每天,Brain Johnson则断言,一辆无人驾驶汽车每分钟收集的数据量达到100GB。 由于采用了大量价格不菲的软硬件,无人驾驶汽车与普通汽车天
[汽车电子]
ADAS域控季报:L2+及以上ADAS域控主芯片市场份额
佐思汽研发布《2023Q1中国乘用车ADAS域控及主 芯片 市场数据分析报告》。 《2023Q1 中国乘用车ADAS域控及主芯片数据分析和供应商研究报告》主要研究L2+及以上(包含L2+、L2.5、L2.9)乘用车的ADAS 域控制器 市场数据、ADAS域控制器主芯片市场数据、主要供应商发展现状和布局、最新行业发展趋势、未来六个季度和未来五年的市场规模预测。 L2+、L2.5、L2.9的定义如下: 2023年Q1,中国乘用车市场(不含进口车)配置L2+及以上自动驾驶功能车型销量达到36.0万辆,同比增长68.2%。这36.0万辆L2+及以上车型共计搭载ADAS 主控芯片 65.6万颗,其中采用芯片自研策略的特斯拉FSD
[汽车电子]
<font color='red'>ADAS</font>域控季报:L2+及以上<font color='red'>ADAS</font>域控主芯片市场份额
AI大模型研究:NOA和大模型推动ADAS行业巨变
佐思汽研发布《2023年汽车 AI 算法和 大模型 应用研究报告》。 近期发生的一些事情,让主机厂和中小ADAS公司感到不安, 自动驾驶 产业变革的速度,超出绝大多数人预期。 2022年各大汽车论坛,各ADAS公司主要宣传的是行泊一体方案,不少ADAS公司还为行泊一体方案在2023的市场爆发备货不少。到了2023年,在降本压力之下,各主机厂并没有大规模投入行泊一体。反而,在 华为 、毫末智行、百度、新势力车企的带动下,2023年竞争和宣传主旋律直接转向了高速NOA和城市NOA。 根据某自媒体的爆料,以及来自渠道的证实,西南某主机厂一开始委托多家中型Tier1联合做的高速NOA项目并不理想,导致该主机厂开始把NOA项目重
[汽车电子]
AI大模型研究:NOA和大模型推动<font color='red'>ADAS</font>行业巨变
汽车通信系统前景光明
据IHS公司的汽车市场专题报告,由于大量安全与避免事故应用的涌现,允许汽车之间通信以及汽车与路边设施通信的汽车技术势必获得成功,尽管那些应用何时布署还存在不确定性。 对汽车-汽车(V2V)和汽车-基础设施(V2I)技术的前景推测显示,在最好情形下,其潜在销量到2015年就可以达到数以百万计。但是,准确数字将取决于届时呈现哪种情形:保守情形,期望情形,或者激进情形。在每种情形下,都有不同的具体假设,决定着增长速度。 V2V与V2I统称为V2X,这些技术允许汽车与所有附近其它汽车及道路基础设施进行连续通信,比如与红绿灯、校区和铁路道口等设施之间通信。通信设备可以是车内嵌入式远程信息处理系统,或者是智能手机等移动设备。 许多
[嵌入式]
小广播
最新嵌入式文章
何立民专栏 单片机及嵌入式宝典

北京航空航天大学教授,20余年来致力于单片机与嵌入式系统推广工作。

换一换 更多 相关热搜器件
电子工程世界版权所有 京B2-20211791 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2024 EEWORLD.com.cn, Inc. All rights reserved