传感器融合才是自动驾驶的正道之光

发布者:yanfeng00最新更新时间:2020-11-23 来源: 百姓评车关键字:传感器  自动驾驶 手机看文章 扫描二维码
随时随地手机看文章

10月21日,特斯拉CEO埃隆 · 马斯克(Elon Musk)发推特表示,特斯拉的全自动驾驶(Full Self-Driving,以下简称 FSD)beta 版软件已向小部分客户推送。而在早些时候的10月11日,百度也宣布旗下的无人驾驶出租车服务百度Apollo在北京正式开放运营。


10月以来,连续两波关于自动驾驶技术的落地将人们对自动驾驶的热情推向了一个高潮。而且今年对自动驾驶来说其实是一个比较重要的年份,因为如果从2010年谷歌自动驾驶项目上线开始算,今年刚好就是自动驾驶技术商业化的第十年。


十年走来,作为人工智能最接近生活的应用场景,自动驾驶一直被人们寄予厚望。而到今天,随着大数据、AI、5G等技术的突破和应用,百度、Uber、滴滴、文远知行,越来越多的自动驾驶技术从实验室走向了道路。



对于辅助驾驶系统(ADAS)和自动驾驶汽车(AV),可能永远不会有一种单一、最有效的方法来实现传感技术。这个神奇的数字可能是六个,因为每个汽车制造商都会以六个基本考虑因素来决定如何以自己的方式实现,这将导致每个人创建自己的独特方法来将传感器集成到未来的车辆中。


国内外部分综合实力较强的汽车零部件公司在自动驾驶汽车传感器上进行多产品布局,可以为下游客户提供综合性的自动驾驶解决方案,形成较强的竞争力。这些公司包括国外的博世、大陆集团、法雷奥、海拉、德尔福、富士通天、奥托立夫等公司和国内的德赛西威、华域汽车和保隆科技等公司。


越来越多的传感器被部署在整车中,以主动解决安全问题。今天,我们的汽车中到底有多少个传感器?要进一步提高自主性,还需要多少个传感器?这个问题的答案是如果考虑到ADAS的传感器-超声波、雷达、用于感应的摄像头、用于观察的摄像头和LiDAR,估计车辆具有10至20个传感器,具体取决于车辆的类型 。



传感器将是解决高度自动化水平的关键,并且传感器的数量和类型预计将增加。


自动驾驶的环境监测传感器主要包括摄像头和雷达两类:首先,摄像头通过图像识别技 术实现距离测量、目标识别等功能;其次,雷达利用发射波和反射波之间的时间差、相位差 获得目标物体的位置和速度等数据,按所使用的不同类型的波,雷达可以分为毫米波雷达、激光雷达、超声波雷达三类。


摄像头:自动驾驶的眼睛


摄像头方面,按视野覆盖位置可分为前视、环视(侧视+后视)及内视摄像头,其 中前视摄像头最为关键,可以实现车道偏离警示系统(LDW)、前向碰撞预警系统(FCW)、 行人识别警示(PCW)等功能。前视摄像头又有单目摄像头、双目摄像头,乃至多目摄像 头等不同的解决方案。虽然双目或多目摄像头具有更高的测距精度和更广的视角,但由于 其成本较高以及对精度和计算芯片的高要求,使得其仍未能大规模量产,目前以 Mobileye的单目摄像头解决方案是市场的主流。



车载摄像头产业链主要涉及上游材料、中游元件和下游产品三个主要环节。上游材料中光学镜片、滤光片和保护膜等用于制造镜头组,晶圆用于制造 CMOS 芯片和 DSP 信号处理器;在中游镜头组、CMOS 芯片和胶合材料等组装成模组,并和 DSP 信号处理器封装成摄像头产品。在产业链的这一层,上游供应商已经可以向下游整车或一级供应商客户供应完整的摄像头产品。


在车载摄像头产业链中,摄像头和软件算法一起,构成车载摄像头解决方案,应用于自动驾驶汽车中。车载摄像头产业链较长,上下游拥有众多环节,每个环节都涉及国内外众多厂商和公司。


相较于消费电子等所用的摄像头,车规级的摄像头对防震、稳定性、持续聚焦特性、热补偿性、杂光强光抗干扰性等都有较高的要求,因此其模组组装工艺复杂,技术堡垒较高。从全球摄像头供应市场来看,目前国外公司松下、法雷奥、富士通天、大陆、麦格纳等厂商占据较大份额,前五大产商市场份额合计在 59%左右,集中度相对较高。


雷达:自动驾驶的大脑


在雷达方面,主要分为三类:1、毫米波雷达:介于微波和红外线之间,频率范围 10GHz —200GHz,波长为毫米级;2、激光雷达:介于红外线和可见光之间,频率大致为 100000GHz,波长为纳米级;3、超声波雷达:频率高于 20000Hz。根据公式:光速=波 长*频率,频率越高,波长越短。波长越短,意味着分辨率越高;而分辨率越高,意味着在 距离、速度、角度上的测量精度更高。


我们平时用的倒车雷达是超声波雷达,发出的是声波,只能达到声速。超声波雷达体积小、价格低,但探测精度差、范围小,并且在高速运动时影响很大,在自动驾驶中的应用并不多。



应用多的是毫米波雷达,发出的是电磁波,以光速传播。主要的毫米波雷达有24GHz和77GHz两种。24GHz频率低、带宽窄,精度相对较低,主要用于盲点监测、自动泊车等。而77GHz精度高很多,可以更准确的探测距离,并且天气等对他的影响很小。和摄像头融合就能够很好的完成对环境的感知。


但毫米波雷达可以感知距离,可无精准法感知物体的具体形状,或者前方两个人的间距等,探测的噪点也很多。比如空无一物的道路上,因为一些起伏或者路面的颗粒等,也会形成反射干扰毫米波雷达的判断。



激光雷达可以很好的解决这些问题,他的精度可以达到厘米级。激光雷达上每一个激光发生器代表一线,常用机械旋转式激光雷达有10线、64线、128线等。激光雷达实际上是一种工作在光学波段(特殊波段)的雷达,它的优点非常明显。


第一,是具有极高的分辨率:激光雷达工作于光学波段,频率比微波高2~3个数量级以上,因此,与微波雷达相比,激光雷达具有极高的距离分辨率、角分辨率和速度分辨率。


第二,抗干扰能力强:激光波长短,可发射发散角非常小(μrad量级)的激光束,多路径效应小(不会形成定向发射,与微波或者毫米波产生多路径效应),可探测低空/超低空目标。


第三,获取的信息量丰富:可直接获取目标的距离、角度、反射强度、速度等信息,生成目标多维度图像。第四,可全天时工作:激光主动探测,不依赖于外界光照条件或目标本身的辐射特性。它只需发射自己的激光束,通过探测发射激光束的回波信号来获取目标信息。



但是,因受价格跟体积的限制,目前来看激光雷达还非常少地装配在量产车上,马斯克在多个场合中抨击激光雷达“笨重”,“丑陋”,“完全没有必要”。这个也是激光雷达的一大缺点,现阶段大家很难把其体积缩小,在车顶上的位置比较突兀,这直接影响了量产化的进行,所以现在我们还没有看到激光雷达系统安装在量产车上。


最后一种超声波雷达目前已经成为稀松平常的汽车部件,支撑起自动泊车等驾驶辅助功能,未来还将为完全自动驾驶“出力”。它的工作原理主要是以1-3厘米精度测算0.2-5m范围内障碍物,充当“汽车之眼”。超声波雷达可以分为模拟式、四线式数位、二线式数位、三线式主动数位,它们的信号抗干扰能力依次提升,技术难度与价格总体递进。



特斯拉的Autopilot推出以来,对超声波雷达的依赖性一直非常高,始终坚持使用4+4+4的超声波雷达布局。早期版本中,特斯拉在泊车辅助中使用前后8颗雷达,在辅助驾驶中使用全部12颗雷达。特斯拉表示,与摄像头监控车道标记不同,超声波雷达可以监控周围区域,并扫清车辆或其他物体等盲点。


特斯拉“偏爱”超声波雷达其实是有原因的,上文讲到激光雷达虽好,但是成本太高,暂时无法大规模在走量的车型上装配,这也导致了高级别自动驾驶技术的推广受到限制。


而超声波雷达价格低廉。目前,单个超声波雷达售价大约为数十元,一套倒车雷达系统的雷达硬件成本不到200元,一套自动泊车系统的雷达硬件成本在500元左右。相比之下,毫米波雷达的售价仍然在千元级别,激光雷达的售价高达数十万元。较为低廉的价格,将车企与超声波雷达紧紧捆绑,并促进了车载超声波雷达市场的繁荣。



据P&S Intelligence数据,2019年,全球车载超声波雷达市场规模为34.6亿美元(约合243.9亿元);该机构预测,2020年至2030年,全球车载超声波雷达市场规模将保持5.1%复合年增长率,并于2030年达到61亿美元(约合429.8亿元)。


不过,超声波雷达并非自动驾驶技术的突破口,其受到物理特性限制,车载超声波雷达的探测范围局限在数米内,也无法精准描述障碍物位置;此外,处于相同频段的多个雷达,为避免回波“打架”大多采取时分复用,信息采集速度被拖慢;其探测精度易受到车速、振动、温湿度等影响,在抗干扰、标定等方面充满挑战。总之,超声波雷达是“辅料”而非“主食”,其与毫米波雷达、摄像头乃至激光雷达相配合,方能支撑起更高级别辅助驾驶功能。


集成才是传感器未来之路


显然,传感器将是解决高度自动化水平的关键,并且传感器的数量和类型预计将增加。越来越多的传感器只是冰山一角。传感器会生成大量数据,而系统则受到处理能力的严重限制。


那么传感器是不是越多越好呢?有些人可能会这样想,但是出于成本或集成方面的原因,汽车中的传感器数量不会无限增加。预计自动化传感器的数量将在某个时候达到平稳,主要区别在于软件级别和企业有效处理大量数据的能力。特斯拉等一些OEM仍未使用LiDAR,而是押注传感器和AI计算的结合以实现高自动化水平。



就像人类的感觉一样,传感器必须在战略上定位,以连续反馈汽车周围的信息。但是传感器的放置位置存在技术限制。例如,前照灯中的冷凝水可能会阻止激光雷达工作。在下雪或寒冷的天气中,霜冻可能导致传感器故障。红外传感器无法穿透玻璃,也不能放在挡风玻璃后面。


目前来看,自动驾驶有三种主流解决方案,一是基于视觉主导,采用GPS地图和AI人工智能进行自动驾驶。基于视觉主导的当前主要是特斯拉模式,特斯拉通过所有特斯拉汽车的摄像头采集环境数据,将图像处理和机器学习结合起来通过从而不依靠预先记录的地图。特斯拉汽车在行驶中采集数据学习并与所有特斯拉汽车分享学习到的东西,从而实现类似于人眼睛的方式查看地形然后通过人工智能进行分析指导自动驾驶汽车做出决策。


二是基于激光雷达主导,视觉辅导,采用高精地图和人工智能进行自动驾驶。这是当前主流传统主机厂通用,奔驰,福特以及众多自动驾驶公司包括Waymo,谷歌等采用的自动驾驶方式。这些车辆取决于预先记录的周围环境的3D高分辨率地图,该地图是使用配备激光雷达的车辆预先捕获绘制的。然后,车辆可以使用地图,使用自己的激光雷达设备定位确定环境是否已发生变化,然后在地图区域中巡航时进行控制。


三是基于车联网主导,多种传感器融合的人工智能自动驾驶。车联网,需要庞大的基础设施投资以及需要所有运行的自动驾驶都处于同一平台内。与前两种策略相比,这是一个更为广阔的生态系统,通过投资建设更智能的道路,可以降低车辆自主性的复杂性和不确定性。这就要求汽车制造商,V2X供应商和市政当局共同协作,并创建车辆的基础设施和标准,以使车辆能够顺利导航并降低错误门槛。



显然前两种解决方案是基于目前传统道路情况、汽车情况、法律法规情况之下的现实方案。虽然说特斯拉的方案只要它一家采用,但是特斯拉在电动车市场的体量也是非常大的,很难说基于视觉主导的自动驾驶方案就一定比基于激光雷达的方案更差。


不过有一点肯定的是,第三种基于车联网的方案是未来自动驾驶发展的必经之路。在车联网主导之下,必然会需要大量的传感器,这些传感器将互相配合,与汽车本体组成一个完整的自动驾驶系统。因此,传感器的发展前景几乎可以用一片坦途来形容。


百姓评车


2019年全球自动驾驶车产量约为几千辆,预计在2032年以前将增加到40万辆的年产量,累计总产量达到10亿辆。与自动驾驶车生产相关的总收益届时也将达到600亿美元,其中的40%将来自于车辆本身,28%来自于感测硬件,28%来自于运算硬件,剩余的4%则来自于整合。这意味着在接下来的15年内将围绕着自动驾驶车辆技术建构起完整的产业生态。


对此,Yole Développement的分析师预期2024年传感器营收分别是:光达将达到4亿美元,雷达为6千万美元,摄影机为1.6亿美元,IMU为2.3亿美元,GNSS装置为2千亿美元,但不同类型传感器之间的分配情况在未来15年内或许会再发生变化。感测硬件的总营收将在2032年达到170亿美元,相较之下,运算硬件营收应该会落在相同数量级范围内。无论如何这都是一个体量巨大的市场,没有人愿意自动放弃这块蛋糕。


关键字:传感器  自动驾驶 引用地址:传感器融合才是自动驾驶的正道之光

上一篇:Microchip推出首款适用于CAN FD网络的8位单片机系列产品
下一篇:低成本激光雷达时代加速到来

小广播
最新汽车电子文章
换一换 更多 相关热搜器件

 
EEWorld订阅号

 
EEWorld服务号

 
汽车开发圈

电子工程世界版权所有 京B2-20211791 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2024 EEWORLD.com.cn, Inc. All rights reserved