行为预测技术——自动驾驶破局关键

最新更新时间:2022-05-18来源: 智车科技关键字:自动驾驶 手机看文章 扫描二维码
随时随地手机看文章

自动驾驶领域已持续火热了多年,而截止目前,自动驾驶在真实复杂场景下的大规模部署却一再延后。其中一个很重要的原因是,对于动态和强交互性场景下的行为和轨迹预测问题(behavior prediction)始终没有得出很好的解决方案。由于缺乏对其他道路参与者的行为理解与预测,自动驾驶车辆便无法进行安全高效的决策、规划以及控制。

 

在自动驾驶领域,很早就有业内人士指出:行为预测是自动驾驶最具挑战性的问题之一,比如曾经领导Google无人车项目多年的Chris Urmson,曾在演讲中提到:Google无人车项目的最大障碍就在于怎样理解并预测周围道路参与者的未来行为。


什么是自动驾驶中的行为预测问题?

 

让我们从自动驾驶汽车的工作原理开始。我们知道,目前自动驾驶的整体架构如下图所示,预测处于的位置在感知与规划之间,它拿到上游感知识别到的障碍物信息,并对这些障碍物在未来时间内的行为及轨迹做出一系列的预测,再将预测的轨迹给到规划模块,从而帮助规划模块能够生成更加合理、安全、舒适的轨迹。

 

 

自动驾驶汽车需要能够对未来做出预测 —— 这是司机们一直在潜意识里做的事情。设想一辆自动驾驶汽车试图左转,而另一辆车正从相反的方向驶来。为了使自动驾驶汽车安全地执行这一操作,它需要确定另一辆车是右转还是继续直行并干扰左转,这正是运动预测的意义所在。而自动驾驶驾驶中的预测模块,便是模仿司机在道路上针对不同障碍物的预测判断,而不同的驾驶员针对相同的障碍物,他们的判断是不一样的,往往一个老司机比一个新手司机所多出来的知识经验就体现在这方面,而这也恰恰决定了一个自动驾驶系统的智能性及安全性,是他是否能达到类人驾驶的一个重要标志。


行为预测到底重要在哪?

 

我们知道,评判一个司机是否是经验老到的老司机,最重要的一点就是他对未知情况的预见性,如果能预测出一些危险的场景并能提前做出判断,那便能使得驾驶更加得安全舒适,而自动驾驶中的行为预测技术在这里便是充当这一功能。可以说没有行为预测,自动驾驶也许能解决大部分的简单场景,但是要真正实现L5级别的自动驾驶,行为预测是其中的关键技术,也是决定各家厂商最后成败的关键一环。

 

自动驾驶公司 Pronto CEO Anthony Levandowski 讲述了自己的看法:他认为自动驾驶原型车在「预测」能力上的短板是阻碍其奔向 Level 4/5 的绊脚石。在 Medium 上发布的一篇博文中,Levandowski 写道:「现在没人能实现 Level 4/5 是因为如今的软件还不太行,它无法预测未来。在这方面,软件跟人类直觉差远了,而行为预测又恰恰是道路安全最重要的因素。」

 

目前市场上的自动驾驶系统中,预测环可能是每个业界玩家都深感头疼,却又不得不解决的一个难题。在一次商业采访中,Levandowski 又重申了预测重要性这一观点:

 

「如果你想分析测试车每次『脱离』背后的故事,找到真正的原因,最终结果都是软件故障。即使是较为成熟的公司也难以避免,因为在复杂环境下,车辆很容易出现误解或沟通问题。眼下我们的问题不是能否找到更好的传感器,而是如何解决预测这个大问题。」由此可见预测的重要性在所有自动驾驶公司中都已经得到极大的重视,并且也提上了日程。


行为预测的现有解决方案

 

根据行为预测问题的定义,业界将自动驾驶轨迹预测的方法分为3类。

 

1.Physics-based motion models 物理模型


2.Maneuver-based motion models 意图模型


3.Interaction-aware motion models 交互模型

 

物理模型即利用汽车运动学模型及动力学模型,把汽车当做一个刚体,根据刚体运动预测汽车的轨迹。缺点是对时间的定性约束,车辆非常多的情况,不能应用到其它拓扑结构的道路。

 

意图模型将车的轨迹可以分为一系列的簇,每一簇对应一个典型的运动模式。缺点是对时间的定性约束,车辆非常多的情况,不能应用到其它拓扑结构的道路。

 

交互模型比物理模型预测的时间更久,比基于意图的预测更加稳定,但同时计算多个汽车之间的关系计算量比较大,非常耗时。


行为预测的未来挑战

 

作为自动驾驶的重要细分方向之一,“自动驾驶中的行为预测问题“吸引了大量研究人员的关注与努力。近年来,伴随着深度学习在自动驾驶领域的应用不断加深,行为预测的精度更是得到了大幅度的提升。然而,现实世界中的驾驶场景极其地复杂多样,不同的驾驶场景(高速,交叉路口,环岛等),无论是道路结构,还是驾驶模式都存在不小的差异。

 

从驾驶场景来看,当前的行为预测方法通过训练后可以在训练集所包含的场景上表现良好,但是一旦遇到一个全新的或者稍有差异的场景,模型的预测性能往往会崩溃或大幅下降。通过上述行为预测方法训练出的模型,由于迁移性(transferability)和泛化能力(generalizability)的缺失,会极大地限制自动驾驶进行大规模部署。倘若需要针对每一个驾驶场景专门训练一个模型,可想而知开发成本会多么高昂。

 

除此以外,对真实驾驶环境中复杂多样的驾驶行为实现高效精准预测,也是一项不小的挑战。驾驶行为因人而异(heterogeneous) ,不同的驾驶员展现出的驾驶行为存在着较大差异,不同的驾驶员也有着不同的驾驶风格,有粗鲁莽撞的驾驶员,也有谨慎礼貌的驾驶员。

 

而目前的大部分预测方法,通过训练后仅仅能够预测出平均意义上的驾驶行为,却无法捕捉到驾驶员的个体差异。智能体对个体行为差异理解的缺失,将会始终制约行为预测的精度,因而自动驾驶行为的安全性也将难以得到保障。

 

在不久的将来,预测将会成为自动驾驶落地的关键技术之一,而预测算法的强大与否,也将直接决定了现在所有自动驾驶玩家的上限,以及用户在体验各家产品对于乘坐安全性及舒适性的高要求。

 

参考资料:


[1]知乎OpenDILa:

https://zhuanlan.zhihu.com/p/513363447?utm_source=wechat_session&utm_medium=social&utm_oi=963565229426352128&utm_campaign=shareopn


关键字:自动驾驶 编辑:鲁迪 引用地址:http://news.eeworld.com.cn/qcdz/ic590590.html

上一篇:为何10BASE-T1S是汽车通信中缺失的以太网链路
下一篇:TI推出全新固态继电器 有助提升电动车安全性

推荐阅读

英伟达新型AI模型将静态图像变为3D模型 可用于训练自动驾驶汽车
英伟达又为浅层图形增加了深度。在将2D图像转换为3D场景、模型和视频之后,该公司将重点转向了编辑。据外媒报道,当地时间6月22日,该家GPU巨头公布了一种新型AI方法,能够将静态图片转变成创造者可以轻松修改的3D物体。英伟达的研究人员研发了一种反向渲染产品——英伟达3D MoMa,能够让用户将一系列静态照片重建成有关一个物体甚至一个场景的3D计算机模型。与更为传统的摄影制图法相比,该工作流程的主要益处在于其能够输出干净的3D模型,还能够通过3D游戏和视觉引擎导入和输出。英伟达新型AI模型(图片来源:英伟达)据报道,其他摄影制图程序能够将3D图像转变为3D模型,而英伟达的3D MoMa技术则更进一步,通过创建物体的网格、材料和照明信息
发表于 2022-06-24
英伟达新型AI模型将静态图像变为3D模型 可用于训练<font color='red'>自动驾驶</font>汽车
UCF研发模仿人眼的AI设备 可用于自动驾驶汽车
据外媒报道,美国中佛罗里达大学(University of Central Florida,UCF)研发了一种人工智能(AI)设备,能够模仿眼睛的视网膜。该研究可能会促成可以立即识别看到的东西,例如自动解释摄像头或手机拍摄的照片等的先进AI技术。此外,该项技术还可用于自动驾驶汽车和机器人。研究人员在芯片上测试该设备(图片来源: 中佛罗里达大学 )该设备所能查看到的波长超出人眼所能实现的范围,能够看到紫外线、可见光以及红外光谱。其独特之处在于能够将三种不同的操作整合为一种。与自动驾驶汽车等所采用的技术一样,目前的智能成像技术,需要对数据单独感知、记忆和处理。UCF设计的该款设备能够则将三步结合在一起,而且速度比目前的技术快很多。此外,
发表于 2022-06-23
UCF研发模仿人眼的AI设备 可用于<font color='red'>自动驾驶</font>汽车
自动驾驶普及后汽车后市场会逐渐消失吗?
自滴滴在上海走出自动驾驶商用化第一步之后,给大家一种自动驾驶世界离我们越来越近的感觉,自动驾驶又变成饭后闲聊的重点,大家憧憬着这一技术的普及,可以不用驾驶汽车,将更多的道路时间用来休息消遣。自动驾驶会普及吗?答案是肯定的,自动驾驶终究会走进每家每户,只是短期内并不可能实现,真正普及还需要有技术、政策、定价制定、保险判定、后市场后勤保障等各方面的加持(后续会写话题专门讨论),只有像现在对于普通车辆在各方面都拥有了完善的闭环控制,才有可能实现最终的普及。聊到自动驾驶,更多人会想到自动驾驶技术的先进性,但很少有人会去考虑如果自动驾驶实现了普及,汽车后市场会变成什么样,这个问题离我们还很遥远,但是确是自动驾驶普及之路上不可或缺的考虑方向。首
发表于 2022-06-23
安霸助力卡车自动驾驶领导者嬴彻科技交付L3级自动驾驶方案
安霸助力卡车自动驾驶领导者嬴彻科技交付L3级自动驾驶方案,涵盖前视及周视的视觉感知和AI计算嬴彻科技在其车规级中央计算平台中采用安霸边缘AI 芯片2022年6月22日,美国加利福尼亚州圣克拉拉市,Ambarella (下称“安霸”,专注于AI视觉感知芯片的半导体公司),与Inceptio Technology(下称“嬴彻科技”,专注自动驾驶技术和运营的科技公司)达成合作,嬴彻科技在其车规级中央计算平台里采用安霸AI 芯片CV2FS和CV2AQ(共四颗CVflow® SoC),并已前装量产。该平台是嬴彻科技全栈自研的卡车自动驾驶系统“轩辕”的核心,其中安霸的SoC在此平台上为7个800万像素摄像头同时提供高性能和低功耗的AI视觉感知处
发表于 2022-06-23
安霸助力卡车<font color='red'>自动驾驶</font>领导者嬴彻科技交付L3级<font color='red'>自动驾驶</font>方案
自动驾驶2022半年答卷:毫末智行用数据闭环拿了个“A+”
辅助驾驶里程数据突破1000万公里,毫末智行用了390天;而Waymo在2018年,达成1000万英里路测数据大约用了十年。惊人的对比下,自动驾驶确实在飞快向前。2022年以来,搭载大算力芯片的新车密集落地,新车用户增加了可比较的对象,对辅助驾驶功能的感知加强。政策方面,自动驾驶相关法案相继确立,深圳率先立法支持L3级自动驾驶全域上路,北京允许主驾无人的robotaxi商业运营……法规的支持为行业发展扫清障碍,指引方向。资本层面,总体上对自动驾驶投资变得谨慎,但多笔小规模投资不断流出,在资本加持下,自动驾驶公司有更多的施展空间。上半年最大一笔规模的融资来自文远知行,其获得来自广汽、博世等超4亿美元的融资。战绩已出 主流路线日渐明朗近
发表于 2022-06-22
<font color='red'>自动驾驶</font>2022半年答卷:毫末智行用数据闭环拿了个“A+”
OTSL推出新型3D实时毫米波雷达模拟器 用于自动驾驶
据外媒报道,短距离无线系统和嵌入式系统开发商OTSL宣布推出用于自动驾驶的新型3D实时毫米波雷达模拟器AMMWR2(Advanced Millimeter Wave Radar Simulator 2,高级毫米波雷达模拟器2)。图片来源:OTSL自2017年将AMMWR作为全球首款支持动态实时仿真的自动驾驶传感器模拟器软件推向市场以来,OTSL一直在积极投资开发。随着AMMWR2的发布,OTSL展示了其在开发过程中取得的功能和性能进展。该产品计划于今年年底在全球范围内出售给汽车制造商、开发、设计和生产车辆传感器的系统供应商以及开发传感器设备的半导体制造商。OTSL及其德国分公司的首席执行官Shoji Hatano表示:“随着全球自动
发表于 2022-06-22
OTSL推出新型3D实时毫米波雷达模拟器 用于<font color='red'>自动驾驶</font>
小广播
换一换 更多 相关热搜器件

About Us 关于我们 客户服务 联系方式 器件索引 网站地图 最新更新 手机版

站点相关: 动力系统 底盘电子 车身电子 信息及娱乐系统 安全 总线与连接 车用传感器/MCU 检测与维修 其他技术 行业动态

词云: 1 2 3 4 5 6 7 8 9 10

北京市海淀区知春路23号集成电路设计园量子银座1305 电话:(010)82350740 邮编:100191

电子工程世界版权所有 京B2-20211791 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2022 EEWORLD.com.cn, Inc. All rights reserved