Uber自动驾驶撞人原因解析:一场原本可避免的灾难

发布者:qin199099最新更新时间:2018-04-02 来源: 电子产品世界关键字:Uber  自动驾驶 手机看文章 扫描二维码
随时随地手机看文章

  日前,一辆Uber自动驾驶汽车在美国亚利桑那州坦贝市的一条街道上,以每小时65公里的速度撞上了一位横穿马路的女子。该女子在送往医院后不久,不治身亡。这是全球首例自动驾驶汽车路测撞死行人的交通事故,引发了公众的极大关注以及对自动驾驶汽车安全性的担忧。下面就随汽车电子小编一起来了解一下相关内容吧。

  事发后不久,坦贝市警察局局长对媒体表示,这场车祸无论是不是人类驾驶,都是不可避免的,这可能不是Uber的错。

  然而,这真的是一场无可避免的交通悲剧吗?

  众说纷纭的车祸原因

  车祸发生后,很多媒体和专家对车祸原因做了分析和猜测。

  美国的网友看过视频后表示,在光线昏暗的情况下,摄像头的“视力”通常差得要命,如果用肉眼观察,也许能更早注意到行人横穿。

  地平线机器人创始人余凯在接受媒体访谈时,分析猜测认为造成有可能是这辆自动驾驶汽车的预测判断做的不好,出现了问题,没能准确预判出障碍物的走向。

  眼擎科技创始人朱继志在其微博中表达了不同的看法。他认为,问题在于摄像头,人从暗部走向亮部,因为路灯的原因,光线明暗反差太大。在暗部的时候,汽车没有监测到,等行人走到亮部的时候,汽车虽然监测到,但已经太迟了。

  同时,他认为夜间道路光线环境太复杂,汽车摄像头的动态范围需要提升30倍以上,自动驾驶汽车才有上路的可能。

  也有业内人士分析,这辆Uber自动驾驶汽车已经检测到了行人,只是没有采取刹车或停车措施,致使酿成撞人事件。

  传统成像技术的天花板

  众所周知,当前无人驾驶汽车所采用的视觉系统 ,主要是基于摄像头和光学雷达。有业内人士对其相关的视觉性能优势和缺陷做了分析对比:

  

Uber自动驾驶撞人原因解析:一场原本可避免的灾难

 Uber自动驾驶撞人原因解析:一场原本可避免的灾难

  从图中我们不难得出一个结论,没有一种方案是完美无瑕,万无一失的。对于基于传统成像技术的摄像头而言,受光照条件的影响非常大,在强光、弱光、逆光、反光等情况下,基本歇菜。

  而当前最受车企青睐的激光雷达,也有很难逾越的短板。且不说,短期内无法迅速降低的成本,除了分辨率低外(当然现在已经有128线,甚至300线的激光雷达,但与摄像头的分辨率还是不可同日而语),最大的问题是无法辨识颜色,即无法表示交通标示。

  另外,激光雷达也受环境的影响,就连特斯拉和谷歌都承认,即使是堆满昂贵摄像头和激光雷达的无人驾驶汽车在大雪天也基本被废掉一半功力。

  现在的自动驾驶汽车都采用摄像头与雷达搭配的方案(或激光雷达+摄像头,或毫米波雷达+摄像头),妄图弥补各自的不足。但显然这样的策略也没有达到1+1>2的效果。原因很简单,一方很难弥补另一方的短板。比如Uber自动驾驶汽车撞人致死的事件中,显然车上的摄像头因为光线问题没有监测到正要横穿马路的路人(除非汽车的刹车系统坏掉了),而激光雷达即使监测到了有反射信号,也无法判断出是行人。正如有专家分析,因为其局限性,光学雷达并不是为检测行人设计的。因为光学雷达分辨率有限,刷新率不高,更无法获取物体对象的颜色信息。所以它不善于实时地分辨物体。

  给自动驾驶汽车一双慧眼

  

Uber自动驾驶撞人原因解析:一场原本可避免的灾难

 Uber自动驾驶撞人原因解析:一场原本可避免的灾难

  从Uber自动驾驶汽车传感器示意图看,这辆出事的自动驾驶汽车上面也安装了不少摄像头,并且这些摄像头都正常工作,却并没有避免悲剧的发生。为什么?

  很简单,这些摄像头的视觉能力比不上人眼。

  正如专家所说,传统的摄像头成像技术,机器的视觉能力无法与人的眼力相比,甚至很难接近。因为传统的成像技术更专注于做给人看的图像处理,即做图像的优化。而在机器的眼中,不注重像素高低,更不需要美颜,它需要的是精准的测量现实世界,不仅色彩高度还原、而且边缘清晰、锐度高等。

  这就意味着传统的摄像头无法满足AI机器在复杂光线下的正常运作。

  而对于驾驶员辅助系统,关键挑战则在于保证系统在任何环境状况下(温度变化、阳光照射、黑暗中或雨雪天气)都能正常工作,而且还要能辨认出300米以外的物体。

  事故发生后,Uber暂停了自动驾驶汽车路测,丰田暂停了自动驾驶汽车的路测,据说,英伟达也暂停了自动驾驶汽车的路测。

  希望之光

  不久前拜访眼擎科技时,工作人员向笔者演示了他们最新推出的一项AI视觉成像引擎视觉技术成果:在昏暗办公室内,搭载了眼擎科技AI视觉成像引擎方案的摄像头在室内只有一台电脑显示屏作为光源的条件下,呈现出了明亮、清晰、色彩还原度相当高的图像。而此时,人眼已无法分辨出被拍摄对象的颜色和轮廓。

Uber自动驾驶撞人原因解析:一场原本可避免的灾难

Uber自动驾驶撞人原因解析:一场原本可避免的灾难

  对此,工作人员解释说,眼擎科技希望解决的是AI机器在复杂光线下的自动适应能力。

  有关资料显示,不论2D还是3D摄像头都需要图像传感器有至少130dB的高动态范围(动态范围指一个多媒体硬盘播放器输出图像的最亮和最暗部分之间的相对比值)。只有这么高的动态范围才能保证,即使阳光直射到镜头上,传感器也能得到清晰的图像信息。普通的镜头系统动态范围远远低于这个值。

  该工作人员解释,眼擎科技的方案在成像的动态范围上比人眼高18db,所以在人眼无法辨别色彩的极弱光条件下仍能输出清晰的彩色图片。

  今年1月份,眼擎科技发布了全球首款完全自主研发的AI视觉前端成像芯片“eyemore X42”。

  据悉,eyemore X42成像引擎芯片,拥有比传统ISP高20倍的计算能力,采用了20多种新的成像算法,集成了超过500种不同场景下的复杂光线数据。

  其中一个重要原因,eyemore X42抛弃了传统的ISP成像架构,采用了全新的成像引擎架构,来解决复杂光线下的成像难题。

  除此之外,eyemore X42芯片还具有独立成像以及API接口丰富的特点。

  就像人眼拥有超强的视觉能力,不仅仅在于强大的光学成像系统,更重要的是人眼通过神经与大脑的交互。基于此,眼擎科技也为成像引擎设计了一套与后端AI算法的交互架构,来获知AI对图像的需求。

  眼擎科技创始人朱继志表示,这种与AI系统的交互能力,将使得成像系统真正成为AI的有机器官。

  写在最后

  在本月初的“2018全球AI芯片创新峰会”上,眼擎科技与商汤、地平线等AI新秀一起荣膺“年度AI先锋”奖,代表了业内对眼擎科技AI视觉前端成像技术的认可。

  诚然,从Uber和丰田相继叫停路测来看,公众对自动驾驶汽车最大的顾虑还是安全问题。而安全问题的解决,主要取决于车辆本身能否及时监测到危机或作出及时的处理。这就需要自动驾驶汽车整个产业链的成熟发展,包括道路基础建设和5G网络的兴起,而其中最关键的还是需要车辆本身有一双慧眼。而传统的摄像头成像天花板已非常明显,以眼擎科技AI视觉前端成像引擎技术为代表的新生代,或许是冲破天花板的希望所在。

  附2015年至今的全球13起自动驾驶汽车交通事故:

  时间

  事件梗概

  2018年3月23日

  23日,一辆特斯拉2017 Model X在美国加州101号高速公路上行驶时,撞上了公路的护栏后起火,并被后方两辆来车撞上。

  2018年3月18日

  美国亚利桑那州一名女子被Uber一辆正在路测的自动驾驶汽车撞伤,被撞女子身亡

  2018年1月22日

  一辆开启了自动驾驶模式的特斯拉Model S在洛杉矶405高速公路上撞上了一辆停在路边的消防车。

  2018年1月12日

  一辆特斯拉Model 3翻入了一条小溪

  2018年1月10日

  在美国宾夕法尼亚州匹茨堡,一辆厢式货车闯红灯,撞到了福特的一辆自动驾驶汽车

  2017年12月7日

  在温哥华,一辆Cruise自动驾驶汽车正以自动驾驶模式行驶,变道时剐蹭了变道中的一辆摩托车

  2017年11月8日

  在美国拉斯维加斯,一辆无人驾驶巴士与一辆卡车相撞

  2017年3月24日

  在亚利桑那州坦佩市,一辆测试中的Uber自动驾驶汽车与一辆普通汽车发生了碰撞。

  2016年9月23日

  在美国山景城,谷歌的一辆无人驾驶测试车遭受了一辆道奇商用货车的严重撞击。

  2016年5月7日

  一辆特斯拉Model S在佛罗里达州高速公路上与一辆垂直方向开来的挂车发生相撞

  2016年2月14日

  在硅谷芒廷维尤市,谷歌的“雷克萨斯”牌改装无人驾驶汽车在路测时,与一辆公共汽车的右侧相撞。

  2016年1月20日

  京港澳高速河北邯郸段,一辆开启了自动驾驶模式的特斯拉轿车直接撞上一辆正在作业的道路清扫车

  2015年7月1日

  谷歌公司一辆雷克萨斯牌改装无人驾驶样车在加利福尼亚州芒廷维尤市街头测试时发生追尾事故

    以上是关于汽车电子中-Uber自动驾驶撞人原因解析:一场原本可避免的灾难的相关介绍,如果想要了解更多相关信息,请多多关注eeworld,eeworld电子工程将给大家提供更全、更详细、更新的资讯信息。

关键字:Uber  自动驾驶 引用地址:Uber自动驾驶撞人原因解析:一场原本可避免的灾难

上一篇:不再自行生产动力电池单元 博世战略性放弃背后
下一篇:特斯拉的生死时速:真的还有几个月破产?

推荐阅读最新更新时间:2024-07-25 20:03

重磅!福特发布自动驾驶安全报告
继谷歌waymo和通用发布自动驾驶安全报告之后,福特公司于近日也发布了一份自动驾驶安全报告,该报告的名字为“A MATTER OF TRUST”(信任问题),从这份报告中可以清楚地看出,福特主要目标是希望在公众中建立对技术的信任。 与之前发布的报告一样,福特的这份文件首先揭示了研发自动驾驶汽车的意义,例如它可以让城市在日益城市化的世界中变得更加宜居和安全,并为所有人提供出行服务。正如通用汽车所做的那样,福特也在试图通过强调它在设计,验证和制造安全可靠的车辆方面的长期经验,将自己与那些试图抓住自动驾驶业务的新创企业区分开来。为此,福特与其他公司一样,正在实施全系列冗余系统,包括冗余传感器类型,多个独立计算平台以及用于转向和制动的
[汽车电子]
重磅!福特发布<font color='red'>自动驾驶</font>安全报告
​超越人类,自动驾驶中的深度强化学习
深度强化学习对于现阶段的科技工作者来说可能并不陌生,作为21世纪最为前沿领先的技术之一,深度强化学习早已在多个领域发挥了其不可替代的作用。例如前几年大火的AlphaGo战胜了一众围棋世界冠军,又比如游戏界DeepMind 研发的 AlphaStar 在《星际争霸2》中一战封神等等,火热的强人工智能加速了人们对于未来科技飞速发展的信心,而基于强化学习的方法更让人们看到了人工智能超越人类知识的可能。 如此前沿的技术必然在前沿的领域发挥举足轻重的作用,在自动驾驶领域,深度强化学习已然走出了自己特有的道路,并吸引一位又一位研究人员、企业对其展开探索,试图将这一人类能完成的最高智慧应用于未来的日常出行中。本篇文章就带领读者了解深度强化学
[汽车电子]
​超越人类,<font color='red'>自动驾驶</font>中的深度强化学习
CES Asia汽车黑科技齐亮相,自动驾驶离我们还有多远
    2017年CES Asia(亚洲国际消费类电子产品展览会)于6月7日在上海开幕,作为引领亚洲消费科技产业技术趋势、市场发展的顶级展会,CES Asia一直被国内科技迷奉为“黑科技盛会”。如今为了提升自身软实力,汽车行业也大举进军科技领域,各大车企为了彰显自身科技实力,纷纷参与CES展,CES Asia也因此成了亚洲车迷们一年一度的饕餮盛宴。   汽车黑科技之一的自动驾驶是目前包括车企与互联网公司在内的许多企业都争相涉猎的领域,虽然自动驾驶技术是未来主要发展趋势,但从现阶段来看,受制于主客观多方面因素,它距离我们仍有一定的距离。接下来就让小主带大家去CES展上看看今年都有哪些自动驾驶黑科技参展,感受一下自动驾驶与我们的距
[安防电子]
技术解析:憋了8年的百度自动驾驶,为何依旧左转困难
这几年,百度错过了移动互联网的窗口。所以百度在自动驾驶领域和高精地图上的动作一直都保持着 高频 的操作。百度也是入局最早、最积极的典型。 错过了移动互联网,百度不允许自己再错过人工智能;而商业化落地,最重要的场景,当然是出行市场。对于2013年就开始布局自动驾驶的百度来说,八年时间,自动驾驶功能成了百度手中的一张王牌。 时隔四年,百度的自动驾驶小巴车,迎来了第二代更迭。 阿波龙II带来的更新 百度的第二代阿波龙更新了挺多功能,包括一块儿55寸透明车窗,但我们看的重点绝不在于这些 花拳绣腿 的功能。硬实力增加在了两颗40线激光雷达,和一个 无保护左转 的功能,以及ODD扩大到开放道路上。 挨个分析,先看激光
[汽车电子]
技术解析:憋了8年的百度<font color='red'>自动驾驶</font>,为何依旧左转困难
从算法层解读,自动驾驶的「轨迹规划」是如何实现的?
车辆路径规划问题中路网模型、路径规划算法和交通信息的智能预测为关键点。 由于驾驶员的驾驶工作繁重,同时随着汽车拥有量的增加,非职业驾驶员的数量增多,导致交通事故频繁发生。如何提高汽车的主动安全性和交通安全性已成为急需解决的社会性问题。 ∆图1 智能汽车示意图 随着计算机技术、电子技术、图像处理等信息处理技术研究的发展,研究人员开始将各种先进的技术应用于汽车控制上,辅助驾驶员进行汽车的操纵控制。在这些汽车电子控制系统研究的基础上,结合蓬勃发展的智能化信息处理技术,逐步产生了一个新兴的交叉学科 车辆的自动驾驶(又称为智能汽车)。未来实用化的智能汽车将最大限度地减少交通事故、提高运输效率、减轻驾驶员操纵负担,从而提
[汽车电子]
从算法层解读,<font color='red'>自动驾驶</font>的「轨迹规划」是如何实现的?
距离城市道路通关,自动驾驶还差在哪?
“人们习惯将凡事分出黑与白,但很遗憾,现实全是灰色的。”刘慈欣笔下的这句话,恰恰也是自动驾驶行业的真实写照。两个流派,重感知和重地图,华山论道,暗流击水。只是眼下,尚没有一个最优解,让汽车彻底摆脱人类干预。 因为无论什么样的捷径,打造智慧的车都是必由之路。尤其当自动驾驶场景从高速延伸到城市道路,提高车端的感知与认知能力将变得愈发关键。 一方面,高度信息缺乏之余,地图始终在变化。举例来说,北京半年内道路拓扑变化约达到平均每百公里5.06处,广州市内改道施工平均一天能有两起,只有采集车不停采不停回传数据,才能保证地图的“鲜”度;另一方面,道路参与者无序且随机。除了车辆,行人、非机动车等不确定因素也成为自动驾驶进阶的一大考验。
[汽车电子]
距离城市道路通关,<font color='red'>自动驾驶</font>还差在哪?
是德科技推出雷达场景仿真器解决方案,加快全自动驾驶技术发展脚步
是德科技公司(NYSE:KEYS)推出雷达场景仿真器,赋能汽车制造商在实验室中仿真并测试复杂的真实驾驶场景,从而加快整体测试速度。是德科技提供先进的设计和验证解决方案,旨在加速创新,创造一个安全互联的世界。 为了实现先进驾驶辅助系统(ADAS)/自动驾驶(AD)功能,需要使用可靠的雷达传感器和算法。在实验室中执行全场景仿真对于开发这些雷达传感器和算法至关重要。是德科技的全场景仿真器结合使用几百个微型射频(RF)前端构成一个可扩展的仿真屏幕,可呈现最多 512 个目标,距离最近可达到 1.5 米。 汽车制造商知道自动驾驶算法不仅测试起来非常复杂,还会涉及到安全问题。是德科技的雷达场景仿真器采用全场景渲染方法,在宽广的连续视场(F
[汽车电子]
是德科技推出雷达场景仿真器解决方案,加快全<font color='red'>自动驾驶</font>技术发展脚步
雷诺发布自动驾驶战略:个人车辆聚焦L2和L2+
据外媒报道,5月15日,雷诺集团正式发布自动驾驶战略,未来将基于个人车辆和公共交通的差异化需求,实现自动驾驶技术的最佳应用。 在个人车辆方面,雷诺集团专注于L2和L2+级别的驾驶辅助系统,具体功能包括情景巡航控制、车道保持辅助以及即将推出的自动超车技术等。 雷诺集团认为,这些系统在市场上处于领先水平,能有效提升驾驶的安全性和舒适性。但在使用这些系统时,驾驶员仍然需要负责车辆驾驶。 在公共交通领域,雷诺集团预计在未来几年内,市场对自动驾驶迷你巴士的需求将达到数千辆。未来,雷诺集团将推出一个基于全新雷诺Master的机器人化电动迷你巴士平台,该平台能够整合来自EasyMile、Milla和文远知行等专业合作伙伴提供的自动化
[汽车电子]
雷诺发布<font color='red'>自动驾驶</font>战略:个人车辆聚焦L2和L2+
小广播
最新汽车电子文章
换一换 更多 相关热搜器件
随便看看

 
EEWorld订阅号

 
EEWorld服务号

 
汽车开发圈

电子工程世界版权所有 京B2-20211791 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2024 EEWORLD.com.cn, Inc. All rights reserved