要想让电影中自动驾驶的情景变为现实,环境传感器、车联网通讯技术、人工智能决策平台都是必不可少的关键技术。只有三者结合,车辆才能实现安全无误的自动驾驶。这三项技术对自动驾驶的未来影响深远。
一直以来自驾车被当成电视影集里的想象,直到最近才不再被视为遥不可及的幻想,而是当下正逐渐实现的科技产品,其主要是因为各种尖端科技逐渐到位成熟,让研发自驾车技术可普及和取得,最终让自驾车可以改变人类生活型态。
其中,环境传感器、车联网通讯技术、人工智能决策平台都是实现自驾车不可或缺关键因素。从自驾车的系统架构,首先感测环境信息(Sensor),并透过信息链接(Connectiviety),最后完成人工智能决策(decision),车辆才能真正落实安全无误的机器驾驶,本文从传感器、车联网与人工智能介绍自驾车技术发展趋势。
传感器作为自驾车之眼
自驾车透过传感器辨识外围环境数据,现今自驾车传感器解决方案,包括光达(LiDAR)、摄影机、毫米波雷达(MMWRadar)、超音波(Ultrasonic)等,其中光达可在条件恶劣环境下,仍可透过激光束建构出立体影像,协助自驾车判断自身所在位置,以及检测周遭障碍物,光达扫描半径达100公尺,测距误差仅有5公分,被视为自驾驶不可或缺的传感器。
目前市面仅有机械构造式光达,因全手工打造造价昂贵,初阶款32线光达即要价4万美元以上,未来光达能透过硅制程(CMOS)量产,以芯片样态的固态光达呈现,不仅体积可缩小,光达价钱可望压在500美元以下。
在光达价格居高不下情况下,目前自驾车业者同时采用多元传感器相互辅助,以不同传感器物理特性截长补短,例如,像是毫米波雷达侦测距离很远,但容易被金属物体干扰;摄影机价格便宜,辨识能力强,但恶劣天候下感测效果差;超音波方向性差、距离短,只能运用在后方防撞。
透过多元传感器信息融合(SensorFusion),整合出准确环境参数,经此让决策系统做出更好、更安全的决策。举例说明,毫米波雷达能够测量高达120~250公尺的物体的速度和距离,摄影机在近距离侦测和物体辨识方面十分出色,当两者携手合作,雷达则可作为远方对象早期预警作用,摄影机影像辨识则可精准判断近距离号志、交通信号,远近分工达到智能驾驶目的。
车联网打造道路信息透明平台
自驾车传感器其搜集信息仅留存在单一车辆层次,但如果在车辆无法感测的死角,或者不可见远方突发事件,即须要透过车辆联网,以取得更详尽信息;目前车联网层次分为点对点传输,以及云端传输。
点对点直接传输主要传递具有时间敏感性(time-sensitive)数据,透过车辆间(VehicletoVehicle;V2V)、车辆对道路装置(VehicletoRoadsideDevice;V2R)直接对话,若透过“远在天边”的云端汇整数据,可能缓不济急,因此透过点对点传输强化车联网沟通效益。
当前车联网的技术格式,主要包含车用环境无线存取(WAVE)/专用短程通讯(DSRC)与LTE-V2X两种规格方向。其中车间点对点通讯最重要的是低延迟性,如此才能做到实时传递效果。
WAVE/DSRC传输延迟约20毫秒,相对于LTE-V2X4G约50毫秒,相较具发展潜力,虽然下一代LTE-V2X5G传输延迟性仅有1毫秒,但其技术规格仍尚未成熟,目前各国现今发展车间传输仍以DSRC为主流。
另一部分,云端传输主要应用于高精图资(HighDefinitionMaps)反馈与实时更新,高精度协助自驾车完落实点对点全自动驾驶,因此这个给机器看的地图,必须具备有高精度的坐标、道路线标、路标,同时含括道路垂直坡度、曲率、侧倾、外围对象等信息,同时可透过云端实时更新路况、障碍、道路维修等实时动态路况讯息。
当车间点对点传输与云端传输共同运作,将可建立一个绵密道路传输网,协助自驾车掌握不可见、不易感测讯息。
AI汇整内外信息进行驾驶决策
当车辆传感器侦测到周边环境信息,同时车间传输取得实时远方路况讯息,此时即需要透过人工智能平台将多元信息进行汇整、运算、处理,最后做出正确驾驶决策。目前各种人工智能途径当中,以深度学习(Deeplearning)为最为可行,但该方法需要即大量对象数据库,才能训练出精准分析系统。
深度学习如同人类学习分类的过程,透过大量分类完成的样本标的数据库,持续将不同分类样本投入,教导系统学习,使系统逐渐「参透」照片中的规律性,当未来发现特例也可如同人类自行推敲分析。
在整个自驾车系统架构内,感测端如同五罗近处可见讯息,车联网将五官延伸搜集远程不可见信息,远近讯息融合后,交由车辆的人工智能平台进行运算决策,最后由如同人类四肢的控制系统执行大脑命令,当自驾车的大脑、五官、四肢可以协调合作,即可落实机器安全驾驶。
上一篇:全自动驾驶:特斯拉自动驾驶芯片拆解揭秘
下一篇:杜克大学新型传感器:可实时测量轮胎磨损情况
推荐阅读最新更新时间:2024-07-25 19:36