ICVIS智车行家

文章数:1109 被阅读:1582604

账号入驻

车载HUD的人因学研究和交互设计空间

最新更新时间:2022-08-02
    阅读数:

智圈l 进“智车行家HUD行业交流群”,请加微信18512119620,备注公司-姓名-职位加群
来源《汽车文摘》
单位:中国第一汽车股份有限公司产品策划及项目管理部
作者:陈芳 李明徽 卢宇

导语


随着汽车朝着智能化发展,智能设备也随之被广泛应用,旨在提供更好的安全驾驶和驾驶体验。其中,车载抬头显示(HUD)作为车内重要智能设备,通过光学设备直接为驾驶员提供有效信息,如车速、警告、导航等信息。


随着显示信息的不断增加,在车载抬头显示的设计中需要考虑人因学和交互设计,通过分析并深入洞察国际上关于HUD研发的最新文献,从显示信息、心理负荷与分神、夜视、投影距离、设计空间、视觉显示和车辆行驶维度进行了梳理和总结,为汽车工程技术和研究人员提供HUD和AR-HUD的设计指南。

  //  

主题词:车载抬头显示 人因学 交互设计



01.
前言


随着汽车产业向着智能化、网联化、电动化和共享化快速演变,汽车作为人们的第3空间,汽车驾驶舱正在朝着智能座舱的方向快速发展。智能座舱承载着汽车智能化和网联化的相关信息,包括驾驶信息和娱乐信息的显示,驾驶员和乘员在智能座舱中与车辆进行交互,驾驶员依据显示的信息和其它信息进行车辆操控。

在汽车智能化进程中,智能座舱也为驾驶员操控汽车提供了安全保障。抬头显示(HUD)是智能座舱中重要的显示设备之一,通用汽车公司在世界上第1次将HUD用在汽车驾驶舱信息显示上,FAN等[1]提出汽车上的抬头显示原理,即通过光学镜片的反射或者折射,应用正立放大虚像原理,将驾驶相关的信息显示在驾驶员正前方。目前,HUD主要有4种技术路线:

第1种是以独立显示屏显示信息,叫做组合型抬头显示(C-HUD);

第2种是透过前挡风玻璃,把信息投射到离驾驶员眼睛前一段距离的一个虚拟屏幕上,也就是现在应用最广泛的HUD,汽车行业内一般称为风挡型抬头显示(W-HUD);

第3种是虚拟信息与真实道路重叠的增强现实抬头显示(AR-HUD);

第4种是利用汽车的前挡风玻璃作为屏幕进行显示信息(WSD)。


HUD在汽车上的应用被证明有多方面的优势,比如驾驶员对驾驶速度的保持会更好;能够更好的发现行人;驾驶员更加关注道路交通,以及对驾驶安全更有把握。但与此同时,HUD的设计会直接影响到驾驶,可能造成驾驶员分神和狭窄的视线通道。依据NHTSA对以往研究的结论[6],HUD有可能用来为驾驶员提供关键信息,同时最大限度地减少驾驶员视线离开驾驶前方车道的时间。这可以通过减少驾驶员眼球运动和视觉追踪来提高驾驶员获取信息的速度和聚焦时间。

HUD已在航空领域得到深入研究和广泛应用[7],并且随着成本的降低,正在变成汽车上使用频率很高的装备。HUD还具有扩大车内显示空间的潜力。然而,在应用该技术时,不应该过于激进,其潜在的使驾驶员分神的影响以及个体差异需做进一步的评估。

设计者应考虑有关HUD显示信息的必要性,决定在当前驾驶状况,通过HUD提供哪些必要信息。本文通过梳理当前全球HUD研究的最新文献,总结以往关于HUD的人因和交互设计研究成果,为汽车HUD设计提供参考和指南。


02.
C-HUD、W-HUD和AR-HUD技术及特点

CHUD技术采用的投影介质为驾驶员前方的一块7英寸(178 mm)的独立透明树脂显示屏,投影成像距离(VID)一般小于2 m。其中,显示内容包括车速、温度这样的简单信息。由于这是一块安置在前挡风玻璃前的附加小屏幕,在发生交通事故时会对车内人员造成二次伤害,且显示效果一般,并容易造成驾驶员疲劳和驾驶分神,现在已经不再作为前装装配。

W-HUD技术采用的投影介质为汽车前挡风玻璃,为目前主流使用的HUD形式。相比于C-HUD,W-HUD尺寸在229~305 mm,显示范围变大,显示内容增加路况、天气、警告等信息,但仍然存在成像距离较近、调焦影响驾驶员状态的问题。

AR-HUD通过虚拟现实与实际场景结合,提供近场及远场的警告信息、车辆信息、周围物体信息、行人信息、导航信息和自动驾驶信息,为驾驶员提供无缝和智能化的驾乘体验。

评价HUD的重要技术参数有视场一致性,即视场区域内的亮度均匀程度(FU)、能量转化效率(EOE)、能看到的最大视场范围(FOV)、人眼可以看到清晰完整虚像的眼动矩形区域(眼盒,Eyebox)、投影图像与周围其它投影图像点的相似度(色彩一致性,CU)、对比度(图像中明暗区域最亮的白和最暗的黑之间不同亮度层级的比值)和HUD设备体积(图1)。

硬件结构分为光源、投影镜和投影单元,即图像生成单元(PGU)和投影介质,包括透明树脂显示屏或前挡风玻璃。其中,PGU有液晶显示面板投射成像技术(TFT-LCD)、数字光处理技术(DLP)、激光扫描技术(LBS)、硅基液晶显示技术(LCOS)。根据其成像方式不同,抬头显示器分为C-HUD、WHUD及AR-HUD。其中,C-HUD现在多出现在后装市场,W-HUD在逐渐成为中高端车型的标配,AR-HUD也逐渐在高端车型进行搭载。

图1 HUD技术原理和参数


AR-HUD技术有2个优势:

(1)有虚像距离(VID)变长,FOV变大,因而带来更佳的使用效果;

(2)除显示一些传统的行车、导航信息之外,该系统还能与ADAS功能深度融合,能够实现车道偏离、前车碰撞、行人预警、超速提醒的高级功能,并将显示信息与周边环境相融合。

目前,AR-HUD仍有很多技术问题有待解决,如阳光倒灌、在虚实行车场景不易融合、驾驶员视野追踪难与UI设计和重影等。随着芯片算力和AR引擎能力的提升,将进一步推动AR-HUD与辅助驾驶、驾驶员疲劳监测、驾驶员分神、高精地图、物体识别和多场景显示技术融合应用。


03.
HUD显示的信息分类


对所有研究过的显示的信息分为了4大类:安全、车辆监控信息、导航和娱乐信息。安全类包括了视觉扩展和各类辅助驾驶信息和预警等;车辆监控信息包括车辆状况、传感器状况和燃料/电量等;娱乐信息就比较多了。总而言之,所有汽车上需要和能够显示的信息,都曾经被放在前车窗显示上,并成为研究的热点。


表1 用户调研确认的适合在HUD上显示的信息[15]

注:标注了11个重要度分值高的信息,其余为“低”

从Park等[15]的受试者反应时间和心理负荷测试上看,信息量越多,反应时间越长,心理负荷也越高。研究人员认为信息在HUD上显示的位置不重要,重要的是信息量不应超过6个。

04.
HUD与心理负荷和分神的研究

对于早期的HUD研究,Tufano等[16]做了一次很好的回顾和总结,与传统仪表盘显示相比,Tufano等[16]认为HUD的最大优势是驾驶员获取信息的时间短。Kiefer等[17]研究认为,如果把车速显示在HUD上,驾驶员获取车速信息的时间比在仪表盘上要短114 ms。Gish等[18]研究证明这个时间不是绝对的,如果驾驶员的心理负荷比较高,这个时间就会有变化。

Okabayashi等[21]的另一项研究表明,HUD的优势伴随着驾驶员心理负荷的增加而减弱,同时HUD的信息显示会遮挡车外环境的信息,这也是HUD的一个明显缺点。由于HUD是把信息投射到驾驶员前方一段距离,获取信息时间上的优势是因为驾驶员的聚焦视线移动距离较短,但这种优势对年龄大而视觉老化(老花眼)的驾驶员就更为突出,因为视觉老化的驾驶员看不清仪表盘上的信息。对于其它设计问题,如应该显示的信息内容、显示位置、亮度、颜色、形状、大小和权重等,都是需要认真考虑,这也是学者们在早期研究中关注的核心和热点问题[22-25]

在人手一部或几部手机的今天,无论法律如何禁止,在汽车驾驶中接打电话在全球范围内也是一个无法完全限制和控制的问题。来自European Commission report:Driver Distraction 2018[26]的数据表明,导致驾驶员分神的操作中,有48%是因为接打电话。据2014年交通部的统计,全国约47.2%的简易交通事故是由驾驶员分神引起,达309.9万起;约38%的一般交通事故由驾驶员分神引起[27]

在HUD上显示接入电话信息几乎是不可回避的设计,Nowakowski,et al[28]在2002年报道了他们在驾驶模拟器上做的研究,发现如果来电显示在HUD上,驾驶员需要识别来电的对象后接听电话,驾驶员的反应时间比同样的信息显示在仪表盘上的反应时间少1.45 s,同时对驾驶行为的干扰也相对减少(车道线保持的操作)。

驾驶员在驾驶过程中获取显示信息的时间对于驾驶安全而言,是一个至关重要的因素。Zwhalen等[29]在1988年就提出,如果驾驶员的视线离开前方路面2 s,驾驶事故发生的可能性会急剧上升,而这个结论在后期的实验中被反复确认[30]。这也是促成车企选择HUD显示来取代仪表盘显示的一大动力。和仪表盘显示对比,采用HUD显示信息时驾驶员视线离开前方路面的次数和时间明显变少、变短[31]

不少研究对比HUD和其它显示对驾驶员心理负荷的影响,Kiefer等[32]研究发现HUD并不能减轻驾驶任务的心理负荷,相反有可能会影响驾驶员对车外道路信息的采集。驾驶员的心理负荷不会因为熟悉HUD的使用而有所减少,而对于在仪表盘或者中控屏上展示相同的信息,熟练的驾驶员不会觉得有很大的心理负荷,这一点间接地证明,HUD因为影响驾驶员对车外道路信息的正常采集而造成的心理负荷是增加的。

在HUD上显示导航信息被公认是必须显示的信息内容之一。不过,在早期的研究中发现,对比在HUD和在仪表盘,或者在中控屏上显示导航信息,在驾驶中依循导航的准确性上,以及驾驶的控制上,2004年Hooey[33]和Liu等[34]的实验研究证明HUD技术显示导航信息并不存在优势。他们的试验还指出,对于紧急事件相关的信息,比如HUD提醒有行人、修路地段、速度限制和发动机温度过高等信息,驾驶员的反应时间明显快于仪表盘显示时驾驶员反应时间。

同样Okabayashi等[35]和Wickens等[36]的研究显示那些需要驾驶员以最快时间做出反应的信息,放在HUD上比放在其它部位有更大的优势,而如果不需要驾驶员尽快做出反应的信息,放在HUD上造成驾驶员分神的作用更大。Liu等[34]的研究还证明,如果道路状况复杂,在驾驶员的心理负荷比较高的时候,对驾驶员对道路限速的信息捕捉,使用HUD也明显优越于其它显示仪表,这一结论与Iino等[37]1988年报道的结果相似。


05.
HUD的视觉显示


视觉显示首先要考虑的是驾驶员的视野区域,因为信息主要是为了显示给驾驶员使用。视觉显示的信息可以分为2种,一种是与驾驶外环境相关联的,如果外环境发生变化(比如车辆在行驶当中),信息内容也相应变化,比如道路和交通信息等。

另一种是与外环境不关联的,比如娱乐信息,这部分信息展示的位置与外部环境没有直接关系。对于与驾驶外环境相关联的信息,又可以分成只关注相对位置,而不变化视线距离的2D显示,和即考虑平面位置,又变化视线距离的3D显示。在视觉区域内,不同的区分点,人的视觉能力和反应时间是不一样的。

视觉聚焦区域,或称视场角,是指以视线的中心线左右2°的区域。在这个区域里(The driver’s foveal field of view(FoV)),人的视觉最清晰、反应也最敏感。在中心线左右10°的区域,被称为中心视觉区域,人对在这个区域内展示的信息一般有良好的感知能力,而超出这个范围,就是周边视野。在整个前车窗范围内如果驾驶员的头部不移动,视线相当于50°的视野(图2)。

Tsimhoni等[38]2001年的报道,就信息在视野内展现的位置、相对于人的反应时间、信息识别的错误率和驾驶任务的复杂性之间的关系在驾驶模拟器上做了研究,研究结果证明,信息展示在与人的水平视线中心,偏左和偏右5°的位置为最佳,偏上、偏下或者偏离更远,都会对驾驶员反应时间和识别正确性产生不利影响。当然,反应时间和识别的正确率,以及对驾驶行为的干扰与道路环境的复杂性有密切的关系。

图2 驾驶员视野范围区分

过去的大量研究证明,由于采用HUD,信息在中心视觉区域内显示,人的反应速度会加快,Pfannmüller等[39]研究表明采用HUD驾驶员眼睛离开路面的时间会减少,因此,当车辆采用HUD时,驾驶员不会再低头去看仪表盘[40]。这也是很多人提出,有了HUD,是不是可以取消仪表盘?

HUD的信息应该展示在驾驶员前方视野的中心位置(FoV),而WSD则应该显示在驾驶员的周边视野里(The driver’s peripheral field of view)。因为驾驶员在开车时,视线对路面的扫视主要是水平方向,因此中心视线,或者前挡风玻璃的上下区域,可以用来做WSD展示,它们不会对驾驶视野有所遮挡。但有很多研究,如Hauslschmid等[41]还是不赞成把信息展示在这个位置,

原因是:信息展示位置过高或者过低的话,驾驶员需要移动头部位置才能看见,用户体验会受影响。其次,当车速加快时,驾驶员的中心视觉区域会相对缩小,另外就是信息的清晰度会受到室外光线的影响。当驾驶场景需要驾驶员集中注意力时,他们对周边视野中的信息反应时间会变长,因此,在这些视野中显示什么信息需要仔细设计。

驾驶员的周边视线对外环境动态信息的捕捉是有意义的,如果在前挡风玻璃周边布满各种信息,对驾驶安全也会有不利的影响。HUD上的信息会覆盖了真实道路的信息,尤其是道路旁行人和非机动车辆等,这会影响到驾驶员的情景感知。一般显示在WSD上的信息是那些不需要驾驶员持续不断的分散注意力去关注,对反应时间也没有要求的信息,同时又能够帮助驾驶员更好的获得非驾驶任务信息。那些实时变化,不断会吸引注意力的信息不适合放在这里显示。

HUD视觉显示设计有4个关键的要素,包括颜色、透明度、大小和运动。在这里要特别强调一下颜色,汽车驾驶环境的背景颜色和光亮度会在不停变化。在设计颜色时,一定要让信息的颜色从背景色中凸显出来。比如道路的背景色通常有白色和天空的蓝色,柏油马路的灰色和草绿色,还有北方下雪时的雪白色等。选择不同颜色包含的文化内涵意义也需要考虑。

在亮度上,Continental[42]和Jochen等[43]研究认为HUD的光亮度应该超过10 000 cd/m2。而且针对白天和夜晚,光亮度需要做适当的调整,否则会造成白天看不清楚,而晚上产生炫光的影响。在透明度上,要达到外部光线70%能够穿透的能力。

在HUD上显示文字会比较模糊,目前汽车行业没有相关的字号标准,Gupta等[44]认为字迹清晰的程度受技术本身的影响。


06.
HUD与夜视

在驾驶过程中,驾驶员能够及时的观察到道路上的障碍物和潜在的风险,比如行人,动物等,对提高驾驶安全有非常重要的意义。目前的AR-HUD都会努力通过传感器检测到障碍物,并在视野中标注下来。Autoliv是最早和最有效进行AR-HUD应用研究的汽车企业,Krems等[45]深入研究了HUD应用夜视(Night Vision)系统。Liu等[46]研究成果显示夜视系统可以非常清晰的把在黑暗中,即便开了大灯驾驶员也很难观察到的行人和动物的轮廓信息直接显示在驾驶员的视野里,图3展示了夜视系统的发展过程[47]

早期研究人员都很自然的把夜视系统用HUD显示出来(图3a),试验研究也证明了HUD为安全驾驶带来的好处。但随着HUD在汽车上的逐步应用,研究人员发现当夜视的信息在HUD上显示时,因为它能够清晰的显示肉眼看不见的道路信息,人们在开车时,通常视线更多是聚焦在HUD屏幕上,而不是前方视野中的道路,尽管视线并没有离开前方。

这样就会产生其它潜在的风险,比如距离较近的物体,以及对前方静止障碍物的忽略,通常驾驶员并不会意识到这样的风险。为了克服这个问题,设计人员把显示信息放在仪表盘上,随后经过研究发现,在仪表盘显示信息的风险比在HUD上的风险更高。这是因为驾驶员的视线经常离开前方道路,由于仪表盘中显示的前方道路的图像更加清晰。

设计人员不得不把夜视图像设计安装在中控屏上,并弱化了图像的清晰度,使得夜视图像只起到提示的作用,而不能成为驾驶视觉的依赖。夜视图像放在中控屏上,使得驾驶员能够清晰的自我意识到视线离开了前方道路的危险性。


图3 车载夜视系统显示设计的变化过程


07.
HUD中投影的虚像距离问题


HUD和AR-HUD投影的虚像距离问题是广大汽车交互设计研究人员的研究热点之一。HUD投影有一个重要的特征是在驾驶员眼前投影图像的距离通常为3 m左右,深度感知缺失和焦距不足是一个很重要的影响安全的问题[48-50]。Ward等[51]研究认为固定虚像距离偏差会导致深度感知线索的缺失,这将导致驾驶员视觉不适和注意力无法集中的问题。

HUD显示距离会影响驾驶员的适应性和对障碍物真实距离的感知,由于各种现实条件和安全因素,大部分的HUD研究都是在室内驾驶模拟器上进行的,目前在真实道路上测试效果的报道很少。Livingston等[52]进行了有限的HUD实际道路驾驶研究,研究成果证明在实际道路驾驶时,驾驶员通过HUD对目标距离的感知比实际情况要长,而在室内试验结果正好相反。这个问题是比较严重的,因为驾驶员对距离的错误判断会导致潜在危险。

Tonnis等[53]进行的另一项研究表明,在驾驶模拟器试验中,当驾驶速度快时,由于图像的不断快速变化,驾驶员对距离的感知受到严重影响,使得驾驶员使用HUD的体验并不好。

关于HUD的信息显示距离,早在90年代初Harrison等[54]研究认为,虚像距离需要至少距离驾驶员眼睛2.0~2.5 m。在这个距离范围,不会影响到驾驶员获取外部道路的信息。图4显示了驾驶员认为HUD显示虚像的舒适距离,如果只有一个固定的距离(Layer=1)则这个舒适距离是显示面距离驾驶员眼睛2.4~26.2 m之间。如果是3D显示,也就是有多个显示面(Layer>1),则这个舒适距离为3.2~9.1 m。这个结论表明在HUD视野中,应该能有选择性的突出某个物体,这可以使舒适视野的距离比较长,如果有多个物体在不同的距离范围内显示,则会影响舒适感。

图4 驾驶员认为的HUD显示面到眼睛的舒适虚像距离[54]

HUD图像呈现的距离会直接影响到人对真实道路上物体距离和大小的判断,Lavecchia等[55]研究认为人眼判断物体的能力与人眼睛自身结构和眼球晶体聚焦的能力有关,因此会显示比较大的个体差异。这个视觉效果会因为外界的光线变暗(如晚上、雾天等)而加强。因为在视野内的参照物体较少,从而使得HUD投影对视觉判断会产生更多的误导,尤其是对距离和物体大小的判断失误会有导致前碰撞的潜在危险[56-57]

图5显示了Broy等[58]关于HUD虚像距离和对真实物体之间距离感知之间的关系。Broy认为人眼对真实物体距离的判断,会受到显示距离与真实物体离眼睛距离的影响,两者间的距离越长,判断误差也越大。

图5 道路真实物体的距离与HUD投影距离的关系[58]

其中,Y轴表示的是判断误差,X轴是真实物体与物体在HUD上显示面两者间的距离。Broy等[58]研究结果建议,一些固定的信息,比如车速等,应该显示在距离人眼5~8 m的距离,而其它与道路物体相关的信息可以展示更远的距离。

为了克服距离感知问题,Karlin等[59]进行的试验研究对比了贴近地面的2D-HUD设计和悬浮式3DHUD设计(图6),发现3D-HUD多方面性能优越于2D-HUD,比如驾驶员能够更快、更准确的感知转弯位置,同时,不会错过路标和道路上相关的信息,因为驾驶员的视觉会被引导到全道路上。

图6 悬浮式的3D-HUD设计

目前,3DHUD的距离深度可达100 m,关于信息显示的效果,显然3D优于2D。


08.
AR-HUD与车辆行驶

AR-HUD的一个特点就是在车辆行驶中不断有动态信息的显示,比如典型的与道路叠加的导航显示,有标注了潜在危险的前方车辆、行人和障碍物,这些信息伴随车辆行驶而在视野中移动。可以想象,在驾驶过程中,如果AR-HUD开启,驾驶员的视野内总是有不同的物体被高光标注,其与驾驶员眼睛的距离,大小也在不停的变化,这个变化速度会伴随车辆速度的增加而加快,因为驾驶员需要真实的距离感。驾驶员对此会产生什么样的驾驶体验?

由于大部分的HUD试验都是在驾驶模拟器中完成的,这个问题目前没有答案。可以想象人在驾驶车辆时,视野内不断有不同颜色、光亮的东西不断闪烁,引导你的视线,同时很可能会遮挡你去看清道路上你感兴趣的物体,至少看道路会比裸视野要艰难,因为驾驶员的视野内有其它的物体遮挡,驾驶员会感到视疲劳,并对高光标注不再敏感,甚至会厌倦,或者产生依赖,可能会不愿意锻炼自己的视觉和感知。

目前学术界研究人员的存在一个热点问题:既然物体是在驾驶员的正前方,驾驶员眼睛能够看见,为什么还需要高光标?标注后还有可能影响驾驶员对距离的正确判断,视野中的哪个物体才是我真正需要被标注的?这些问题,有待于未来的研究。


09.
设计空间

在进行HUD交互设计时,需要考虑5方面的因素:

(1)用户;

(2)使用上下文(Context);

(3)交互方式;

(4)信息结构;

(5)视觉显示。

由于本文前面已经谈论了很多关于视觉显示的问题,因此下面只讨论其余的4个因素。

(1)用户:用户包括驾驶员和其他乘员。通常HUD只为驾驶员显示信息,但占用整个车窗的抬头显示可以为驾驶员和副驾驶及其他乘客分享信息。有时在前车窗还会展示一些车外交互信息,这些信息的服务对象就是从车前面经过的人。因此在HUD系统设计策划时,必须考虑如下要求。

①明确HUD服务的用户,潜在的用户包括:驾驶员、其他乘客和车外行人。

②明确并识别用户的需求,用户只是被动的接收信息,还是可以对信息的输入、输出有控制的可能。HUD上显示的很多信息都是由设计人员预先设计好的信息,驾驶员和其他用户是不能操控的,只能选择显示或者不显示,应明确并识别驾驶员有一定操控权利的信息。

③不同用户对HUD的接受程度也会不尽相同。这个接受程度,又与其显示的内容和显示的方式密切相关,同时,用户体验会伴随驾驶员逐渐熟悉HUD的显示而发生变化。因此在设计时,要考虑现有的设计指南中各类注意事项,尤其是要给与驾驶员可以关闭HUD的设置。

④另外一个可能影响因素是有些驾驶员有可能是红或绿色色盲的问题。

(2)使用上下文(Context):使用上下文需要考虑的内容比较多。对于不同类别的信息,首先要明确这些信息的显示对驾驶员的帮助是什么?期望达到什么效果?其次,要考虑信息显示时的驾驶状态,包括3种状态。

①驾驶员在手动驾驶(含辅助驾驶)中;

②车辆处在临时停车(堵车状态)中;

③自动驾驶状态。

不同驾驶状态,HUD显示而造成的驾驶员分神效果会不一样。当前随着技术不断进步,汽车主机厂为车辆配置了不同主动安全辅助驾驶系统,但大多数情况下,驾驶员仍然以手动驾驶为主,因此避免驾驶分神是HUD设计时需要考虑的重点因素。

与此同时,汽车的自动驾驶水平对HUD设计本身也有很大的影响。在手动驾驶状态,HUD上显示的信息首先要考虑的是不能造成驾驶员分神。随着自动化程度的提升,越来越多的与驾驶无关的信息可能会呈现在HUD上,它们对驾驶员造成的负面影响可能比在中控屏或者仪表盘上显示的信息更强,因为它们可能让驾驶员视觉和心理分神而不自知,同时还会对驾驶员的视野产生遮挡效果。同时在前车窗上显示的信息可能被驾驶员以外的人员看见,因此私密信息的显示就需要精心的设计。

(3)交互方式:交互设计涉及到输入与输出的问题。HUD的输入,除了自动更新的信息外,一般情况下会链接到相应的按键或者某个触摸屏上。有人提出手势和视线交互输入的可能性,但这些交互技术并不成熟,也不了解用户在驾驶中的使用情况。语音交互也同样是可以尝试的模式,同时,多模态交互也是一个非常有前景的方向。在信息输出部分,除了视觉输出外,还可以相伴语音的输出、声音的提示,甚至是触摸和振动提示。

(4)HUD的信息结构:Heymann等[60]提出了HUD显示信息的结构,包括4个层次,如图7所示。

图7 HUD的信息结构[60]

第1级:与驾驶动作有关的信息,包括车辆操作和控制,以及道路上物体或者事件的监测和反应。

第2级:提供与驾驶需求的导航信息、比如直行和转弯、车道选择。

第3级:主要是关于警告、预警和关于车辆的状态信息和操作环境。

第4层:支持辅助活动信息,例如娱乐、交流、舒适和与这些相关的其它活动。


10.
HUD的设计指南

这里综合了不同时期的设计指南,依据各类人因研究的成果,总结了如下有参考价值的设计指南。

(1)信息分类:对需要显示的信息依据不同的特征进行分类,包括是否与驾驶直接相关、动、静态信息、紧迫程度、是否需要互动、反应的及时性、显示频率和持续时间、重要性、对驾驶员响应要求和激活模式。

(2)信息分配:首先考虑警告,其次是预警,随后是说明信息,最后是状态信息。

(a)HUD可用于呈现前碰撞警告(FCW)信息,例如即将发生的前碰撞危险位置;

(b)HUD信息应与听觉警告相结合,重要的HUD信息应该伴随声音的提示;

(c)与驾驶情况相关的信息显示优先于非驾驶相关信息;

(d)持续稳定不变的信息不应在HUD上显示;

(e)信息应该是临时显示的,而不是不间断的和连续的;

(f)HUD不应该被用来显示复杂的信息;

(g)限制使用数值不断变化的或与路标信息冗余的符号、文本或指示符号;

(h)HUD显示器不应用于显示详细的文字信息;

(i)如果必须有文字,则根据显示位置和数量调整字体大小及文本字数;

(3)不要把HUD图像显示在驾驶员的中心视野中,以防对道路信息的遮挡;

(4)驾驶员应该可以关闭HUD;

(5)HUD显示所用的色彩和亮度设计应当考虑背景和光照的变化,应该使用饱和度高的颜色;

(6)HUD应该可调节,让戴偏光太阳镜的驾驶员可以清楚地看到信息;

(7)HUD虚像距离应该至少在距离驾驶员眼睛2.5~4.0 m的距离。


10.
AR-HUD的设计指南

AR HUD是发展较快的新技术,Mathias等[63]研究认为这一新技术存在5个问题。

(1)由于地图错误和精准度不够,或者传感器信号错误,造成VR成像与真实路面产生偏差;

(2)人头部的移动会影响到虚拟图像与真实道路重叠的准确性;

(3)HUD的信息会造成驾驶员的分神,而驾驶员本身并不知道;

(4)由于HUD只能投射2.5~4.0 m的距离,造成人视线的近距离,而忽略了远距离视线;

(5)虚拟图像对真实物体的覆盖引起了两者中虚拟图像距离的低估,同时还增加了驾驶员的心理负荷。

针对现阶段技术进展,Pfannmüller等[64]给出7项AR-HUD设计指南。

(1)应该避免用AR内容覆盖/掩盖真实物体或至少减少到最低限度。可以通过例如最小化掩蔽,只显示AR内容的轮廓或通过简单地切换到非接触式模拟或采用二维可视化等。

(2)不推荐采用AR-HUD概念中的阴影集成来支持距离感知,因为它影响更远距离元素的可示性。

(3)要注意不要把AR内容制作得过大或太显眼,也避免显示太多信息,因为它可能会过度扩展或干扰驾驶员的驾驶操作。

(4)应在AR中显示与主要驾驶任务相关的内容,同时应只有在真正需要的交通情况下显示此信息。

(5)动画应谨慎使用,因为它可明显地引导驾驶员注意力,帮助驾驶员像其他道路使用者一样识别并及时应对道路上的障碍物。因此,需要将显示的动画制作得可以很容易理解、很直观。

(6)采用鱼骨状的设计,一个回旋镖形状的导航概念,应该优于箭头或常规轨迹设计。鱼骨概念减少了对现实世界物体的遮挡(图8),对比不同的设计方案,鱼骨状设计对物体遮挡较少。


图8 两种不同的鱼骨概念设计

研究表明,图8(b)的设计,驾驶员感觉心理负荷要略为高些。但图8(a)对真实道路的覆盖面比较多,会造成驾驶员分神。

(7)在显示道路转弯点时,如果数据许可,从道路转弯点起,提前越早越好,至少在90 m之内。初始时可以有15°的倾斜,越接近拐点越直,倾斜度为零。


12.
讨论和总结


HUD是目前汽车智能座舱中比较热门的技术,越来越多的车企在量产车上安装了HUD。HUD的人因和交互设计也是产业界和学术界关注的热点问题。本文通过对当前全球最新英文文献的综述,总结了当前全球汽车HUD研发和应用的最新进展,全面总结了最新的HUD设计指南,全面和深入的分析了HUD中的人因和交互设计问题。HUD和AR-HUD,尤其是AR-HUD还存在一些技术上的问题亟待突破,但技术问题不在本文的探讨内容之中。

从人因方面来看,采用HUD显示信息,能够加快视觉信息获取的速度,加快驾驶员对关键信息的反应速度,因此与驾驶安全相关的预警和报警信息在HUD上显示应该是第一选择。对于预警和报警信息的HMI设计,视觉加听觉的组合是一个不错的方法。通过本文的综述研究表明,车辆使用HUD,因为信息获取的方便性,驾驶员一般不会再低头去查看仪表盘上的信息,因此有许多文献讨论了用HUD取代仪表盘可能性。

但是,HUD有一个致命的弱点,那就是它会对驾驶员直接获取道路信息的视线有遮挡。如何设计相关信息的显示方式就成了HUD相关HMI设计的焦点之一。由于车辆在行驶过程中,前方道路,即HUD展示的背景颜色和亮度在实时变化,选择好HUD信息显示的色彩,并能够根据背景色的光照情况,进行亮度变化的设计,使得驾驶员能够透过背景看清楚显示的信息,即不至于产生炫光,又不会对驾驶员的视线产生遮挡,是HUD设计中的另一个挑战。

任何技术都有优势和劣势。HUD能够让驾驶员快速获取信息,但它并不能够降低驾驶员的心理负荷,当道路场景更加复杂时,HUD的优势会被减弱,而其视线遮挡问题会变得更加突出。相反,对比用仪表盘和中控屏来展示信息,对于熟练的驾驶员而言,心理负荷会降低。同时,在HUD上显示与驾驶无关的信息会造成驾驶员分神。这种视觉分神会比在中控屏上显示类似信息造成的分神可能还要严重,因为驾驶员会分神而不自知。因此,在决定什么信息应该在HUD上显示时,分神问题要认真考虑。不必要的信息,或者不需要驾驶员尽快做出反应的信息,不要显示在HUD上。

关于信息在HUD上显示的方式,本文研究认为过于动态的信息,也即信息会在视野内不断变化的显示,比如标注前方潜在危险目标,可能会造成视觉疲劳,而产生不好的驾驶体验。同时,HUD的显示会造成驾驶员对道路上物体与本车间距离的错误判断,这个错误判断会有可能产生潜在的风险。

目前,几乎所有的HUD都会把导航信息的显示作为首选,但有研究表明,导航信息在HUD上的显示并不能更好的帮助驾驶员操控汽车。对比导航信息在中控屏或者仪表盘上的显示,在道路识别上HUD显示导航信息没有任何优势,却可能导致驾驶员不去关注真实道路标志。

总而言之,HUD上的HMI设计,需要做多方面的综合考虑,否则会影响驾驶体验。



向上滑动阅览

参考文献

[1]FAN C,HE SY.Micromirror based virtual image automotive head-up display[J].Microsystem Technologies,2017,23(6):1671-1676.

[2]PRINZEL L J,Risser M.Head-up displays and attention capture(NASA/TM-2004-213000)[R/OL].(2004-06-05)[2021- 12- 20]. http://naca.larc.nasa.gov/search.jsp?R=20040065771&qs=N%3D4294966788%2B4294724598%2B4294323833.

[3]WEINTRAUB D J,ENSING M.Human factors issues in head-up display design:The book of HUD(CSERIACstate of June 1997-311 the art report)[M].Wright-Patterson Air Force Base,OH:Crew System Ergonomics Information Analysis Center,1992.

[4]KIEFER R J.A review of driver performance with head-up displays[C]//Third World Congress on Intelligent Transport Systems,Washington,DC:ITSAmerica,1996.

[5]LIUYC.Effectsof usinghead-up display in automobilecontext on attention demand and driving performance[J].Displays,2003,24(4-5):157-165.

[6]NHTSA.Human Factors Design Guidance for Driver-Vehicle Interfaces[R].DOTHS812 360,2016.

[7]PRINZEL L J,RISSER M.Head-up displays and attention capture(NASA/TM-2004-213000)[R/OL](2004-04-10)[2021- 12- 20].http://naca.larc.nasa.gov/search.jsp?R=20040065771&qs=N%3D4294966788%2B4294724598%2B4294323833.

[8]WEIHRAUCH M,MELOENY G,GEOESCH T.The first head-up display introduced by general motors[C]//SAE International Congressand Exposition,1989.

[9]AZUMA R,BAILLOT Y,REINHOLD B,et al.Recent advances in augmented reality[J].IEEE Computer Graphics and Applications,2001(11):1-15.

[10]MILGRAM P,KISHINO F.A Taxonomy of Mixed Reality Visual Display[J].IEICE TRANSACTIONSon Information and Systems,1994(12):1321-1329.

[11]MILGRAM P,TAKEMURA H,Utsumi A,et al.Augmented Reality:A Class of Displays on the Reality-Virtuality Continuum[J].SPIE,1994,2351:282-292.

[12]Azuma R T.A Survey of Augmented Reality[J].Presence Teleoperators&Virtual Environments,1997,6(4):355-385.

[13]PARK H S,KIM K H.AR-Based Vehicular Safety Information System for Forward Collision Warning,VAMR 2014:Virtual,Augmented and Mixed Reality.Applications of Virtual and Augmented Reality[M].Switzerland:Springer International Publishing,2014:435-442.

[14]HAEUSLSCHMID R,PFLEGING B,ALT F.A design space to support the development of windshield applicationsfor thecar[C]//CHIConference,ACM,2016.

[15]KIBUM P,YOUNGJAE I.Ergonomic Guidelines of Head-Up Display User Interface during Semi-Automated Driving[J].Electronics,2020,9(4):611.

[16]TUFANO D.Automotive HUDs:The Overlooked Safety Issue[J].Human Factors,1997,9(2):303-31 1.

[17]KIEFER RJ.Effects of a head-up versus head-down digital speedometer on visual sampling behavior and speed control performance during daytime automobile driving[J].SAETechnical Paper,1991:910111.

[18]GISH K W,STAPLIN L.Human factors aspects of using head-up displays in automobiles:A review of the literature(Report DOT HS 808 320)[R].Washington,DC:U.S.Department of Transportation,1995.

[19]OKABAYASHIS,SAKATA M,FUKANOJ,et al.Development of practical headsup display for production vehicle application[J].SAETechnical Paper,1989:890559.

[20]KUROKAWA K,WIERWILLE W W.Effects of instrument panel clutter and control on visual demand and task performance[J].Digest of Technical Papers,1991(XXII):99-102.

[21]OKABAYASHIS,SAKATA M,HATADA T.Driver's ability to recognize objects in the forward view with superposition of head-up display images[J].In Proceedings of the Society for Information Display,1991(32):465-468.

[22]ENDERBY CM,WOOD ST.Head-up display in automotive/aircraft applications[J].SAE Technical Paper,1992:920740.

[23]FLANNAGAN M J,HARRSON A K.The effects of automobile head-up display location for younger and older drivers(Report UMTRI-94-22,1994)[R].Ann Arbor:University of Michigan Transportation Research Institute,1994.

[24]HASEBEH,OHTA T,NAKAGAWA Y,et al.Head up display using dot matrix LCD[J].SAE Technical Paper,1990:900667.

[25]WEIHRAUCH M,MELOENY G G,GOESCH T C.The first head-up display introduced by General Motors[J].SAETechnical Paper,1989:890288.

[26]European Commission.Driver Distraction 2018[R/OL](2018-01-10)[2021-12-20].https://ec.europa.eu/transport/road_safety/system/files/2021-07/ersosynthesis2018-driverdistraction.pdf,2018.

[27]CHEN F(陈芳),TERKEN J.以人为本的智能汽车交互设计[M].北京:机械工业出版社,2021。

[28]NOWAKOWSKIC,FRIEDMAND,GREEN P.An Experimental Evaluation of Using Automotive HUDs to Reduce Driver Distraction While Answering Cell Phones[C]//PROCEEDINGSof the HUMAN FACTORSAND ERGONOMICSSOCIETY 46th ANNUAL MEETING,2002.

[29]ZWHALENH T,ADAMSCC,DEBALDD.Safety aspects of CRT panel controls in automobiles[C]//Vision in Vehicles II.Second International Conferenceon Vision in Vehicle,1988:335-344.

[30]NHTSA.Guidelines for Reducing Visual-Manual Driver Distraction during Interactions with Integrated,In-Vehicle,Electronic Devices,Version 1.01.[R].NHTSA 2010.

[31]GREEN P.The 15-second rule for driver information systems[C]//Proceedings of the Intelligent Transportation Society of America Conference(CD-ROM),Intelligent Transportation Society of America,Washington,DC.1999.

[32]KIEFER R J.Effect of a head-up versus head-down digital speedometer on visual sampling behavior and speed control performance during daytime automobile driving[M].New York:SAEInternational,1991.

[33]HOOEY B L,GORE B F.Advanced traveler information systems and commercial vehicle operations components of the intelligent transportation systems:head-up displays and driver attention for navigation information[R].FHWA,USDepartment of Transportation Federal Highway Administration,1998.

[34]LIU Y C,WEN M H.Comparison of head-up display(HUD vs.head-down display(HDD):driving performance of commercial vehicle operators in Taiwan[J].International Journal of Human-Computer Studies,2004,61(5):679-697.

[35]OKABAYSHI S,SAKATA M,FUKANOJ,et al.Development of practical heads-up display for production vehicle application[J].SAETechnical Paper,1989:890559.

[36]WICKENSC D,MARTIN-EMERSON R,LARISHI I.Attentional tunneling and the head-up display[C]//Proceedings of the Seventh International Symposium on Aviation Psychology.Ohio State University,Columbus,1993:865-870.

[37]IINOT,OSTUK A,SUZUKI Y.Development of heads-up display for motor vehicle[J].SAE Technical Paper,1988:880217.

[38]TSIMHONI O,GREEN P,WATANABE H.Detecting and Reading Text on HUDs:Effects of Driving Workload and Message Location[C]//ITS America 11th Annual Meeting and Exposition,ITS:Connectingthe Americas,2001.

[39]PFANNUELLER L,WALTER M,BENGLER K.Lead me theright way?!Theimpact of position accuracy of augmented reality navigation arrows in a contact analog head-up display on driving performance,workload,and usability[C]//In Proceedings of the 19th Triennial Congress of the International Ergonomics Association(IEA),2015.

[40]HAEUSLSCHMID R,PFLEGING B,ALT F.A Design Space to Support the Development of Windshield Applications for the Car[C]//In Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems(CHI’16),2016:5076-5091.

[41]HAUSLSCHMID R,OSTERWARLD S,LANG M.Augmenting the driver’s view with peripheral information on a windshield display[C]//Intelligent User Interfaces 2015.

[42]Continental Automotive GmbH.Head-up Displays[EB/OL].(2015-919)[2021-12-20].http://continental-headup-display.com/.

[43]JOCHEN K.Head up:information in the driver’s field of view[EB/OL].(2015-9-19)[2021-12-20].http://next.mercedes-benz.com/en/hud-en/.

[44]GPPTA D.An empirical study of the effects of contextswitch,object distance,and focus depth on human performance in augmented reality[D].Virginia:Virginia Polytechnic Instituteand State University,2004.

[45]KREMSJF.Enhanced night vision for car drivers[D].Euro Photonics,2007:68-69.

[46]LIU X,FUJIMURA K.Pedestrian Detection using Stereo Night Vision[C]//IEEEInternational Conference on Intelligent Transportation Systems,2003.

[47]REMILLAD J.Groping in the Dark:The Past,Present,and Future of Automotive Night Vision[C]//University of Minnesota IMA/MCIMIndustrial Problems Seminar,2005.

[48]GABBARD J,FITCH G,KIM H.Behind the glass:Driver challengesand opportunities for an automotive applications[J].Proceedings of the IEEE,2014,102(2):124-136.

[49]TUFANO D R.Automotive huds:The overlooked safety issues[J].Human Factors:The Journal of the Human Factors and Ergonomics Society,1997,39(2):303-311.

[50]THOW-KING V N,BARK K,BECKWITH L,et al.Usercentered perspectivesfor automotive augmented reality[C]//IEEE International Symposium on Mixed and Augmented Reality,2013:13-22.

[51]WARD N,PARKESA.Head-Up Displays and their Automotive Application-An Overview of Human-Factors Issues Affecting Safety[J].Accident Analysis and Prevention,1994,26(12):703-717.

[52]LIVINGSTON M,AI Z,SWAN J,et al.Indoor vs.outdoor depth perception for mobile augmented reality[C]//IEEE Virtual Reality Conference,2009:55-62.

[53]TONNISM,KLEIN L,KLINKER G.Perception thresholds for augmented reality navigation schemes in large distances[C]//IEEE and ACM International Symposium on Mixed and Augmented Reality,2008:189-190.

[54]HARRISON,A.Head-up displays for automotive applications(Report UMTRI-94-10)[R].Ann Arbor:University of Michigan Transportation Research Institute,1994.

[55]LAVECCHIA JH,LAVECCHIA H P,ROSCOE SN.Eye accommodation to head-up virtual images[J].Human Factors,1988,30(6):689-702.

[56]ROSCOE SN.The trouble with HUDs and HMDs[J].Human Factors Society Bulletin,1987,30(7):1-3.

[57]ROSCOE SN.The trouble with virtual images revisited[J].Human Factors Society Bulletin,1987,30(11):3-5.

[58]BROY N,HOCKH S,FREDERIKSEN A,et al.Exploring design parameters for a 3D Head-up display[C]//Proceedings of The International Symposium on Pervasive Display,2014:38-43.

[59]KARLIN B,CUONG T,KIKUO F,et al.Personal Navi:Benefits of an Augmented Reality Navigational Aid Using a See-Thru 3D Volumetric HUD[C]//AutomotiveUI’14:Proceedings of the 6th International Conference on Automotive User Interfaces and Interactive Vehicular Applications,2014:1-8.

[60]HEYMANN M,DEGANI A,Classification and organization of information:Design of multimodal mobile interfaces[M].DEGRUYTER,2016:195-217.

[61]STEVENSA,QUIMBY A,BOARD A,et al.Design guidelines for safety of in-vehicle information systems[R].Project report PA 3721/01,TRL Limited,2020.

[62]VILLA-ESPINAL J,OSORIA-GOMEZ G.Methodology for the design of automotive HUD graphical interfaces[M].Revista DYNA,2018:161-167.

[63]MATHIASS,SCHLUESENER T,BRUDER A,et al.A real-world driving experiment to collect expert knowledge for the design of AR HUD navigation that covers less[C]//Proceedings of the Mensch und Computer 2019 Workshop on Automotive HMIs:UIResearch in the Age of New Digital Realities.

[64]PFANNUELLERL.Anzeigek



【免责声明】文章为作者独立观点,不代表智车行家立场。如因作品内容、版权等存在问题,请于本文刊发30日内联系智车行家进行删除或洽谈版权使用事宜。

预告

2022(第三届)汽车抬头显示(HUD)

前瞻技术展示交流会11月苏州与您相约

  //  

探索汽车抬头显示前瞻技术发展与应用,增强车辆安全性能与驾驶体验,实现更高水平的人机共驾体验。易贸信息科技与智车行家将于2022年11月16-17日在苏州举行2022(第三届)汽车抬头显示(HUD)前瞻技术展示交流会,继续携手行业OEM、Tier1、HUD厂商、光学元件厂商、材料企业、测试验证企业以及第三方机构等250余位专家,共同探索抬头显示产品的发展与未来。


↓↓↓

点击“阅读原文”,即可报名参会&预定展台

最新有关ICVIS智车行家的文章

 
EEWorld订阅号

 
EEWorld服务号

 
汽车开发圈

About Us 关于我们 客户服务 联系方式 器件索引 网站地图 最新更新 手机版

站点相关: TI培训

北京市海淀区中关村大街18号B座15层1530室 电话:(010)82350740 邮编:100190

电子工程世界版权所有 京B2-20211791 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2024 EEWORLD.com.cn, Inc. All rights reserved