人与机器如何交互_未来黑科技有哪些

发布者:Joyful222Life最新更新时间:2018-04-27 关键字:人脸识别  CES  人机器交互 手机看文章 扫描二维码
随时随地手机看文章

AR、VR等技术应用更为成熟,眩晕感降低、仪器与人脸适配度明显提高。沉浸式细节到位、“剧情”合理使得参与者能情绪饱满的体验全程。车载人机交互概念中,更凸显个性化特征及数据记录,包括人脸识别、情绪感知、体征信息、互联网数据等全方位涵盖。意识层面的数据研发、脑电波的物理读取并非不能实现。

在拉斯维加斯逛CES展会,我事先给自己提了两个要求:要耳聪目明、别大惊小怪。可真正到了现场发现,想多了宝贝。

不夜城的酒店、赌场简直是旗舰版的丽江一条街,带着人强嗨。这种比肩接踵的热闹也顺势蔓延到了展会。扒着人腰子往前走,你总会在或大或小的展台体验前,看到更多群魔乱舞。有时候跳的是人,有时候动的是车,哦,不对,出行工具。

在脱离了实质对话的场景里,人与机器如何交互的命题成为科技圈、汽车界的酷炫boy,一直在骚动。语音控制、AR/VR、手势控制、物理按键等综合研发,使得本届CES展会也踩对了节拍。本着神经到底的研究属性,本篇重点探讨下“幅度大、难度高、技巧型”的选手。

先说下整场体验的综合感受:

1、AR、VR等技术应用更为成熟,眩晕感降低、仪器与人脸适配度明显提高。沉浸式细节到位、“剧情”合理使得参与者能情绪饱满的体验全程。

比如说,Delphi的互动体验中,参与者可以看到一双仿真蓝手,听上去有点阿凡达式可怕,但实际操作中因为手部动作的同步,能够更清晰的完成按键指令,更适应沉浸体验时的角色切换。

Delphi展台互动

2、车载人机交互概念中,更凸显个性化特征及数据记录,包括人脸识别、情绪感知、体征信息、互联网数据等全方位涵盖。同时,点触、手势、语音、物理按键等交互方式的配合,不同企业有不同的理解角度。

3、意识层面的数据研发、脑电波的物理读取并非不能实现。

一、奔驰Mercedes-Benz User Experience

首次引用触屏控制的奔驰MBUX系统,展台被围的水泄不通。此次展示出的三种触控方式的多元结合也是奔驰对人机交互的功能逻辑注解。

奔驰MBUX系统

首先,通过中控台触摸屏直接进行功能操作和地图缩放等;其次,原先的旋钮控制方式被一块触摸板替代,可手写或拼音输入文字、数字等;再者,方向盘上的触摸控制按钮,可以操作信息娱乐系统、组合仪表、HUD抬头显示系统等,方向盘不离手即可完成操作。

另外,这套系统还自带一套语音交互系统,通过一句“Hey,Mercedes”完成激活,随后即可下达指令,支持自然状态的对话沟通。比如说,“Hey,Mercedes,我有点儿冷”,系统即可智能调节车内温度。

现场实际操控的体验来看,按键和功能操作虽然多,但掌握起来并不复杂。工程师注解到,他们调查发现,相比方向盘按键和中控触摸屏,扶手位置的触摸板是司机们最喜欢亲密接触的位置。手放在这个位置,消耗的人体热量值最低,从生理角度符合驾驶员的喜好。

总体来看,奔驰给出了一套不激进、不噱头但充分好使的交互设计。

二、未来黑科技

关注到未来黑科技起因于两则新闻,“CES开展前夕拿到了千万美元A轮融资”、“首款后装 HUD产品百路达(PiLOTHUD)和裸眼全息显示技术获CES2018美国消费电子展的两项创新大奖。”

从交互角度入手,裸眼全息显示技术提供了另一种交互方式:光线成像和手势操作。在电影《银翼杀手2049》中,复制人K有一位女管家——虚拟影像投射而成的Joi。作为电影中短暂出现的感情线,Joi的出现是人们对光影成像和机器深度学习的终极幻想。

裸眼全息显示技术

这样的“完美女友”,未来黑科技有着相同的技术设想。上图展示的小仙女,正是未来黑科技给出的第一步。见过仙女本尊的我想说,虽然这一技术目前在成像尺寸、清晰度、真实度上还有待提高,但成像本身的灵动感与立体感是有的(图片无法呈现肉眼看到的三维立面)。

结合手势动作的捕捉和操控,这一无介质、裸眼全息显示技术的想象空间非常大。建筑领域的图形测绘、模型修改;医疗领域的方案讨论、手术模拟;教育领域的师生互动等,都是可被研发延展的方向。

假设技术成熟,当未来出行工具的座舱更偏重娱乐向、生活向时,整个空间内部都可以是信息集中投射和互动操控的区域。

三、uSens凌感

作为一家人机交互技术方案商,uSens在此次CES展会期间,展出了来自中国的8款手势交互AR、VR头显,合作名单也不乏此领域的头部选手,比如说与Pico小怪兽VR一体机集成共同推出教育解决方案;内嵌台湾AR头显厂商Leapsy两款新品等,落地案例不光应用于AR\VR,还包括手机、车载领域等。

2017年2月uSens凌感发布Fingo手部追踪解决方案,通过对手部26个自由度的追踪,基于计算机视觉和深度学习的算法能力,对手部骨骼进行识别,从而捕捉手部动作,完成下一步指令。

uSens凌感手部追踪示意

uSens在车内的交互场景也很容易理解,通过对自定义手势的捕捉,使得汽车get到驾驶者的意图。就车内手势操控与语音、按键、触屏等操控方式的配合来讲,手势控制满足的是空间维度特征的事情。举个例子,在一条星巴克密集分布的街道上,语音操控可能要面临数次选择确认,这个时候手势控制将会派上用场,直接拣选目的地。

问题是,物理按键或者触屏更能迅速的完成这一指令性动作,手势控制是否有些多余的尴尬?uSens凌感认为,手势控制研究的是未来的事,用当下的保守方案是量产产品的阶段性选择,但对更为突破想象的智能出行工具来说,更大的屏、更多元的交互、更灵活的内部空间往往需要人们打破思维桎梏,去思考或者说试错。

四、日产Brain-to-Vehicle

终于聊到这个目前看来人类与机器的终极交互形式了:脑电波。

这套技术利用头戴式仪器侦测脑波,让车辆能够随着驾驶员的大脑脑波转动方向盘或踩下油门,从而来操控车辆,帮助消除人的反应时间,以达到更好的驾驶效果。

日产Brain-to-Vehicle

日产汽车表示,“一般人的反应时间,平均为0.5秒~1秒,从眼睛看到、传至大脑进行判断并命令身体作动,这中间的时间差可能会引发操控危险。而利用自动驾驶功能搭配脑波驾驶技术,可以有效缩短反应时间0.2秒至0.5秒,既拥有操控乐趣,同时还能够更安全的行驶。”

理想状态下,B2V系统还可以检测评估驾驶员是否身体不适、透过脑波来调整冷气、 音响等功能。也就是说,以前动动嘴皮子,现在只用动动脑子。

虽然看起来玄幻的不行,但爆热美剧《黑镜》第四季中,已经有不少类似的意识读取桥段,通过读取路人的记忆意识,来辅助交通事故、犯罪现场的取证调查等。

小结:

放在汽车内的人机交互命题,总是逃不了安全的大框大架。而一旦定义为智能出行工具,并伴随着自动驾驶的技术突破,交互形式的“癫狂”也并非痴人说梦。


关键字:人脸识别  CES  人机器交互 引用地址:人与机器如何交互_未来黑科技有哪些

上一篇:一文看懂你在未来三年能买到的车有多智能?
下一篇:2018北京车展 哈曼展出基于英特尔创新技术的新一代“智能驾驶舱”

小广播
最新汽车电子文章
换一换 更多 相关热搜器件
更多每日新闻

 
EEWorld订阅号

 
EEWorld服务号

 
汽车开发圈

电子工程世界版权所有 京B2-20211791 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2024 EEWORLD.com.cn, Inc. All rights reserved