美国麻省理工学院团队报告研发出一种装配了的“人工智能手套”,可以学习识别单个物体、估算重量和应用触觉反馈。这一成果有助于未来设计假体、机械和人机交互系统。
人类能够以适当的力度抓握和感受物体,但是这种感觉反馈却很难在机器人身上实现。近年来,基于视觉的抓握策略,在新兴机器学习工具的帮助下,取得了长足进步,但是目前依然缺少依赖于触觉信息的平台。
此次,麻省理工学院科学家萨博拉马伊安·桑德拉姆及其同事,设计了一种实用且简易廉价的可伸缩触觉手套,其仅需10美元,手套上面布置了548个传感器和64个导电线电极。
这种触觉手套相当于由一张力敏薄膜和导电线网络组成的传感器阵列。电极与薄膜之间的每一个重合点都对垂直力敏感,并会记录通过薄膜的。研究人员带上手套单手操控物体,由此记录了一个大规模的触觉图谱数据集。数据集包含手指区域的空间关联和对应,它们代表了人类抓握的触觉特征。
研究团队使用手套,单手与26个物体进行互动,时间超过5个小时,并录下了触觉视频。之后,他们利用记录下来的数据训练一种网络来识别这些图片,发现该深度学习网络能够通过持握方式鉴定出不同的物体。
这一技术的未来应用将非常广泛,譬如可用于机器人手术。这一领域此前最大的局限之一就是机器人缺乏人类外科医生操作的“手感”,增加了手术的不确定性和风险性,但通过力触觉反馈机制,可以让手术机器人将触觉实时传递给主刀医生以及处理器,进一步将人工智能医疗精准化。