对于我们人来说,可以很容易通过身体触觉来判断物体的属性,也可以很轻松的知道物体的软硬程度,因为人天生就有敏锐的触觉感知系统,但这对机器来说可能是一个巨大的挑战。目前麻省理工学院科学与人工智能实验室(CSL)通过正在开发的一种新型机器人正试图做到这一点。
麻省理工学院计算机科学和人工智能实验室(CSAIL)的一个团队通过使用一个复杂的触摸和一个网络摄像头来教机器人通过观察来预测事物的感觉。研究人员已经已经创造了一种预测人工智能来帮助机器人使用多模态感觉输入,正在教机器人通过触摸物体来“看到”物体的样子,并通过观察来预测物体的感觉。
如果我们看到一个毛绒玩具和冰箱,几乎都能分辨的出哪个是软的更轻,另一个是硬的会更重。即使我们闭上眼睛通过别人递给我们的东西也能感觉到东西的软硬程度和大小重量。
但是机器想做到识别物体的效果,还是非常不容易的一件事。麻省理工学院的研究人员正是通过利用机器人手臂上复杂的触摸传感器中识别到的视频和数据,通过观察和分析来预测物体的。机器人可以配备视觉和触觉传感器,但是它们很难将这些信息结合起来。因为我们人类在小时候就是通过这种同步的信息来实现的,通过在这两个方向的研究,希望以后的机器人都能拥有这样的能力。
研究人员通过网络摄像头记录了手臂接触近200个物体的次数超过12000次,例如各种、纺织品和家用产品。把一个特殊的触觉传感器放在机器人手臂上,让机器不断的触摸物体来得到各种数据。他们将视频片段分解成单独的帧,这给了他们超过300万个视觉/触觉配对图像的数据集。这些信息被用来帮助机器人预测当它看到某个图像时会有什么感觉,通过大量的数据识别和分析,让机器了解物体的属性特点。
目前,机器人只能识别受控环境中的物体。下一步是建立一个更大的数据集,这样机器人就可以在更多样化的环境下工作。这项技术可以用来帮助机器人找到通过观察物体来抓住物体的最佳方法。数据集仅包括在受控环境中收集的数据,该团队希望通过在世界范围内收集新数据来改进这一点。
但是仍然有一些细节很难从切换模式中推断出来,比如仅仅触摸物体就能知道它的颜色,或者不用实际按压就能知道沙发有多柔软。研究人员表示,这可以通过创建更加稳健的不确定性模型来改善,以扩大可能结果的分布。
在未来,这种类型的模型将有助于视觉和机器人之间更和谐的关系,特别是在物体识别、抓取、更好的场景理解以及辅助或制造环境中无缝的人机集成方面。有了这些人工智能的算法作为基础,机器人在未来场景的应用增加了更多可能性!
上一篇:机器人与产业互联网的新生态
下一篇:智能机器人已经可以帮助人类进行手术