近日,美国麻省理工学院计算机科学与人工智能实验室(MIT-CSAIL)的研究人员开发出一种低成本、可伸缩的触觉手套STAG,用户通过佩戴该手套,不仅能掂出手上的东西有多重,还能通过触觉识别出是什么物体。
STAG配有548个微小传感器,几乎遍布整个手掌,同时覆盖有一张可根据外在压力改变电阻的导电聚合物,导电线穿过导电聚合物薄膜中的洞,从指尖一直到掌根,这些线连接手套和外部电路,形成一个个压力传感器,从而将压力数据转换为触觉地图,即手上各个点变大变小的视频。
当佩戴该手套的用户以各种方式和物体进行交互时,比如抓握、举起、放下或感受一样物体,这些传感器就会捕捉压力信号,并记录每个点的压力。随之,神经网络会处理这些信号,以学习与该物体相关的压力——信号模式,并形成数据集。然后,该手套利用收集到的数据集对物体进行分类,并通过触觉来预测它们的重量,整个过程无需视觉输入。
据悉,研究人员利用STAG与26个常见物体(汽水罐、剪刀、网球、勺子、钢笔等)进行交互,并基于触觉图像收集了一个数据集(包含13.5万个视频帧),神经网络使用这些视频帧预测物体的类别和重量,并感知人类的抓握。基于该数据集,该手套预测物体类别的准确率可达76%,而且能够准确预测大部分60g以内物体的重量。
为了识别物体的类别,研究人员设计了一个卷积神经网络(CNN),将特定的压力模式与特定物体联系起来。这个技巧需要从不同类型的抓握中选择视频帧,以获取物体的全貌。
STAG能够生成高分辨率的数据,且成本仅需10美元。该技术可以帮助机器人识别和操纵物体,也可以用于假肢设计。
全部0条评论
快来发表一下你的评论吧 !