当前位置: 主页 /

CS

【链文娱】MIT CSAIL训练AI机器人操作未见过的物体

本文发表于: 2018-09-15 22:15

选自VB

原文|KYLE WIGGERS

乌镇智库编译

人工智能技术的影响比机器人技术更具变革性。位于旧金山的AI创业公司开发出一个模型,能指导机械手操纵物体,其精度在全球范围内可能都是最为先进的,另一个例子则是Softbank Robotics为其机器人产品Pepper注入情商,怕是要给留守儿童和老人带来点福音。

这方面最新的进展来自美国麻省理工计算机科学与人工智能实验室(MIT CSAIL)。上周六CSAIL在arxiv上发表一篇论文:

Descriptors and Application to Robotic Manipulation>(论文地址:http://cn.arxiv.org/abs/1806.08756),详尽描述了一个计算机视觉系统,他们称之为密集对象网络(Dense Object Nets,DON),能够从视觉上理解并让机器人操作之前从未见过的物体。

图片|DON系统和抓住一杯的Kuka机器人的特写镜头。

来源:Tom Buehler / MIT CSAIL

他们计划于今年10月份在苏黎世召开的机器人学习大会(the conference on Robot learning)上展示团队最新的研究成果。

该论文的第一作者、在读博士Lucas Manuelli在CSAIL网站上发表文章说,很多现有的算法还无法通过马克杯手柄的部分抓住马克杯,特别是如果马克杯直立或者倒下的状态下,杯子给到计算机的视觉不一样,也就是说计算机可能无法识别同一个物体处于多种朝向下的一个特定部分的特征。

DON不是一个控制系统,它实际上是一个自我监督的深度神经网络,经过训练后的DON以坐标的形式标记对象,生成对象的描述符,当一个新的物体呈现在它面前,它能够自主挑选出参考框架,再映射到三维中,将其形状可视化。

图片|DON帮助机器人手臂拿起鞋子。

来源:麻省理工学院CSAIL

根据研究人员的描述,对象的描述符平均需要20分钟学习,但与任务对象本身的状态没有关系,它适用于刚性物体(rigid objects),例如帽子、鞋子,也适用非刚性物体,例如毛绒玩具,曾经在一轮训练中,系统仅仅看到六种不同类型款式的帽子后就学会了对帽子的描述。

值得一提的是,尽管学习对象的颜色、纹理和形状存在差异,但是描述符仍然保持一致,这让DON在使用RGB或深度数据的模型中能更进一步,因为后者没有一致的对象描述,也无法有效地找到对象“可抓取”的特征,有时候即便是对象在轻微变形下系统也无法找到特征点,但DON能够做到。

图片|DON生成的对象的可视化表示

来源:MIT CSAIL

在一次演示中,尽管从未在训练中看到过帽子的照片,机器人手臂设法从一堆类似的帽子中抓出一顶帽子;在另外一次演示中,它从一堆玩具里抓住一个毛毛虫玩具的右耳,证明它能在对称物体上区分左右。

团队认为DON可能在工业制造环境中会非常适用(试想一下仓库的分类机器人),但团队希望能够开发出一个升级版,能更深入、全方位的理解对象,以便更高效的完成任务。

研究人员说:我们认为DON是一种对物体的新颖的描述形式,能够实现新的机器人操作方法,也有助于其他类型的机器人学习参考,或者仅凭机器人自己的喜好去掌握、操纵和放置物品。

论文地址:http://cn.arxiv.org/abs/1806.08756


 链文娱,让你恋上文娱!   

全球泛文娱区块链综合信息咨询服务平台    

媒体 | 咨询 |培训

商务合作请联系

商务合作:18616534069@163.com">18616534069@163.com

微信号:touchvalue



发文时比特币价格:44971.8838778
柚子eos价格:37.596660823
以太坊价格:1545.71604214
etc价格:77.9273366756

0 个评论

要回复文章请先登录注册