您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
人工智能 正文
发私信给AI研习社-译站
发送

0

谷歌大脑提出TCN,能让机器人边看视频边模仿

本文作者: AI研习社-译站 2018-02-07 11:14
导语:机器人仅仅通过观看视频,就能在无人监督的情况下,模拟视频动作的全过程

▷谷歌大脑Time-Contrastive Networks(TCN)论文解读视频

翻译 | Laura    校对 | 吴璇    整理 | 凡江

雷锋网按:在「Time-Contrastive Networks: Self-Supervised Learning from Multi-View Observation」这篇论文中,谷歌的研究者提出了一种从观察中学习世界的新方法。雷锋网本期译制视频多角度展示了机器人仅仅通过观看视频,就能在无人监督的情况下,模拟视频动作的全过程。

谷歌大脑提出TCN,能让机器人边看视频边模仿


除了视频演示之外,谷歌大脑并未对机器人系统提供监督学习。他们将这种方法运用于各种不同的任务,以此来训练真实和虚拟机器人。例如,倒水任务,放碟任务,和姿势模仿任务。

谷歌大脑提出TCN,能让机器人边看视频边模仿


第一步

通过视频的分解镜头来学习,将时间作为监督信号,发现视频的不同属性。这组嵌入向量经由一组非结构化和未标记的视频训练,里面含有和任务相关的有效动作,也有一些随机行为,来体现真实世界中的各种可能状态。


谷歌大脑提出TCN,能让机器人边看视频边模仿

模型使用triplet loss误差函数,基于同一帧的多视角观察数据来训练多视角下同时出现的帧,在嵌入空间中互相关联。当然也可以考虑一个时间对比模型,只根据单一视角来训练。这一次,有效帧在锚点的一定范围内随机选定,根据有效范围计算边际范围。无效范围是在边际范围外随机选定。模型和之前一样进行训练。

第二步

通过强化学习来学习规则。基于TCN嵌入,根据第三方的真人示范来构造奖励函数。机械臂起初尝试一些随机动作,然后学会反复进行这些动作,就可以产生最高奖励的控制步骤,最后达成重现视频任务的效果。

谷歌大脑提出TCN,能让机器人边看视频边模仿

模型在仅仅经历了9次迭代后就成功收敛,大约相当于现实世界15分钟的训练。同样地,在移碟任务中,机器人最初尝试随机运动,然后学会成功拿起和移动一个盘子。

谷歌大脑提出TCN,能让机器人边看视频边模仿

雷锋网提供论文原址:https://sermanet.github.io/tcn/

雷锋网推荐相关阅读:看一遍人类动作就能模仿,能理解语义的谷歌机器人登上无监督学习的新高度

谷歌大脑提出TCN,能让机器人边看视频边模仿

谷歌大脑提出TCN,能让机器人边看视频边模仿

雷峰网原创文章,未经授权禁止转载。详情见转载须知

谷歌大脑提出TCN,能让机器人边看视频边模仿

分享:

知情人士

AI研习社(yanxishe.com)译站频道,传播前沿人工智能知识,让语言不再成为学习知识的门槛。(原雷锋字幕组)
当月热门文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说