您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
人工智能 正文
发私信给AI研习社-译站
发送

0

谷歌新论文发现:对抗样本也会骗人

本文作者: AI研习社-译站 2018-06-26 14:51
导语:人与对抗样本之间最基本的信任呢?

雷锋网按:雷锋字幕组出品系列短视频《 2 分钟论文 》,带大家用碎片时间阅览前沿技术,了解 AI 领域的最新研究成果。

翻译 | 于泽平   字幕 |  凡江   整理 |  吴璇

本期论文:对抗样本同时骗过人类和计算机视觉

Adversarial Examples that Fool both Human and Computer Vision

▷ ▷每周一篇2分钟论文视频解读

我们都知道,机器学习模型容易受到对抗样本的影响。

比如,稍稍修改一点图像,就会导致计算机视觉模型出现错误,像是把校车认成鸵鸟。

然而,人类是否容易出现类相似的错误呢?

谷歌新论文发现:对抗样本也会骗人

图片加入干扰能让猫看起来像狗

在这里,谷歌大脑的研究人员通过利用最近的技术创造了第一个欺骗人类的对抗样本,这些技术将具有已知参数和体系结构的计算机视觉模型的对抗样本,转换为其他具有未知参数和体系结构的模型,并且通过修改模型更加有效地匹配初始处理的人类视觉系统。

谷歌新论文发现:对抗样本也会骗人

不同扰动方式对图片进行处理

研究发现,在人类观察时间有限的情况下,这些在计算机视觉模型之间进行重度迁移的对抗样本,已经干扰了人类对图像的分类。

论文原址 https://arxiv.org/abs/1802.08195


雷锋字幕组正在招募中

扫描下方二维码

备注“雷锋字幕组+姓名”加入我们吧谷歌新论文发现:对抗样本也会骗人

谷歌新论文发现:对抗样本也会骗人

雷锋网雷锋网

雷峰网原创文章,未经授权禁止转载。详情见转载须知

谷歌新论文发现:对抗样本也会骗人

分享:
相关文章

知情人士

AI研习社(yanxishe.com)译站频道,传播前沿人工智能知识,让语言不再成为学习知识的门槛。(原雷锋字幕组)
当月热门文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说