您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
人工智能 正文
发私信给AI研习社-译站
发送

0

神经网络这么弱?改一个像素就懵圈了

本文作者: AI研习社-译站 2018-06-22 17:38
导语: 攻击大多数神经网络只需要修改一个像素就行

雷锋网按:这里是,雷锋字幕组编译的Two minutes paper专栏,每周带大家用碎片时间阅览前沿技术,了解AI领域的最新研究成果。

原标题 One Pixel Attack Defeats Neural Networks | Two Minute Papers #240

翻译 | 于泽平  字幕 | 凡江    整理 | 李逸凡  吴璇


▷每周一篇2分钟论文视频解读

骗过神经网络,我们最少需要改变多少像素(pixel)呢?猜猜是多少,可能你会觉得,怎么着都要100才够,但论文证明了,攻击大多数神经网络只需要修改一个像素就行。

在这篇《One pixel attack for fooling deep neural networks》论文中,研究人员分析了一种在极端限制情形下(只修改一个像素)的攻击。他们提出了一种基于差分进化(differential evolution)的单像素对抗干扰新方法。

结果表明,70.97%的自然图像至少有一个分类目标会被干扰,而造成干扰只需要修改置信均值为97.47%的一个像素。因此,在极端限制情形下,攻击探索出了不同的对抗机器学习方法。这也表明当前的深度神经网络也容易受到这类低维攻击。

神经网络通常不直接判断一个类别,而是通过一些置信值来判别。置信值代表神经网络它有多确信看到的是只拉布拉多犬还是一只老虎猫。我们通常对比所有的置信值,并选出最高的,查看它们使神经网络对正确类别的置信值下降了多少,接着我们抛弃效果不好的像素,并继续搜索最有希望的像素,我们将这个过程称为差异进化。

如果这个过程实现的很好,最终正确类别的置信值将会变的很低,因为神经网路将能预测另一个类别,一旦发生这种情况,代表神经网络成功被欺骗了,这也意味我们需要查看神经网路,并获得其置信值。

当然,也有大量关于训练鲁棒性的神经网络的研究,使这些神经网络可以承受更多对抗攻击,对抗攻击有着许多地方值得我们去挖掘以及探索。

论文:https://arxiv.org/abs/1710.08864

Github:https://github.com/Hyperparticle/one-pixel-attack-keras

雷锋字幕组正在招募中,扫描下方二维码,备注“雷锋字幕组+姓名”加入我们。

神经网络这么弱?改一个像素就懵圈了

神经网络这么弱?改一个像素就懵圈了

雷锋网雷锋网


雷峰网原创文章,未经授权禁止转载。详情见转载须知

神经网络这么弱?改一个像素就懵圈了

分享:
相关文章

知情人士

AI研习社(yanxishe.com)译站频道,传播前沿人工智能知识,让语言不再成为学习知识的门槛。(原雷锋字幕组)
当月热门文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说