0
本文作者: 奕欣 | 2017-07-06 18:42 | 专题:NIPS 2017 |
via pulse2
每年年底举办的 NIPS 都是令学者为之一振的顶级学术盛会。雷锋网了解到,今年首次增加了一个新议程,即「NIPS 2017 Competition Track」。本次竞赛活动从 23 个候选提案中选择了五个数据驱动的比赛项目,覆盖领域广泛。而今天谷歌大脑研究员 Ian Goodfellow 在 Twitter 上强烈推荐了他牵头组织的 Adversarial Attacks and Defences(对抗攻击防御)比赛。而 Nicolas Papernot 也倾情转发支持。
这一比赛由 Alexey Kurakin、Ian Goodfellow 和 Samy Bengio 一同举办。目前大多数现有的机器学习分类器的鲁棒性很差,容易受对抗样本的影响。样本经过轻微修改后,可能就会让机器学习分类器受到迷惑,并进行错误的分类。这些修改可能人类几乎无法看出区别,这可能会对机器学习分类器的安全性产生不利影响。因此,这一比赛主要也是为了加快研究机器学习分类器的对抗样本,提升其鲁棒性。
Kaggle 前段时间被谷歌收购,因此这一比赛也自然而然在 Kaggle 上发布。虽然是在 Kaggle 上发布具体介绍,但这一比赛依然要遵循 NIPS 2017 Competition Track 的相关规定。
比赛的全名为 Non-targeted Adversarial Attack,简介是「Imperceptibly transform images in ways that fool classification models」,也就是说,需要以欺骗分类模型的方式将图片巧妙地移花接木。具体而言,分为三个竞赛项目:
Non-targeted Adversarial Attack,竞赛者所提交的系统需要对给定的图片进行处理,使得某个通用机器学习分类器无法识别。
Targeted Adversarial Attack,竞赛者所提交的系统需要对给定的图片进行处理,让某个通用机器学习分类器能成功识别图像属于特定类别。
Defense Against Adversarial Attack,竞赛者需要构建一个机器学习分类器,拥有足够的鲁棒性使之能正确鉴别对抗性的图像。
比赛将在给定的数据集中进行测试,并且希望参赛者能针对数据集中的每张图像生成对应的对抗样本。所有生成的图片将在所有提交的防御性分类器中进行测试,如果分类器分类错误,则对方得一分。而每次攻击都会依照下面的公式进行计算,分数越高,则说明攻击系统的效果越好。
在本次比赛中,用于攻击与防御所用的分类任务都是源于 ImageNet。谷歌希望参赛者也能构建强大的 ImageNet 分类器,并且能抵御对抗攻击。
此外,为了让竞争更加有趣,而且避免公共数据的过度使用,将采用 DEV 与 TEST 数据集对结果进行评估与测试。DEV 数据集涵盖 1000 张图像,而 TEST 数据集目前保密,将在比赛结束后公开。
根据介绍,雷锋网了解到,8 月 1 日、9 月 1 日、9 月 15 日将分别启动三轮开发进程,并在 10 月 1 日截止提交。在 Kaggle 页面上包含了参赛的详细信息,感兴趣的同学朋友们可以密切关注这一赛事。
NIPS 介绍页面:https://nips.cc/Conferences/2017/CompetitionTrack
Kaggle 介绍页面:https://www.kaggle.com/c/nips-2017-non-targeted-adversarial-attack#description,雷锋网整理
雷峰网版权文章,未经授权禁止转载。详情见转载须知。