0
本文作者: 伍文靓 | 2019-09-06 19:09 |
雷锋网消息,2019 年 9 月 5 日,Facebook CTO Mike Schroepfer 发布了一篇博文宣布,Facebook 正与微软公司以及多所大学联合研究检测 deepfakes 的方法,甚至投入了 1000 万美元来发起竞赛,激励检测研究的发展。
2017 年,一名 ID 为 Deepfakes 的网友在 Reddit 网站上传了一段换脸视频,并在之后上传了一系列类似的视频;由于换脸视频涉及色情内容,并且侵犯了他人的隐私,引起了恶劣的反响。最终,Reddit 官方将 Deepfakes 封号。而作为报复,Deepfakes 也将换脸视频的 AI 代码免费公开,从此,Deepfakes 视频像病毒一样蔓延全球,无论是明星还是政客,都有可能被“换脸”。
出于人们对这项技术的强烈担忧,Deepfakes 在一定程度上遭到了打压。
虽然,Deepfakes 时常会被用于恶搞视频里,而且人们也觉得无伤大雅;但是,如果出现在政党竞选领域,或许就另当别论了——有专家表示,在 2020 年美国总统大选之前,或许会有更多关于政客的 Deepfakes 假新闻出现。
就目前而言,美国还没有引发重大政治后果的 Deepfakes 换脸视频,但最近网上流传出一段劣质的有关美国众议院议长 Nancy Pelosi 的视频片段,视频片段中 Nancy Pelosi 的演讲被人为降速,让她看上去含混不清,造成了负面影响。
更重要的是,使用该技术的成本在变得越来越低。网络上有一些团队正在开发制作简单 Deepfakes 视频的市场;甚至在 YouTube 上传指导教程,教人手把手制作 Deepfakes 视频,再收取一定的费用;也有一些自助服务网站可以帮助生成 Deepfakes 视频。
前两天刷爆朋友圈的换脸 app ZAO 更是大大降低了人们感受这项技术的门槛——不需要 P 图技术、不需要代码知识、不需要专业设备;仅需要一部手机,一张照片,就能快速生成换脸视频;效果逼真,动作流畅。而且,一旦用户上传自己的照片,并且同意该软件的用户协议和隐私协议,肖像权 & 隐私权就有可能面临着巨大的风险。
正如开篇所提到的,针对 Deepfakes 带来的恶劣影响,众多机构已经开始行动。Facebook 已经联合学术和企业两个领域的力量,共同研究以低成本的方式检测出 Deepfakes 视频的方法。
雷锋网了解到,项目的参与者包括康奈尔科技校区(Cornell Tech)、麻省理工学院(MIT)、牛津大学(University of Oxford)和伯克利大学(UC Berkeley)等;非营利性研究组织 Partnership on AI 也参与其中,该组织的成员有 Google 、苹果、亚马逊、IBM 等大型科技公司。
Facebook 的声明中还援引了来自多个大学的教授的话;其中,纽约州立大学工程与应用科学学院的吕思伟教授说道:
虽然 Deepfakes 视频看起来可能很逼真,但它们毕竟是由算法生成的,而不是由摄像机捕获的真实事件;这意味着它们仍然可以被检测出来。一些有前景的新方法可以发现和减轻 Deepfakes 的有害影响,包括在视频素材中添加“数字指纹”以帮助验证其真实性。除此之外,解决这个问题还需要技术人员、政府机构、媒体、公司和每一个在线用户共同努力。
作为该项目的一部分,Facebook 还投入了 1000 万美元来发起竞赛,竞赛将从 2019 年末开始,到 2020 年春季结束;届时还将有一个排行榜,用来评定 Deepfakes 检测系统的能力。从某种程度上来说,发起竞赛不失为一种明智之举,可以激励研究人员以及业余爱好者寻找解决方案。
不过,与所有有关于人工智能的问题一样,Deepfakes 视频的检测也涉及到大量的数据和训练。因此,Facebook 也会委托研究人员生成逼真的 Deepfakes 内容,通过这些内容生成数据集,以便于测试检测工具的效果。与此同时,Facebook 也表示,这些视频将邀请付费的演员出演,不会使用用户的数据。这些视频数据也将于今年 10 月举行的国际计算机视觉会议进行初步测试,并于 12 月在温哥华举行的 NeurIPS 会议期间公开发布,以便于参赛者访问。
尽管 Facebook 对其计划十分有信心,但想要解决 Deepfakes 的问题也并非易事。
Facebook 首席技术官 Mike Schroepfer 在接受记者采访时说道,人们有许多方法可以检测 Deepfakes 视频,比如通过视频中一些奇怪的阴影形态和不自然的视觉效果。但随着 Deepfakes 背后的技术迅速发展,检测也变得越来越困难。
雷锋网获悉,一些研究人员正在打造一个通过数字水印验证视频或图像真实性的系统,然而,Deepfakes 技术的迅速发展,让 Deepfakes 视频制作者和检测人员之间展开了一场军备竞赛。纽约大学坦登学校计算机工程助理教授 Siddharth Garg 表示,“这就像一场猫鼠游戏,如果我们设计了一个 Deepfakes 的检测器,就等于给了黑客一个新的模拟器进行反测试。”
另外,从检测系统本身来看,当一个系统已经“看过”原始视频时,确实能够轻易地从假视频中发现变化,从而检测出 Deepfakes 视频;但如果怀有恶意演员故意录制视频,然后对其进行处理,那么对于人工智能系统而言,这个视频就是“原始视频”,没有可以参考的标准,也就难以发现其中存在的问题。
Mike Schroepfer 表示,Facebook 已经尝试了各种检测方法,但希望这次比赛能够产生更加新颖的方式。
值得一提的是,Deepfakes 最初被用于捏造以女性演员为对象的色情内容,然而,Facebook 在其声明中援引了 7 位学术嘉宾对 Deepfakes 的评论,其中并未包括女性。这一点在 Twitter 上引起了广泛的讨论。
总的来说,能够看到学术界和企业联合起来研究解决 Deepfakes 的相关问题,不可谓不喜闻乐见。尽管,人们在这条路上还会看到挑战和困难不断涌现,但正如 Facebook 在其声明中所言,此次的行动是“迈出了有意义的一步”。
雷峰网原创文章,未经授权禁止转载。详情见转载须知。