0
本文作者: 刘伟 | 2017-05-24 18:32 |
代表人类科技未来的人工智能技术正逐渐渗透到越来越多的垂直领域,但我们审核内容的方式仍然有些原始。拥有近20亿用户的科技巨头Facebook正在努力扭转这一局面。
从此前流出内部幻灯片来看(这些幻灯片展示了Facebook如何判断哪些内容违反了其社区标准),Facebook仍然很大程度上依赖于其社区运营团队来决定保留或删除哪些帖子。
也就是说,尽管马克·扎克伯格(Mark Zuckerberg)正努力将人工智能技术推广到所有领域,但在内容审核方面人类仍然占据着主导地位。好在局面已经开始有所改变。
据雷锋网了解,Facebook曾在今年3月份宣布,将推出一套能够识别出试图自杀或自残的用户的AI系统。这套系统通过比对用户的帖子和评论与其先前帖子的相似性来判断其自杀的风险。如果系统判断某条帖子具有自杀倾向,就会在其他用户浏览这条帖子时,突出显示“上报自残”的选项。
值得注意的是,是否上报最终还是由人来决定的。AI无法判断,它只能提供帮助。
Facebook在判断我们上传照片的内容时,已经表现得越来越出色,即使照片中没有任何文字或标签。早在今年二月份,Facebook就指出,用户可以使用它基于AI的图像识别工具来搜索照片,比如搜索上面有穿黑衬衫的人的照片。
AI在识别照片上的内容以及揣测帖子背后的意图等方面的进步,对于人们识别每天发布在Facebook上的有关暴力、虐待和威胁的内容,具有莫大帮助。Facebook发言人表示,公司的初步目标是用自动化系统协助人类管理员。
雷锋网好奇的是,既然AI系统可以识别照片中的内容以及帖子背后的意图,那么是否也可以用它来自动标记和删除网站上的敏感内容呢?网络上这样子的内容实在太多了。据雷锋网了解,短短一个月内,Facebook就发现了五千五百万起疑似性骚扰和色情报复的案例。
目前来看,AI系统还无法担负这一重任。Facebook发言人坦承,其AI系统在理解语境方面还不够智能。
对于Facebook来说,某条帖子的语境对于判断它是否应该被删除至关重要。由于上下文间的关系往往比较隐晦,尤其是在语义本身比较模糊时,AI系统通常无法准确判断。
在对待有关性和暴力的内容时,根据此前泄露出的Facebook内部文件,社区运营团队在对待两条敏感帖子时的处理方式完全不同。发布“Little girl needs to keep to herself before daddy breaks her face”这样的内容是被允许的,“#stab and become the fear of the Zionist”则不行。
理解这些判断依据对人类来说尚且有些困难,人工智能系统就更是无能为力了。
Facebook改变现状的愿望很强烈,而且已经在大力推动用人工智能监测网站上的图片和视频内容了。
扎克伯格在二月份的公开信中说道:
“我们正在研究可以识别照片和视频内容的AI系统,这套系统可以标记疑似内容,以便我们的团队再次审核。这项研究仍处于早期阶段,不过我们已经开始让它监控部分内容了,而且它已经提供了我们团队审核内容中的三分之一。”
这套系统是否可以用来监控我们发布的文字及其语境还有待观察,不过有一点可以确定,Facebook正在为这一目标而努力奋斗。
雷峰网版权文章,未经授权禁止转载。详情见转载须知。