0
本文作者: 温晓桦 | 2016-04-19 08:20 |
编者按:在《互联网秘密规则:言论自由背后的内容管制(上)》中我们谈到,在面对自由与管制的问题上,主流社交平台的内容过滤机制——时常处于企业利益、社交责任、基本人权等问题之间权衡的迷之困惑当中。事实上,我们所迷恋的西方言论自由,背后有我们看不见的机制。
而即使在法律监管下,所有用来监管传统媒体的三权分立制衡体系将不再适用,它们也无需承受诽谤的风险,一切,实际上并没有规则。
像军队那样地隐蔽,带来的后果就是所施行的指令更加不透明——由一波风险投资家 、CEO、政策、社区、隐私信誉和安全经理、律师、工程师在数千里之外共同定制。加拿大韦仕敦大学信息和媒体研究助理教授Sarah T. Roberts,以及即将出版的《屏幕的背后:社交媒体暗影世界中的数字化劳动》的作者表示,商业内容管制不是一个有凝聚力的系统,而是一个随着需求不断发展的实践,受制于不同国家的不同法律,而且长期无法充分应对当前的任务。这些实践经常在挑战的重压和复杂性下分崩瓦解——虽然内容审核者让这种实践成为更深刻的法律和人权问题。
再回顾阿拉伯世界的革命浪潮“阿拉伯之春”,当时西方媒体认为这个“阿拉伯之春”属于“谙熟互联网、要求和世界其它大部分地区一样享有基本民主权利的年轻一代”。然而各穆斯林国家的命运并不相同,使得这场跨及多国的民主化运动蒙上阴影。当时的在线内容无论是幸存还是被消除,它都能够推动这次革命和行动的进行,并扫除所产生的政策改革和文化转移。
上个月,一篇题目《社交媒体的阴暗面:是Facebook让你抑郁的吗?》的文章指出,研究抑郁症的认知科学家Charlotte Blease表示,她认为社会地位是社交媒体抑郁症的根源。在现代的环境下,当我们感到我们被那些高社会地位或高声望的人超过时,就会触发这种机制。 那么,谁来主导这一切?据悉,三分之一的Facebook员工属于内容审核者。
在Facebook、Pinterest和YouTube等行业巨头当中,内容审核进程正在大幅度提高;而其他一些平台可能还处于2006年时的情况。他们之间审查系统的联手构建还处于早期阶段,因此公司的之间的审查是相互独立的。所以,这些不同的内容审查政策,反映出各平台用户和创始人的内在价值观。
以综合型讨论区4chan为例,4chan网站热衷于发布一些粗俗和带有仇恨性质的内容,几乎可以是自由发布任何内容——只要是董事会所定义的。据该网站创始人Hiroyuki Nishimura所说,4chan仍然严重依赖志愿者体系作为用户的“看门人”。“他们无法决定的问我,我不懂的问律师。”即使是十年过去了,4chan仍然是一个充满骚扰和威胁的网站。上面的内容包括从国际色情、迷因,到种族主义和威胁到用户个人的信息。“无论是YouTube、Facebook、Twitter,还是4chan,想利用社交平台做坏事的人,他们走到哪都会出现。如果有什么方式可以制止他们,我愿意那样做。”
然而,一旦说到内容审核的细节,公众便不会得知它们的真面目,在企业的内部,他们对于用户和公众来说就是一种秘密规则。尽管社会不断呼吁要求公开透明,社交媒体公司从来不会对外披露它们过去或者现在的内容审核标准,至今都没有,包括Facebook、Twitter、Reddit、Pinterest。当被问及 Twitter 的信任与安全部门的操作,他们的发言人只写了以下这些话:
“我们设定的规则是为了让我们的用户能够在一个安全的环境下创建和分享各种各样内容。当用户发布的内容违反了我们的规则时,我们将暂停他的账户,违规的内容包括暴力威胁和有特定的虐待行为。我们基于用户上传的内容评估和不断完善我们的政策,同时还与其他安全组织合作以保证我们能够实践这个行业的最佳做法。”
对于他们可以保密的动机,Facebook互联网公司的内容审核者 Crawford、Willner表示:一方面,高管们想保护这方面的技术专利,同时避免被卷入某些责任当中;另一方面,他们希望在如今快速变化的情况下赢得足够大的周旋空间,以及让员工免于接受公众的监督和威胁。很明显,由于保密和监管这个准政府职能而付出的成本,在互联网公司的眼中不值一提。
Dave Willner在 2008 年至2013年间担任Facebook 内容政策主管。Facebook 第一个用于内容审查的“标准”创建于2009年,包含了 15000 个单词。Dave Willner 说:“当时这份‘标准’的企图是无所不包的。”公众成员,也急速用户对此一无所知,只能依靠猜测:完全有机器人来执行;依据法律来执行;或者说由内容主管来对每篇文章进行评定。Williner 指出:
“这些标准都是错的,他们忽略了一点——在这体系当中,用户自身才是至关重要的角色。”
总的来说,用户认为自己是消费者或者是客户。但平台却需要依靠他们来改变线性关系:首先,用户产生内容——故事、照片、视频、评论以及互动;第二,用户的行为——分析、包装和重新包装——都是广告营收的来源;第三,由于几乎所有的内容审核系统都取决于用户标记的内容和提交的投诉,以及帮助形成一个平台的品牌特征的内容,所以用户本身才是内容审核过程中至关重要的角色。
校园社交工具 iCanHelpline创始人Anne Collier表示,用户还没有意识到他们拥有解决他们在社交媒体上创造的危害。“他们被称为‘用户’是有原因的,以及思想和行为都是被动的。通过模糊他们的角色,企业成功阻滞了他们的力量。”
互联网的早期阶段里,业内提出“信息想要实现免费”这个崇高的目标。互联网被给予了激发人们积极性、创造性潜能的厚望,而不是成为虐待狂、猥亵儿童者、强奸犯、或极端种族主义者宣泄个人情绪的阵地。但完全免费的互联网却迅速成为一些令人发指的内容散布的地方,而这些内容的发布者和支持者仿佛在互联网找到了美好归宿。
这个早期阶段——从上世纪 60 年代持续到 2000 年,哈佛大学伯克曼互联网与社会中心前执行董事 J.G.Palfrey 称之为“开放的互联网”。1996 年通过的《通信内容端正法案》( Communications Decency Act)的 第 230(c) 节规定,免除了提供内容共享服务的公司对用户发布内容的责任。这个法案也被称为“《善良的撒玛利亚人法》(the Good Samaritan Act:是关于在紧急状态下,施救者因其无偿的救助行为,给被救助者造成某种损害时免除责任的法律条文。)”。
230节被认为是“互联网最重要的法律”,它具体是这么说的:“所有交互式计算机服务中的供应方和使用者,都不应该被视作任何其他内容发布者所发布信息的发言者和发表者。”这项26个字的条款意味着:将言论自由的决定权交回到个人手中,有效地免除了平台所有非法内容的法律责任,比如儿童色情。所有用来监管传统媒体的三权分立制衡体系将不再适用,它们也无需承受诽谤的风险,一切,实际上并没有规则。
via The Verge
雷峰网原创文章,未经授权禁止转载。详情见转载须知。