您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
国际 正文
发私信给Misty
发送

1

致程序员:算法为何带有偏见?

本文作者: Misty 2016-06-27 10:26
导语:我们总是希望,算法比人类更客观,然而......

致程序员:算法为何带有偏见?

现如今,由算法和人工智能驱动的科技越来越多地进入到我们生活,而现在,我们面临着一个相当讽刺的问题:这些程序的立场是非中立的吗?它们总是带有一些偏见吗?诚然,答案是肯定的。

最近,Facebook的“流行话题”列表非常骚动,其反应出的对自由党的偏见昭然若揭。之后,美国政府要求Facebook给出一个官方的解释。本周,Facebook COO Sheryl Sandberg表示Facebook将会开始训练员工,来辨别和控制他们的政治倾向。

其实,Facebook的做法正是Kickstarter的前数据执行官Fred Benenson所说的"数学洗脑”:我们让诸如Facebook的算法程序变得完全客观、完全中立,是因为算法核心基于数学。

而现如今的算法之所以怀有偏见,很大程度上是因为很多程序员(特别是机器学习程序员)为男性。在最近《彭博社》发布的文章中,微软研究员Margaret Mitchell呼吁更多女性参与到编程中来。

哈佛教授 Latanya Sweeney表示:在一次关于谷歌AdSense广告的研究中,他在搜索了白人典型人名(如Geoffrey, Jill, Emma)和黑人典型人名(如DeShawn, Darnell, Jermaine),发现含有“逮捕(arrest)”这个字眼的词语广告时,出现的黑人人名超过80%,但出现的白人人名只有不到30%。

Sweeney担心谷歌的这种广告技术会带来种族偏见,让黑人在比赛、工作、约会等情况下比白人略逊一筹。

同时,借贷和信用等领域一直以来被冠以种族偏见的帽子,因此必须在此敏感问题上分外小心。

在线借贷公司ZestFinance在建立之初就认同这样一种思想:机器学习项目可以让那些被认为是“有价值的借贷者”的数量增多,从而会陷入借贷歧视的危险境地。而为了阻止这种情况发生,ZestFinance已经建立了某种特定工具来测试结果。

不过,这种情况的危险之处在于:这种不言而喻的偏见(不仅存在于算法程序中,还存在于其中的数据中)可以一不小心就让任何程序编程腹黑的偏见者。对于不能分别程序复杂性的用户来说,要弄清程序是否是公平的,是非常困难的。

Benenson在最近Technical.ly Brooklyn举行的问答大会上表示:“算法和数据驱动产品总是会反映其建造者的设计选择,如若程序员们本身带有偏见,那么编写出来的程序带有偏见就不足为奇了。”

Via:MIT Technology Review

雷峰网原创文章,未经授权禁止转载。详情见转载须知

分享:
相关文章

编辑

欢迎合作,欢迎来撩。 微信号:Misty_Yoong
当月热门文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说