您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
机器人 正文
发私信给杨波
发送

0

消除算法设计中的性别歧视:机器人向人类潜意识说No

本文作者: 杨波 2016-08-22 18:53
导语:来自微软的程序员Adam Kalai正在与波士顿大学的科学家们合作,尝试通过一种叫“词向量”的技术,瓦解计算机算法中反射出的人类社会的性别歧视。

雷锋网按:本文作者 Ryan O'Hare,来源Dailymail,由雷锋网独家编译,未经许可拒绝转载!

消除算法设计中的性别歧视:机器人向人类潜意识说No

毫无疑问,人类不自觉的性别偏见会影响对语言进行分析的计算机算法。比如,当用人单位在搜索简历输入“程序员”这个岗位的时候,搜索结果会优先显示来自男性求职者的简历——因为“程序员”这个词与男性的关联比女性更密切。同理,当搜索目标为“前台”时,女性求职者的简历则会被优先显示出来。这样带有性别歧视的计算机算法对求职者而言是不公平的。

目前,来自微软的程序员Adam Kalai正在与波士顿大学的科学家们合作,尝试通过一种叫“词向量”的技术,瓦解计算机算法中反射出的人类社会的性别歧视。“词向量”技术的基础是教计算机通过发掘词语之间的的关联进行语言处理。通过使用这个方法,计算机可以通过比较单词 “她”和“他”来了解上下文的语境。在具体运用时,计算机会找到诸如 “姐姐-弟弟”和“王后-国王”这样合适的配对。

消除算法设计中的性别歧视:机器人向人类潜意识说No

Kalai在接受美国国家公共电台的采访时表示,“我们试图避免在新闻中体现与性别歧视相关的内容……但是你会发现,这些单词配对存在赤裸裸的性别歧视意味。”

在网上最新公布的一篇研究报告中,该研究小组发现,他们可以训练计算机忽略单词的某些特定的关联,同时保留它们需要的关键信息。他们解释道:“我们的目标是减少单词配对中的性格偏见,同时保留词向量中有用的一些特征。”通过对算法的略微调整,他们可以消除 “前台”和“女性”之间的联系,同时保留合适的单词配对,比如“王后”和“女性”。

消除算法设计中的性别歧视:机器人向人类潜意识说No

虽然该算法基于性别产生配对,但还是忽略了其中潜在的某些联系——有些单词的性别特征的确比较鲜明。他们相信这个方法会让计算机学习通过词向量,在保留有效联系的同时,摆脱固有的性格偏见。根据美国国家公共电台的报道,问题是不一定要采用“词向量”去处理语言。这种算法可以分辨性别和种族,但只有当研究人员希望专注于某一特定性别或者族群时,才可能需要用到这种算法。

当这种技术被用作毫无偏见地筛选数据的方法,而不考虑性别或种族偏见时,事情就会比较复杂了。对此,科学家们解释道:“对基于种族、民族和文化的固有成见而产生的直接和间接偏见的理解是颇为微妙的。在未来,这项工作的一个重要方向是能够量化并消除这些偏见。”

当然,想要完全杜绝偏见是不可能的,配对的规则掌握在人类手中,只要人类的偏见还存在,机器人的偏见也不会消失。

via dailymail

雷峰网原创文章,未经授权禁止转载。详情见转载须知

分享:
相关文章

编辑

最后一只小鱼干
当月热门文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说