0
本文作者: 杨波 | 2016-08-22 18:53 |
雷锋网按:本文作者 Ryan O'Hare,来源Dailymail,由雷锋网独家编译,未经许可拒绝转载!
毫无疑问,人类不自觉的性别偏见会影响对语言进行分析的计算机算法。比如,当用人单位在搜索简历输入“程序员”这个岗位的时候,搜索结果会优先显示来自男性求职者的简历——因为“程序员”这个词与男性的关联比女性更密切。同理,当搜索目标为“前台”时,女性求职者的简历则会被优先显示出来。这样带有性别歧视的计算机算法对求职者而言是不公平的。
目前,来自微软的程序员Adam Kalai正在与波士顿大学的科学家们合作,尝试通过一种叫“词向量”的技术,瓦解计算机算法中反射出的人类社会的性别歧视。“词向量”技术的基础是教计算机通过发掘词语之间的的关联进行语言处理。通过使用这个方法,计算机可以通过比较单词 “她”和“他”来了解上下文的语境。在具体运用时,计算机会找到诸如 “姐姐-弟弟”和“王后-国王”这样合适的配对。
Kalai在接受美国国家公共电台的采访时表示,“我们试图避免在新闻中体现与性别歧视相关的内容……但是你会发现,这些单词配对存在赤裸裸的性别歧视意味。”
在网上最新公布的一篇研究报告中,该研究小组发现,他们可以训练计算机忽略单词的某些特定的关联,同时保留它们需要的关键信息。他们解释道:“我们的目标是减少单词配对中的性格偏见,同时保留词向量中有用的一些特征。”通过对算法的略微调整,他们可以消除 “前台”和“女性”之间的联系,同时保留合适的单词配对,比如“王后”和“女性”。
虽然该算法基于性别产生配对,但还是忽略了其中潜在的某些联系——有些单词的性别特征的确比较鲜明。他们相信这个方法会让计算机学习通过词向量,在保留有效联系的同时,摆脱固有的性格偏见。根据美国国家公共电台的报道,问题是不一定要采用“词向量”去处理语言。这种算法可以分辨性别和种族,但只有当研究人员希望专注于某一特定性别或者族群时,才可能需要用到这种算法。
当这种技术被用作毫无偏见地筛选数据的方法,而不考虑性别或种族偏见时,事情就会比较复杂了。对此,科学家们解释道:“对基于种族、民族和文化的固有成见而产生的直接和间接偏见的理解是颇为微妙的。在未来,这项工作的一个重要方向是能够量化并消除这些偏见。”
当然,想要完全杜绝偏见是不可能的,配对的规则掌握在人类手中,只要人类的偏见还存在,机器人的偏见也不会消失。
via dailymail
雷峰网原创文章,未经授权禁止转载。详情见转载须知。