亚马逊机器学习专家发现,他们的新型招聘工具并不欢迎女性

电子说

1.3w人已加入

描述

编者按:据路透社今日报道,亚马逊机器学习专家发现,他们的新型招聘工具并不欢迎女性。以下是论智对报道的编译。

从2014年开始,亚马逊的机器学习小组就着手搭建一款能自动查看申请者简历的程序,目的是快速找到他们想要的人才。自动化是亚马逊电子商务的主要关注点,这在仓储物流和价格定位中都有使用。而公司目前正在试验阶段的招聘工具通过人工智能技术,将候选人从1到5进行评分,有人说这有点像商品的使用评价。

“人人都想得到这份工作。亚马逊想让这个模型从100份简历中自动筛选出top 5,然后直接聘用这些即可,”小组其中的一人说道。

但是到2015年,亚马逊发现这一新系统在评估软件开发职位和其他技术岗位时,在性别上有不公正之处。

这是由于亚马逊的计算机模型在训练时是通过观察过去十年申请者的简历信息,其中大多数是男性,这也反映了男性在技术领域中占有相当大的比例。

这样一来,亚马逊的招聘系统就告诉自己,男性候选人更受人青睐。于是它会降低含有“女性”字眼的简历分数,如果是在女子大学毕业,也会降低评分。

亚马逊针对这些问题进行了修改,使其更加中立。但是这并不能保证机器会用其他方法体现出它的不公平性。最终,去年年初,该小组被解散。招聘者会在面试时参考该工具的意见,但不会完全依赖它的答案。

男性化语言

随着大量低成本计算力的出现,机器学习受到很多公司的追捧,亚马逊也因此开始大量招聘。从2015年6月开始,总部员工增加了两倍,达到575700人。于是,亚马逊在爱丁堡工程中心成立了一个小组,目的就是开发人工智能,从网络上寻找值得招募的人。

该小组创建了500个计算机模型,专注于各地区各岗位的招聘,他们根据过去候选人的简历,教模型辨认大约5万个条目。算法并不看重IT职位招聘时常见的技能,例如会写多少种代码。相反,算法更喜欢看到男性简历中出现的某些动词,例如“执行”和“捕捉到”等等。

性别歧视并不是唯一的问题,模型的数据有时会带来错误判断。有时,不合格的候选人通常会被推荐到其他各种岗位,随着这些结果越来越离谱,亚马逊关闭了该项目。

阻碍还是动力?

不过,其他公司仍然在AI招聘的路上前进着。

初创公司HireVue的老板Kevin Parker表示,自动化招聘可以帮助雇主跳出传统的招聘平台,他的公司通过分析候选人在视频面试中的话语和面部表情来降低对简历的依赖。

高盛公司也创建了自己的简历分析工具,目的是选出最契合公司的候选人。而世界最大的职业招聘网站LinkedIn可以根据用户在网站上发布的信息,用算法生产排名提供给招聘者。LinkedIn人才招聘部门的副总裁John Jersin说,这项服务并不是要代替传统招聘,“我当然不会相信现在任何的AI系统做出的招聘决策。”

有些从业者说他们担心AI的透明度,美国公民自由联盟目前正考虑是否可以设立法律,允许受害者可以对使用带有歧视算法的招聘者提起诉讼。该联盟的一位律师Rachel Goodman表示:“我们正密切关注算法的公平性。”

但是,Goodman和其他有AI背景的人认为,想要以上述名义起诉招聘者可能很难,因为候选人可能永远不会知道在招聘时用了哪些信息。

至于亚马逊,公司目前从失败中学到了相关经验,只用简单的去重技术,将数据库中重复的简历筛选掉,这也是最常见的技术之一。另外有消息称,爱丁堡目前成立了一个新小组,他们正试着开始第二次自动化招聘的项目,但更关注的是多样性。

后记

对于亚马逊模型偏差的问题,在微博上也引起了讨论。网友@HammerSh4w提问:

“由群体特征学习,将该知识应用到个体,模型本身会引入偏差,这个偏差能否被认为是偏见,是不是可以通过弃用一些敏感的特征来缓解偏见?”

我们熟知的@爱可可-爱生活老师针对这一观点表示:

“有一定道理,不过敏感特征降权相当于用另一种手工偏差抵消数据偏差,其实很难把握;问题的根本,在于学到的数据模式是否能支持特定的决策目标。”

AI最初就像婴儿,它不带任何观点或偏见。它之所以变得“有偏见”,是因为教它的老师有偏见。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分