人工智能并非万无一失

电子说

1.2w人已加入

描述

面对新西兰19大流行,新西兰总理Jacinda Ardern和旧金山市长London Breed等女性领导人因其迅速采取的行动而受到认可。

但是,人们被选为全世界人数更多的政府领导人。

这种差距不仅限于政治领导。在2019年,《福布斯》选出100名美国“最具影响力的领导人”,其中99名是男性。

缺乏多样性不仅限于性别。一个非营利部门的调查首席执行官发现,调查中87%的被调查者的自我认定为白色。

作为领导中心的执行和学术主任,我研究就业歧视和包容性。我已经看到,许多组织都希望有一个过程,可以消除识别领导者的偏见。投资者希望投资于拥有不同劳动力的企业,而员工则希望在多元化的组织中工作。

我的研究表明,依靠数据分析来消除人选领导者的偏见将无济于事。

人工智能并非万无一失

雇主越来越依赖算法来确定谁通过应用程序门户升格到面试。

正如劳工权利学者Ifeoma Ajunwa写道:“算法决策是21世纪的民权问题。” 2020年2月,美国众议院教育和劳工委员会召开了一场名为“ 工作的未来:保护数字时代的工人公民权利 ” 的听证会。

聘用算法会创建一个选择过程,该选择过程不会提供透明度并且不会受到监控。从申请流程中删除的申请人-或正如Ajunwa所说的那样,“在算法上受到了威胁”-几乎没有法律保护。

例如,据报道,2014年,亚马逊开始开发基于计算机的程序,以识别提交工作的最佳简历。这个想法是使流程自动化并提高效率,就像在其业务的其他方面所做的一样。

但是,通过使用计算机模型观察提交的简历的前10年中的模式以选择最好的简历,计算机自言自语地从男人的简历中取而代之,而不是像在妇女俱乐部或组织中那样包含“妇女”一词的简历。 。据报道,亚马逊随后放弃了该项目。

尽管历史上的偏见常常无意间被嵌入到算法中并反映出人类的偏见,但 Philip M. Nichols 最近的研究发现,存在潜在地故意操纵底层算法以使第三方受益的另一种威胁。

无意或有意地检测算法偏差的能力非常困难,因为它可能出现在AI开发的任何阶段,从数据收集到建模。

因此,尽管组织可以使用基于对领导力特征的研究和分析而获得的领导力分析工具,但白人男性领导者的刻板印象却根深蒂固,甚至有时被自身多样性的人们所延续。这不能简单地通过开发选择领导者的算法来消除。

面试后

建立这些算法的数据成倍增加。

一项视频面试服务 HireVue能够在一次30分钟的面试中检测成千上万的数据点,从句子结构到面部动作,以确定与其他申请人的就业能力。

那么,想象一下,当前雇主不断收集数据以确定领导潜力和员工晋升的机会。例如,工作场所中的摄像头可以整天工作时收集面部表情,尤其是在进出工作场所时。

越来越多的数据不仅在工作日或工作期间收集,而且也在下班期间收集。在最近的一篇文章中,Inara Scott教授确定了工作场所计划,这些工作计划从Facebook帖子和Fitbit使用情况收集了大量员工的下班行为数据,例如,这些数据的未来使用情况不透明。然后,雇主使用这些数据来进行相关性预测工作场所的成功。

正如Scott所指出的那样,大多数工人“可能会对他们的啤酒品味,对独立摇滚的热爱以及对《华盛顿邮报》的偏爱以及成千上万的其他变数这样的观念感到恼火,这些观念可用于确定职业发展机会,领导潜力和未来职业成功。”

但是,这种潜力在当今的工作场所中仍然存在,法律并没有赶上那些希望知道雇主支持其员工晋升和领导力投资的雇主收集和使用的大量数据。

在许多情况下,员工都同意收集元数据,而无需全面了解该数据可以揭示哪些内容以及如何将其用于帮助或阻碍职业发展。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分