未来用机器人做面试官,可靠吗

工业控制

1221人已加入

描述

        又到一年求职季,江西某高校毕业生小鑫(化名)的求职经历却一波三折。4月,她参加了某银行的校园招聘,一路过五关斩六将,以在笔试和口试中的优异表现获得了招聘方认可,收到了录取通知。没想到,在最后环节的机器人性格测试中,她的测试结果是“情绪风险等级高”,被银行以不适合工作为由拒录。
 

  小鑫的遭遇备受关注,事件的另一主角——机器人面试官,也由此进入了人们的视线。机器人测试结果是否可靠?未来招聘中是否会大规模应用人工智能?

  “机器人面试官”大大增加录取几率

  假如你是求职大军中的一员,每天你都在重复一件事:向任何可能聘用你的公司投递简历。然而,这些信件都如石沉大海,你的焦虑感越来越强烈。终于有一天,你等来了企业打来的初试电话。欣喜若狂地接通电话后,你听到了一个甜美的女声。这个声音用抑扬顿挫的语调向你抛出了一连串问题:

  “你工作多久了?”“你对公司待遇是否满意?”“能接受上夜班吗?”“什么时候可以开始工作?”……

  挂断电话的那一刻,你或许还没有意识到,跟你进行这场对话的并非人类,而是机器人。

  这个看似科幻电影中才会出现的场景,眼下正在成为现实。据美国《福布斯》杂志报道,“第一工作”是一家从事青年人才招聘的人力资源公司,该公司正在开发名为“玛雅”的人工智能(AI)系统,协助企业在如雪片般飞来的简历中快速筛选出合适的求职者。在逐步胜任服务员、司机、翻译等工作后,AI开始向人力资源领域渗透。

  “创造‘玛雅’是出于我个人惨痛的求职经历。”“第一工作”创始人埃亚尔·格拉耶夫斯基告诉《福布斯》,大学毕业那年,他申请过40多个职位,但只有两个公司回复了他,绝大部分申请如同掉进“黑洞”,有去无回。有数据显示,85%的求职者得不到用人单位回复,而71%的招聘者抱怨招不到合适的人。

  AI招聘系统的出现将从根本上同时改变求职者和招聘者面临的困境。据美国有线电视新闻网(CNN)介绍,“玛雅”以云数据为基础,具有自我学习能力。如果申请人条件适合,“玛雅”会很快安排面试,如果不适合,“玛雅”会向申请人推荐其他工作。

  《福布斯》指出,如今人事部门收到的求职简历数量是过去的好几倍。一方面,人们不再把稳定作为职业生涯的首要目标;另一方面,互联网的出现使求职变得更为便捷,鼠标轻轻一点,求职材料就同时发送到多个邮箱里。

  这种“普遍撒网,重点收获”的求职方式也带来了弊端。“面对数量庞大的邮件,人力专员很难妥善对待每个求职申请,这就是AI介入的原因。”格拉耶夫斯基说,“接受机器人面试,听起来有点儿丢人,不过怎么也比压根儿没人搭理你强。”研究表明,采用“玛雅”系统的公司招聘效率提升了38%,申请人被录用的概率增加了1.5倍,而得到回复的几率是过去的3倍。

  越来越多的公司开始用AI处理基本的人力工作。号称有5亿份简历的职场社交网站“领英”正在开发能与人对话的智能系统,向求职者提出诸如“你想在哪里工作”之类的简单问题。“这些步骤并不是人力资源的工作重心,因此我们想把它们从人力工作中分离出来,从而提高效率。”招聘软件主管约翰·泽辛告诉美国“HRdrive”网站。

  人类思维定势“传染”人工智能

  除了与求职者进行对话,AI还能根据招聘者的偏好制定搜索方案,以便筛选出最适合的人选。脸书、通用、希尔顿等公司正谨慎地把AI系统应用到招聘中。AI在人力资源领域的应用越来越广,质疑声却始终不绝于耳。

  对AI面试官最大的非议,是缺乏人情味。英国《金融时报》指出,即便是最前卫的人力专员也不得不承认,没有哪个职场精英愿意让机器人对自己评头论足。对资深人力专员来说,人脉资源是他们最宝贵的财富之一,就这点而言,再智能的机器人短时间内也代替不了人类。

  人类的抽象思维是AI的另一短板。“如果让你形容你的公司文化,你可能想到诸如‘灵活’‘朝气蓬勃’‘有人情味’之类的词语,”“每日招聘”网站指出,“然而,要把这些抽象、主观的概念归纳为系统化、标准化的数据,转换为机器人能理解的语言,并从成千上万份简历中准确挑选出符合公司文化的求职者,做起来可比说起来困难多了。”

  支持AI的人声称,与人类面试官相比,机器人面试官不会用有色眼镜看人,不会因种族、性别、年龄等条件产生预设偏见。通过代码修正这些偏见,比从人类潜意识中消除这些偏见容易得多。因此,机器人比人类更公正。

  事实果真如此吗?科技网站“Unleash”指出,人们可以在代码中排除性别、种族等因素,但要让AI彻底消除歧视绝非易事。以谷歌翻译为例,在土耳其语中,人称代词没有性别之分,“他”“她”“它”统统以“O”指代。把土耳其语译为英语时,如果“O”是医生,谷歌翻译为“他是一名医生”;如果“O”是护士,翻译的结果则是“她是一名护士”。

  你看,偏见无处不在,人工智能也无法独善其身。当不得不作出判断时,谷歌翻译软件便暴露了深藏的性别偏见:医生、企业家是男性,护士、教师是女性。

  实际上,谷歌工程师并没有把偏见写入代码,形成偏见的,是在翻译软件中使用的AI本身。通过模拟真实语境和人们使用语言的方式,人们把思维定势“传染”给了人工智能。“具有学习能力的人工智能也会产生偏见,和真实世界一样。”微软公司研究员里奇·卡鲁亚纳告诉“Unleash”。

  美国吉利德科学公司招聘电脑工程师的失败案例似乎印证了这一说法。筛选简历时,该公司设置了“喜欢漫画”这一条件,他们认为具有该特质的人更有可能是一名出色的“极客”。“然而,‘漫画爱好者’与‘优秀工程师’之间没有必然联系。”数据分析师凯茜·奥尼尔告诉“Unleash”,“实际上,这种预设跟性别和种族的关联更大。他们就没想过,喜欢漫画的更可能是亚裔男性吗?”

  更糟糕的是,AI通常在“黑匣子”里进行运算,要搞清它的逻辑是不可能的。“一旦AI出现偏差,找出错误根源极为困难。”奥尼尔说。

  不过,要消除人工智能的漏洞并非无计可施。“口袋招聘”公司人力专员瓦西施塔认为,人类应该把最终决定权掌握在自己手中,并将结果反馈给AI,不断完善其运算方式。

  “机器人面试官带来的最大挑战”

  《金融时报》预测,当AI的应用范围由体力劳动转向脑力劳动时,人力资源是首当其冲受到影响的职业之一。未来人力资源领域的岗位会越来越少,但这一工种不会彻底消失。人力资源工作始终需要人来完成,不同的是,未来人力资源工作的重心和职业技能将发生改变。

  “人工智能擅长某些特定的工作,比如识别数据类型等”,英国桑德兰大学应用科学系主任约翰·麦金泰尔告诉英国招聘网站“Personnel Today”,“然而,它无法像人类一样对数据进行诠释和类比,并据此作出最终决定。”

  因此,那些运算法则不能处理的任务仍将由人类完成。“解读求职者的肢体语言,判断求职者是否胜任工作或符合公司文化,这些事情是电脑做不到的。”一家初创招聘企业的首席执行官史蒂夫·古德曼告诉《金融时报》,“不过,如果你是一名初级人力专员,每天的工作只是上网搜搜简历,并进行简单的分类归档,那么,你的饭碗很可能被人工智能抢走。”

  对未来的人力专员而言,推销将是他们有别于人工智能的重要能力。“每日招聘”网站指出,无论在招聘中使用了多么先进的高科技,把优秀人才纳入麾下都是招聘的最终目的,而这需要人力专员亲自出马。迄今为止,没有任何人工智能可以与人类进行随机应变的对话,并在对话中培养信任关系,推销公司文化。人类复杂的情感和行为是机器无法模拟的。

  “当日常事务被AI接手后,人力专员应该把重点转移到具有高附加值的工作上,比如为求职者提供职业咨询,推广公司文化等。”一家高端猎头公司总裁纪尧姆·尚帕涅告诉《金融时报》,“因此,未来的人力专员需要更高的情商。”

  不过,正如CNN所言,“招聘是一门不精确的科学”。无论人力专员多么精明,AI多么先进,谁也无法保证不会让任何一个优秀人才从指缝间溜走。“机器人面试官带来的最大挑战并不在于改变人力资源领域,而在于人类以何种姿态和方式迎接这种改变”。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分