人工智能
人工智能未来会辅助人类还是替代人类?这是个问题。
每一次工业革命都会引发效率革命,淘汰掉大批低效率的从业者。而这一次人工智能革命将对所有行业的效率带来提升,这更加重了人类的焦虑。
诚然,人类对人工智能产生了很多担忧,认为它们削弱了“生而为人”的意义。但其实,如果做得好,机器可以帮助我们学习如何成为更好的人。
尽管现在有许多工作都非常适合由人工智能应用来做,但很显然,处理人类情感可能和其中任何一种都不同。人工智能技术在人类情感领域工作中的应用,呈现出人工智能在辅助人类沟通上所发挥的巨大作用。
“害羞”这个问题,交给AI解决
保守估计,有75%左右的发生在工作场所的骚扰或歧视事件未被报道——做出这项估计的研究人员发现,人们处理骚扰经历时最不经常使用的方式就是报案。造成这种情况的原因五花八门,包括对评价或报复的恐惧,以及回忆情绪激动所带来的痛苦和困扰。“人类很害羞,他们不一定必须与人交谈,所以科技可以帮助解决这个问题。”伦敦记忆科学家、《记忆错觉》的作者朱莉亚·肖说。
2018年2月,肖和她的两位软件工程师合作伙伴共同推出了Spot,这是一个基于互联网的聊天机器人,它通过使用人工智能来协助人们倾诉那些令他们痛苦的事情。该应用程序的设计是基于心理学家开发的一种采访技术,并由警察局使用以确保记录的叙述尽可能全面和准确,它还为报告事件的人提供了匿名选项。
Spot聊天机器人从用户的初始描述中学习,同时,它也会从对某些特定问题的询问中捕捉用户的反应。在用户和机器人共同协作下,生成带有时间标记的相关事件报告,然后用户可以选择将报告发送给他所属的机构或自行保留。截至目前,已有超过50000人访问了Spot(该网站没有记录哪些人继续进行报告)。网站全天24小时开放,因此用户无需再与人力资源部预约。
“在这些情况下,证据确实很重要,精确度也很重要,”肖说,“Spot有用的原因是它消除了人类交互时的隔膜。人与人之间的交互不仅存在风险,而且还会在‘存储’时导致不一致的问题。”
与人类共情,人工智能有一套
Spot只是机器学习类辅助APP新兴市场中的一种工具,它正在努力应对人类情感的巨大主宰力。美国国家经济研究所的报告表明,涉及机器学习的美国专利申请数量从2010年的145个增加到2016年的594个,到2018年底,活跃的人工智能类创业公司数量已经是2000年的14倍。其中,越来越多的公司在专门围绕人类情感设计人工智能应用。Spot的发明和使用旨在帮助终止工作场所的歧视现象,但据肖说,它也是“口袋里的记忆科学家”,能够改善我们人类的一个显著弱点:情绪记忆回溯。
使用机器学习和人工智能来理解和应对人类情感似乎颇具讽刺意味,甚至可能是错误的行为,但机器可以在某些特定领域中做到“清晰地”思考,而这对人类来说是很困难的。
例如,消息传递应用Ixy,是一款“个人AI调解器”,它有助于促进文本聊天。它可以预览文本,然后告诉用户如何与别人接触,旨在消除人与人沟通中存在的焦虑问题。总部位于以色列的Beyond Verbal也已经发布其“情感分析”软件,这种专利技术致力于通过人的声音来解读其情绪和健康状况,被用于帮助呼叫中心调整员工与客户之间的沟通,同时能够帮助公司监控员工的士气,还可以使AI虚拟助手更好地了解用户的情绪状态。
Beyond Verbal首席科学官约拉姆·莱文农(Yoram Levanon)是该技术的发明者,他设想的应用更加雄心勃勃,包括通过分析人声这种生物特征来监控人们的身体和情绪状态。这款APP能够识别出我们的说话方式,这或许比我们说的内容更加重要。
莱文农说:“AI可以帮助我们,但是不能取代我们。我认为AI是对人类起补充辅助的作用。让AI产生共情,并让其能够理解人类的情感,对于辅助人类来说是至关重要的。”
一些机构已经开始使用类似的人工智能,例如澳大利亚Sherlok公司开发的音频深度学习技术,布里斯班市议会使用该技术扫描电子邮件、信件、论坛讨论和语音电话,来揭示呼叫者的“痛点”并提高其员工的技能。另一个以情绪为导向的人工智能技术的最佳实践是被应用于销售管理,有案例显示,一家行业领先的公司用它来检测高级管理层对季度分析师所呼吁内容的应对情绪差异,可以获得更好的绩效洞察力。
谁在背后主宰人工智能?
在这一点上,你可能会开始听到“反乌托邦”的警钟。人们担心人工智能将被有效地用来判断我们的个性而非我们的表现,并且这种判断不一定正确。人工智能存在的各种偏见问题,很大程度上是因为构建它的人怀有偏见。开发人员中有一种说法——“垃圾输入,垃圾输出”,这意味着该技术可能只与其数据库和算法一样好或一样公平,而非更好或更公平。
人工智能问题上一个更引人注目的例子就是微软的Tay,这款“社交聊天机器人”在2016年3月推出后的24小时内被迫关闭。Tay被设计为在社交媒体上与真人交谈,并根据之前的互动回复个性化的内容。但是没有人真正把它看作可靠的聊天对象,当对方聊到种族主义、歧视女性和同性恋、以及其他极端无礼的内容等,聊天机器人自己很快就开始回复出难听的评论。
Tay的变化不是一个异常情况。如果AI技术没有得到负责任的利用,就有可能导致结果恶化、偏见增加、歧视变强,这对该项技术来说是一把双刃剑。
不负责任的AI技术可能导致破坏性的后果。例如,2016年5月,调查性新闻机构ProPublica发现美国法院系统中用于确定被告是否可能构成风险的算法,错误地将黑人标记为潜在的再审者,其比例是白人的两倍。在这种情况下,人工智能并不是我们本性中更善良的天使,而是镜中的魔鬼。
这个问题的核心在于算法工程师中男性白种人占据了压倒性优势。技术应该是在一种无偏见的真空中设计的,不应受到其他视角的影响。无意识的偏见滋生,可能会对诸如招聘软件之类的工具产生不良后果,事实上,我们已经发现这些工具致使某些求职者处于不利地位。还有另一个问题就是这是我们想要的结果吗?今年年初,亚马逊获得两项追踪手环的专利,这种智能手环可以监控员工行踪,由此引发了争议。
人工智能使我们成为更好的人?
麦卡高(McCargow)说:“我们还在大山的山麓位置,越来越多的企业正在开发和试用AI技术,但不一定将其大范围应用于企业中。我认为关键的是,它虽然可能还不会对劳动力产生重大影响,但为了未来,我们现在就要考虑清楚。”
这个未来已经到来。Spot应用程序为人们提供了一种记录和澄清其被骚扰报告的方法, Ixy可以提供移动聊天的实时反馈以帮助用户进行无障碍交流,Beyond Verbal希望帮助人们在对话的线路之间进行聆听,以便于更理解对方。越来越多的新技术涌现,这些只是其中的冰山一角,它们的目的就是帮助用户驾驭人类的情感漩涡。未来还会有更多人工智能应用程序出现,我们可以依靠它们。
历史上大多数技术——印刷机、纺织厂、电话等对工人的变革都是巨大且微妙的,塑造了一个变化却仍可辨认的景观。人工智能的所有变革意义都与其之前的技术变革相似。正如麦卡高所提出的,人们对侵蚀我们人性的机器产生了很多担忧,认为这些机器削弱了人类的意义。但事实并非如此。如果做得好的话,机器可以帮助我们学习如何成为更好的人。
全部0条评论
快来发表一下你的评论吧 !