启用和应用“可靠的人工智能”负责

电子说

1.3w人已加入

描述

随着人工智能变得更加复杂,它将开始独立制定或协助人们做出对个人生活产生更大影响的决策。随着人们适应自动化决策在社会中发挥越来越大的作用,这也将引发道德层面的挑战。

人工智能的未来是广阔的--这就是为什么我们需要塑造其对人类和社会的影响。

人工智能(AI)为我们提供了巨大的机会,不仅可以提高效率并降低成本,还可以帮助我们重新思考业务并解决关键问题。然而,尽管人工智能拥有这些美好前景,但在各个经济体和社会中,人们都有着类似的焦虑。许多人认为先进技术会注定和不可避免地带来深刻变化。

随着人工智能变得更加复杂,它将开始独立制定或协助人们做出对个人生活产生更大影响的决策。随着人们适应自动化决策在社会中发挥越来越大的作用,这也将引发道德层面的挑战。

因此,商业领导者和决策者需要认真对待这些担忧,并对启用和应用“可靠的人工智能”负责。

其可以被描述为遵循以下原则:

• 问责制和透明度

• 安全防范机制

• 以人为本的设计 

问责制和透明度

如果人工智能用于评估新职位的应聘申请,那么如何确保申请人得到公平和公正的审核?应聘者如何确信人工智能不会因为训练方式而出现错误或内在偏见?

存在的风险是,自动化流程有可能通过我们不了解或无法解释的过程来“学习”,从而学到会导致我们可能不想看到的结果的模式。算法可能会延续我们社会中现有的偏见和歧视,从而增加我们对实施人工智能的缺乏信任。

例如,弗吉尼亚大学的研究人员利用广泛使用的照片数据集对一个人工智能程序进行训练,后来发现该系统放大了传统的性别偏见。在后来的训练中,它甚至将站在火炉旁边的男人归类为女人,这是人类不可能犯得错误。

领导者需要透露机器决策的机制。他们使用的人工智能必须产生可解释的结果,促进算法问责制并消除偏见。这意味着领导者需要找到一些方法,例如对算法进行审核,并对所处理数据进行评估,以便发现偏见。当系统出错时,必须清楚责任所在。 

安全防范机制

建立消费者对人工智能和自动化系统的信任需要有安全防范机制。确定财务责任是做到这一点的一种方式,但确保物理安全防范机制是关键。

作为一个例子,最深入的讨论是围绕自动驾驶汽车展开的。德国在2017年通过了一项新法律,该法律规定司机或车辆制造商之间的赔偿责任分担取决于司机或自动驾驶车辆是否处于控制状态。在这种做法的背后,汽车制造商已经表示,如果发生事故时,他们的“交通阻塞导航”功能正在使用中,则他们将承担责任。

这里新增的内容是考虑到汽车制造商对其提供服务所承担的责任,这是基于传统保险架构制定出的。通过澄清和说明,让人们对责任有更普遍的理解,组织机构可以帮助解决一些问题。然而,除了建立财务责任之外,安全组织需要处理的一些合理要求还包括确保将设计的安全性应用于自动驾驶系统中。

这包括确保人工智能被训练成可以“举手示意”,要求有智慧和经验的人类提供帮助,以在临界情况下作出最终决定,而不是在只有51%把握的情况下继续进行操作。 

以人为本的设计

人工智能应该能够增强人们的判断力,帮助人们识别和解决偏见,而不是无形地改变其行为以反映出所期望的结果。这就超出了消除人工智能自主决策产生的偏见的范畴。

领导者也应该认识到人类和人工智能具有互补技能的能力。以人为本的人工智能会利用人类擅长的批判性思维技能,并将其与人工智能的大量计算技能相结合。

例如,一个哈佛大学的病理学家团队开发了一个基于人工智能的技术,可以更准确地识别乳腺癌细胞。病理学家以96%的识别准确率击败了只有92%识别准确率的这些设备。但是当人类和人工智能联合起来时,我们看到了最大的惊喜。他们联合起来后,可准确地识别99.5%的癌症活检标本。

在许多情况下,人工智能更善于做出决策—但这并不一定意味着它会做出更好的决策。领导者需要确保其组织的价值观应融入到他们的人工智能中。部署人工智能而不依赖可靠的合规性和核心价值,这可能会使企业面临重大风险,包括就业/人力资源、数据隐私、健康和安全问题。在某些情况下,人工智能甚至以聊天机器人、数字客服代理的形式出现,成为组织的主要代言人。人工智能的这种面向公众的角色意味着客户必须看到公司的价值观。

最近,我在Fjord公司的同事宣称,他们目睹了道德经济的兴起,这意味着组织无论是否有价值观并为之辩护,在商业上这些内容从未像今天这样至关重要--而且人工智能需要反映这些价值观。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分