如何实现可解释的人工智能?

电子说

1.3w人已加入

描述

对于人工智能而言,偏见仍然是一个问题。

人工智能正日益影响人们的日常生活,从加速寻找冠状病毒疫苗到预测检查结果。然而,人们越来越担心组织和政府如何确保他们负责任地使用它,因此,调研机构Gartner公司今年将“负责任的人工智能”作为新兴技术炒作周期中的一个新类别也就不足为奇了。该组织将其定义为“通过人工智能提高商业和社会价值、降低风险、增加信任和透明度以及减少偏差缓解”。Gartner公司认为,最紧迫的用例之一是在全球范围内识别并停止生产深度伪造(deepfake)。

负责任的人工智能虽然是一个有价值的概念,但不足以将人工智能从潜在的偏见和歧视中解救出来。最近,人们对它的使用提出了质疑,从亚马逊发现它用于招聘员工的算法对女性有偏见。

一旦人们对一项技术失去了信任,就很难再获得回报。因此,开发和使用人工智能的组织要想提高人工智能应用程序的可信度和透明度,就必须超越负责任的人工智能。解决方案是实现可解释人工智能(XAI),即以普通人能够理解的方式描述人工智能解决方案的目的、原理和决策过程。

可解释人工智能(XAI)将使部署解决方案的组织可以放心地以自己熟悉的方式进行决策。例如,在企业依赖特定个人的详细知识的情况下,例如在客户入职或金融部门的了解其客户(KYC)检查期间,至关重要的是,它可以快速轻松地证明每个决定的合理性,以避免任何偏见指控。

可解释人工智能(XAI)还将确保那些受其决定影响的人可以更有信心地对他们进行公正的对待,而不受“变异算法”的描述。在公众参与的领域,决策过程完全透明至关重要。感知到的偏见可能会导致人工智能在某个特定的应用中被完全禁止,例如最近的一项裁决,即南威尔士州警察使用自动面部识别技术是非法的。

从自愿采用可解释人工智能(XAI)到法规

目前,可解释人工智能(XAI)是可选的,尽管一些企业已经朝着这个方向迈出了一步。例如,今年亚马逊公司宣布警方停止使用其面部识别产品一年,而IBM公司出于对人权影响的担忧,决定完全放弃面部识别研究。

但是,监管只能是时间问题。2020年7月,ICO发布了指南,以帮助组织向受其影响的人们解释由人工智能提供或协助的过程、服务和决策。该指南基于与艾伦•图灵研究所联合进行的公众和行业参与研究。

根据英国发布《2018年数据保护法》,这不是法定的行为准则,而是有关最佳实践的建议。但是预计组织很快将必须使人工智能系统从启动就变得透明,这表明其算法以与数据保护法规兼容的方式处理数据。

犯错是人之常情——谨防绝对正确的算法

组织可以使用许多技术来开发可解释人工智能(XAI)。除了不断地向系统学习新事物外,他们还需要确保它正在学习正确的信息,而不是使用一个错误或一条有偏见的信息作为未来所有分析的基础。多语言语义搜索非常重要,尤其是对于非结构化信息。它们可以过滤掉白噪音,并将多次看到相同风险或机遇的风险降至最低。

组织还应该在其AI中添加人为元素,尤其是在建立监视列表时。如果系统自动标记犯罪定罪但不对其进行严重程度评分,则超速驾驶的人可能会被判处长期监禁。对于可解释人工智能(XAI),系统应始终偏向正面。如果出现危险信号,则人工智能系统不应给出一个统一的“否”,而应发出警报以供人工检查。

最后,即使是最好的人工智能系统也会产生一些错误。其性能应该是80%的正确率,否则就不可能相信系统运行正常。可以解决错误,并不断调整性能,但是永远不会完美。

人工智能显然是未来的方式,因为它可以比人类更快地分析大量数据,并在广泛的应用中提供帮助。确保开发可解释人工智能(XAI)将建立依赖其决策的人们的信心,并帮助其在新领域中得到认可。
       责任编辑:tzh

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分