科技巨头推新工具解释人工智能算法决策过程

电子说

1.3w人已加入

描述

人工智能技术的透明度和道德伦理问题正引发越来越多的关注,这促使云计算服务提供商推出新工具,解释人工智能算法背后的决策过程。

会计和金融等强监管行业的高管表示,数据科学家和非技术业务经理都必须能理解算法决策背后的流程。这至关重要。这样的理解在防范潜在道德违规和监管违规方面可能会带来深远影响,尤其考虑到企业级人工智能算法正变得越来越普遍。

毕马威创新和企业解决方案部门负责智能自动化、认知和人工智能的高管维诺德·斯瓦米纳桑(Vinodh Swaminathan)表示:“我认为,除非具备这种解释能力,否则人工智能在企业中的规模不可能超过数百个试点应用。”

对人工智能的解释问题已经促使IBM和谷歌等公司在云计算人工智能服务产品中引入透明度和道德伦理工具。

IBM商业价值研究所近期的一项研究调查了5000名企业高管。约60%的受访者表示,他们关心如何解释人工智能使用数据作出决策,以达到监管和合规标准。这个比例较2016年时的29%大幅上升。

甚至对数据科学家和相关企业高管来说,人工智能的决策过程有时都是“黑盒”。在深度学习工具,例如用于模式识别的神经网络中尤其如此。这样的神经网络试图模拟人脑的运转方式。

尽管这些系统可以以前所未有的准确率和速度得出结论,但外界并不总是非常清楚,计算网络是如何做出具体的决策。

毕马威内部的数据科学家正在开发自主的可解释性工具,此外该公司也在利用IBM新的透明度工具。斯瓦米纳桑表示,这样做的目的是确保技术和业务两方面的员工都能“打开黑盒”,准确地了解人工智能算法是如何做出结论的。

IBM上周发布了新的云计算人工智能工具,可以向用户展示哪些主要因素影响了人工智能做出的建议。这些工具还可以实时分析人工智能决策,以识别固有偏见,并推荐数据和方法来解决这些偏见。IBM负责认知解决方案的高级副总裁大卫·肯尼(David Kenny)表示,这些工具可以与IBM人工智能服务,以及谷歌等其他云计算服务提供商的工具配合使用。

谷歌研究科学家和软件工程师发布的博文则显示,谷歌去年开始为开源的机器学习代码发布新工具,“作为更广泛研究的一部分,满足对可解释性的政策目标”。谷歌本月早些时候发布的另一款人工智能工具允许非程序员检查和调试机器学习系统,以评估算法的公平性。

微软正通过Azure来提供人工智能服务。该公司发言人表示,人工智能系统的设计需要有公平、透明和安全的保护,从而确保信任。微软正在这方面做出持续的努力。亚马逊没有对此问题做出回应。

来自强监管金融行业的Capital One Financial Corp和美国银行正在研究,如何解释人工智能算法得出答案的背后原理。两家公司都表示,目标是利用人工智能来优化对欺诈的监测,但首先它们需要了解这些算法是如何工作的。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分