AI系统能够透明且易于理解吗?是否存在一定的技术透明度

电子说

1.2w人已加入

描述

大约从五年前开始,每个人都在谈论物联网(IoT)以及它将如何经由数亿台装置互连来改变一切。我们似乎周而复始地经历一项新技术被大肆宣传的循环,如今轮到人工智能(AI)了。

在我大约33年来的电子产业与半导体职业生涯中,我看到了技术革命的三大变化。首先是微处理器时代,然后是互联网,接着是行动时代。而今,就像新思科技(Synopsys)共同首席执行官Aart de Geus最近所说的:“现在是AI时代!”他并在日前的一场活动中提到,AI将推动半导体产业在未来几十年的发展,因为大数据(big data)需要机器学习,而机器学习需要更多运算,这些都将产生更多的数据。

的确,AI如今正处于市调公司Gartner所谓“炒作期”(hype cycle)的上升阶段,但它似乎又不同于之前引进新技术的情况:我从未见过一项技术引发这么多关于伦理道德的争辩。AI将会改变许多事情,自动驾驶车、军用和工业无人机、机器人,以及在医疗、政府和城市功能等领域的其他许多应用都可能受到影响。

2017年版Gartner新技术成熟度曲线

英国政府日前发布了一份长达183页的《英国AI发展现况调查》(AI in the UK: ready, willing and able?)报告,涵盖许多有关AI系统的责任、监管与伦理道德等议题,以及在AI研究与商业化应用方面的创新、投资与技巧等其他主题。

英国上议院特别委员会主席Lord Clement-Jones说:“英国有着领先的AI公司、充满活力的学术研究文化、活跃的创业生态系统,以及大量的法律、道德、金融和语言优势。我们应该充份利用这样的环境优势,但关键在于必须以道德准则作为发展AI的关注重点。”

Jones说:“AI并非没有风险,委员会提出的道德原则将有助于减轻这些风险。道德方法确保大众相信这项技术并且看到使用它的好处,同时也使其准备好质疑技术是否遭到滥用。我们要确保这个国家仍然是研究和开发这项新技术的前哨站。不过,新创公司可能很难自行扩大规模。”

在该委员会的报告中,许多建议均指出AI需要透明化。当AI被用来做出重大或敏感的决策时,应该建立一个自发性机制来告知消费者。该报告并指出,当AI系统故障或对用户造成伤害时,现行法律是否足以明确相关责任,目前并不清楚,因此,该领域亟需尽快明确责任归属。

让AI透明化

AI系统能够透明且易于理解吗?是否存在一定的技术透明度,让人们能针对系统为什么作出某一项特定决定提出质疑?

业界对此以及AI系统的问责制都有详细讨论。在许多深度学习系统中,透过许多不同的处理层馈送信息并得出最终解答或决定,可能会让系统看起来像“黑盒子”,即使是其开发人员也不一定都能够确定哪些因素导致系统决定其中一项比另一项更重要。

辉达(Nvidia)欧洲、中东、非洲(EMEA)解决方案架构和工程团队总监Timothy Lanfear提出了另一种看法。他说,机器学习算法通常比传统的软件编码更短、更简单,因此在某些方面也更容易理解与侦测。“我们每天都在使用那些复杂到无法吸收的系统。AI并没什么不同。它也处于一种无法完全理解的复杂程度。然而,你唯一能做的是把它分解成片段,找到测试它的方法,然后检查它是否按你期望的方式进行,如果不是的话,就采取行动。”

该委员会坦承,要达到技术上的完全透明化相当困难,对于某些AI系统来说甚至是不可能的,特别是在某些情况下甚至并不适用。然而,在一些安全关键的场景中,技术必须是透明的。在这些领域的监管机构必须有权强制使用更透明的AI技术。

英国AI委员会在其报告中还提到,“我们认为部署任何可能对个人生活造成潜在影响的AI系统都是不被接受的,除非它能对自己所做的决定提出充份且令人满意的解释。例如对于像深度神经网络(DNN)等无法为其决定产生完全解释的情况,可能意味着必须延迟某些特定用途的部署,直到找到替代解决方案。”

致力于开发全堆栈自动驾驶车功能的英国自驾车新创公司FiveAI首席执行官Stan Boland并不认同该报告中提出AI系统存在的黑盒子现象。他说:“我们的系统是完全模块化的,这对于解释和除错系统以提升技术和服务来说非常关键。任何系统在实际上路之前都必须经过多次独立验证。”

他补充说,全世界采用自动驾驶的方各不相同,“例如,在英国伦敦(London)和美国山景城(Mountain View)就有不同的运作方式。每个城市由于生活方式和环境条件不同,自动驾驶系统的模式也各异其趣。对我们来说,重点在于打造出符合欧洲客户需求的解决方案。”

各国加码投资AI

英国政府的这份报告也为全球的AI研发提供另一个视角。根据高盛(Goldman Sachs)的数据显示,在2012年第1季到2016年第2季之间,美国对于AI的投资达到了182亿美元,中国大陆和英国分别是26亿美元和8.5亿美元。随着中国大陆致力于成为AI的全球领导者,预计到2030年,在其发展AI生态系统方面的投资将上看1,500亿美元。

有鉴于现有资源的差异性,英国在AI领域的投入规模可能比不上中、美。德国和加拿大则有更多的比较性。德国的AI策略受其打造旗舰级工业4.0策略影响颇深。其策略探索以AI提升智能制造的过程,并产出整合AI功能的智能商品,例如冰箱和汽车。而加拿大的AI策略则较不专注于为特定领域开发AI,但该国政府已经拿出1.25亿美元成立了三座新的AI研究所,并吸引更多来自全球的AI研究人员。

处理器瓶颈?

过去十年来,尽管深度学习在AI的进展中扮演了重要角色,但它也存在一些问题。深度学习需要大量的数据集,这极难取得且费用昂贵,而且还需要大量的处理能力。该报告中提到,尽管深度学习近来随着处理能力提高而明显进步,但摩尔定律(Moore’s law)开始面临挑战,处理能力提高带动降价的脚步开始放缓。诸如量子运算等创新也还无法使其复苏或加速,不过现在还为时尚早,未来还有很多的不确定性。

深度学习先驱Geoff Hinton提出了深度学习革命可能很快结束的警告。其他人的看法则较乐观,特别是由于各种客制AI芯片的出现,如Google的张量处理器(TPU),以及量子运算的进展,都为深度学习的未来提供了新的发展动能。

犯罪滥用与监管

该报告并深入探索犯罪滥用、监管和创新等领域。在“对抗式AI”(adversarial AI)领域,研究人员有效掌握AI系统如何运作,并试图瞒过其他AI系统做出错误的分类或决定。特别是影像识别系统经证实极易于受到这一类型的攻击。例如,研究人员可以巧妙地稍加改变图片或甚至是3D模型或标志,使其看起来与原始影像毫无区别,但仍瞒过AI系统将它们识别为完全不同的对象。

其他例子还包括利用虚假影像让车子发生碰撞、突然停止,或触发自动武器发射等。当然,这些情况也可能发生在非机器学习的系统(人类决策者亦然),不过,使用非机器学习方法可以对所涉及的推论进行询问、恢复和除错,而许多机器学习系统则无法做到这些。

在监管方面,该报告指出中国大陆“虽然在技术应用方面的法规不够完善,但却从另一方面推动了更快的实验和创新,包括对于数据的利用和AI技术等方面。”

公司和组织在违反规定时将面临的责任程度也包括在内。Nvidia的Lanfear说,虽然公司员工知道其道德原则以及如何遵守规定,但他坦承并不容易回答这个问题,因为“作为技术专家,这并不是我的核心思想。”对此,很多人都和Lanfear有同样的感受。因此,必须找到一些机制以确保目前的道德准则趋势不只是简单地转化为无意义的黑盒子作业。

如今,我们所拥有的AI技术可用于推动下一波基于高端AI处理器与芯片的运算进展。但是,尽管半导体和运算产业不断挑战极限,业界最终将会决定该技术在现实世界的应用有多大——我们总是在看到自动驾驶车发生伤亡事件后,才能听见社会的抗议声浪。而关于AI道德标准的讨论与争议,将有助于我们思考技术该如何安全且有效地部署,以及最终可被社会接受和采纳。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分