通用人工智能是什么_通用人工智能四大基本问题

电子说

1.3w人已加入

描述

  通用人工智能是什么

  AGI即Artificial general intelligence的简写 ,计算机科学与技术专业用语,专指通用人工智能。这一领域主要专注于研制像人一样思考、像人一样从事多种用途的机器。这一单词源于AI,但是由于主流AI研究逐渐走向某一领域的智能化(如机器视觉、语音输入等),因此为了与它们相区分,增加了general。

  尽管AI一词最初就是用于表达与人类智能相似的机器智能的含义,但在人工智能跌宕起伏的发展过程中,AI的内涵已经发生了变化,成为机器学习、统计分析的代名词,早已远离了一开始智能的初衷。在这种情况下,依旧坚守当年梦想的一小支学术分子共同成立了通用人工智能协会,并确定使用AGI词条作为领域正规称谓。

  通用人工智能四大基本问题

  像很多其它研究领域一样,人工智能的基本问题可以提炼成四个:“做什么?” “能做吗?” “怎么做?” “该做吗?” 下面是我对这些问题的简略分析。

  做什么?

  能做吗?

  怎么做?

  该做吗?

  1. 研究目标

  我在《当你谈论人工智能时,到底在谈论什么?》中已经列举了“人工智能”名下五类不同的研究目标,而目前流行的“人工智能就是用计算机解决那些以前只有人脑才能解决的问题”就是其中的“能力派”。这一派的优势是通俗易懂,直接见效,但缺点是圈画得太大,以至于以前叫“自动化”“计算机应用”的工作现在都赶时髦改叫“人工智能”了。由于这种界定使得AI涵盖了大量完全不同的系统,在此范围内建立一个统一的人工智能理论的可能性甚微。

  在《人工智能迷途:计算机的高技能等于高智能吗?》中,我介绍了“通用人工智能”的观念及其在历史中的浮沉。时至今日,这个词越来越多地出现在各种讨论中,但对其意义的理解仍有很多误区。比如一个常见的说法是把通用系统叫做“强人工智能”,而把专用系统叫做“弱人工智能”。这个区分不无道理(因为前者的目标远高于后者),但二者的区别其实不是能力的强弱(专用系统在能力上往往已经远胜于人),而是应用范围和工作原理,所以这种称呼会使人将二者间“质”的差别误判为“量”的差别,以为把各种专用系统整合在一起就是通用系统了。

  即便在当前的通用人工智能研究者之中,对研究目的的确切设定也各有不同。有些人企图尽可能忠实地模拟脑结构,有些人企图在尽可能多的领域中取代人,有些人(包括我)企图让计算机遵循和人基本相同的“思维规律”。

  有些读者可能会想,连基本概念和目标都没弄清还怎么研究,殊不知对很多复杂现象的准确刻画不可能发生在研究的开始,而会是研究结果的一部分,所以先“统一思想”是不现实的。

  另一方面,那种认为无需争辩“智能”定义,只需跟着直觉用法走就好的看法恰恰是目前这个领域中观念混乱的重要原因,也是不可取的。人工智能研究中的很多争论都可以回溯到对智能的不同理解,而这个问题又不能靠字典、权威或民意测验来解决。

  如果研究目标不一样,对其它相关问题的回答自然也就不会一样。在这一议题上尚无共识,恰恰更意味着我们应注意辨识不同的研究目标,而避免笼统地断言“人工智能”如何如何。

  2. 成功的可能性

  从“人工智能”“思维机器”等成为研究对象时起,这种努力的成功可能性就一直是有争议的。随着深度学习等技术的成功,目前流行话语中的人工智能(在某个具体问题的解决能力上达到或超过人类)的可能性不再是问题,但通用人工智能的可能性仍是受到广泛怀疑的。

  对这个问题的肯定性论证即使在学术界认为大功告成之后的很长时间内仍不会被公众普遍接受,比如有人会坚持说它没有“灵魂”,不管它做到了什么。因此,我下面只简单说明为什么现有的否定性论证都是不能成立的。这里有几种不同的情况。

  一类“人工智能不可能”的断言是出于对这个领域的研究目标的误解,因而是在攻击一个稻草人。持这种态度的人往往以为这个领域的目标是制造在所有方面都和人一摸一样的计算机。找些证据说明这不可能并不难,但问题是,我还不知道任何研究者真是冲着那个目标去的。

  实际上,所有研究人工智能(包括通用人工智能)的人都只是认为计算机可以在某些方面和某种程度上和人脑相类似。很多研究者认为在“人类智能”的诸多现象之中存在一个更一般的“智能”机制,而“人工智能”是这个机制的另一种实现方式。按照这种观点,即使人工智能完全实现,也不会和人类智能在外部表现上完全相同。因此,这种“人工智能不可能”的论断不会对这个领域中的研究有任何影响。

  相比之下,另一类“人工智能不可能”的论证是值得重视的,因为它们是直指人工智能技术的某些“死穴”。比较常见的包括“计算机必须遵循程序,因此不可能有灵活性和创造性”“计算机只能根据形式来使用符号,但无法获得其意义”“有些真理人能发现,但计算机永远不能”。

  在这里,我不具体讨论它们,只是指出它们的一个共同问题:其实这里每个论证都是针对一个具体的智能技术或计算机用法,但结论却往往是“人工智能”如何如何、“计算机”怎样怎样,其结果是夸大了其结论的适用范围。这些讨论对人工智能的发展是有益的,因为它们从反面为新理论、新技术的研发提供了借鉴。遗憾的是,至今仍有不少人以为它们限定了所有人工智能研究所能达到的高度。

  具有讽刺意味的是,在近期对人工智能的限度的讨论中,很多形如“人工智能永远也无法……”的断言反而是出自“人工智能专家”之口。这其实也源于主流人工智能在历经挫败后对“大问题”的回避。

  很多人研究多年“人工智能”,但只是注重于对某个别功能的实现和某个别问题的解决,因此在他们说“没人知道如何实现通用智能”时,他们实际上说的是“我不知道怎么做,而且我所追随的那些名人也不知道怎么做。其它人的工作不值得注意,因为反正他们也还没做出来呢”。

  由于有理由认为通用智能系统和专用系统是非常不同的领域,在后者的研究中成名的人物对前者发言时权威性其实是很有限的,而且“现在还没做出来”和“永远也不能做出来”显然不是一回事。

  总之,通用人工智能目前起码应被看作是可能的,因为没有足够强的反面理由。

  3. 实现途径

  由于专用系统的实现途径因问题而异,在这里我只讨论通用人工智能,而且只集中分析几种常见的观点,而把对我自己的研究进路的介绍留给其它文章。

  在相信通用人工智能可能实现的人们当中,目前最被看好的技术自然非深度学习莫属。每当深度学习的一个新用途出现,总会有人说 “这标志着又向通用人工智能前进了一步”,似乎在这个方向上走下去就是了。在《深度神经网络会产生人这样的智能吗?》中,我已经说明了通过深度学习以及相关的机器学习技术实现通用智能的困难。

  这里要补充的一点是:有人认为深度学习已经是“通用”的了,因为这个技术可以被应用于很多不同的领域,但这不是“通用人工智能”的意思。深度神经网络的确既能被训练下围棋,也能识别照片,但同一个网络不能同时做这两件事。由于以往的机器学习研究基本上都是以“逼近单一函数”为指向的,把它们推广到多目标(尤其是设计时没有考虑过的目标)绝不是个容易的事,因为它要求整个研究规范的根本改变。

  时至今日,尚没有一个用深度学习实现通用人工智能的完整路线图,而相信这个可能性的人往往是从已有的成果做简单外推。

  另一个想法是整合各种专用“模块”于一个“构架”之中,以让它们分工协作,成为一个通用系统。这是个很自然的想法,也有不少人在试。但是这条路远不如看上去那么理所当然。随便找一本人工智能教科书,其中提到的算法或设计就得有几百个,各有不同的用途。

  把它们都实现在同一个计算机系统中在原则上是可能的,但决定在什么时候用哪个工具,这本身大概就需要通用智能了,更不要说这些工具各自的理论预设往往是互相冲突的,因此无法互相协调。另一个大问题是诸认知功能的划分大致上是沿用心理学的传统(如推理、学习、记忆、联想、感知、运动、语言、情绪、意识等等),尽管它们之间的联系显然非常密切。

  如果智能的确是“横看成岭侧成峰”,那么从不同角度和距离描绘不同的“岭”和“峰”自然可以,但如果目的是给庐山造个模型,那么分别构造这些“岭”和“峰”,然后再把它们“组装”起来,这就不对了,因为这些“构件”更应被看作同一个对象的不同侧面,而非不同部分。

  有人试图通过构造更“忠实于人脑”的模型来达到各认知功能的统一再现。像我在《深度神经网络会产生人这样的智能吗?》中所说的,这条途径的最大问题不是其难度,而是其必要性。如果我们把智能看成一种有不同实现方式的认知机制,那就没有理由认为人脑是唯一能实现它的方式,尽管它的确是我们最熟悉的方式。和人脑在实现细节上最接近的模型未必是人工智能最合适的模型,尽管这种模型对脑科学而言很有价值。

  总之,在实现其它目的时有效的技术未必对通用人工智能有很大贡献,因为这里的目标和制约条件非常不一样。在选择技术路线时应当从智能的特征出发,同时考虑计算机系统的现实条件。

  4. 伦理抉择

  最后,即使我们发现了建造思维机器的途径,那也不一定意味着我们真要把它做出来。已经有很多名人大声疾呼地要求人工智能慢下来甚至停下来了,因为他们害怕人类失去“万物之灵”的地位及其后果。关于这种诘难,我已经写了《人工智能危险吗?》来回应,而这里只是再加些补充。

  首先,很多“人工智能专家”对AI安全性所做的保证,往往只涉及他们所构建或能够设想的系统,其中完全没有适应性、灵活性、自主性、创造性等通用人工智能系统才可能具有的特征,因此说的基本就是另外一个问题。由于这些特征,通用人工智能带来的伦理道德问题和传统技术有根本的不同,因此要求不同的应对方案。

  作为适应性系统,通用人工智能最大的特点之一就是其行为不仅仅取决于设计(先天因素),而更加依赖于经验(后天因素),因此对这种系统的控制需要通过影响它的经验来实现,就像社会对个人的制约那样。因此,不能指望人工智能工作者可以设计出永不犯错的系统,也不能奢望对人工智能安全性的研究可以预先排除掉所有危险。

  而在另一方面,在这种系统上进行的研究可以极大丰富我们对适应性系统(包括人和动物)的认识,将教育学和社会学(甚至经济学和法学)的研究范围扩展至包括智能机器在内。

  和其它问题一样,对人工智能的恐惧常常来自对其研究目标的误解。很多人以为“通用人工智能”会是在一切领域超过人类,以至于近乎全知全能的存在,所以这种系统的出现会在人类历史上造成一个“奇点”,此后的发展便不在我们的掌控甚至理解范围之内了。

  至今为止,我还没有看到足以使我相信这一结论的证据。我认为通用人工智能完全可以造出来,而这种系统会有和人非常类似的认知功能。但是,这不意味着计算机可以全面达到以至超越人的解决问题能力,因为适应系统的行为依赖于其经验,而一个人工智能系统是不会拥有和人完全相同的经验的。因此,人和机器的具体能力会有重合,但仍会有人能解决但机器不能解决的问题。

  像我之前所解释的,通用的“智能”和专用的“技能”不是一回事。不同形式的智能,不论是人类还是人造的,在前一方面都类似,而在后一方面未必可比,就像没法说诸葛亮、达芬奇、莫扎特谁更聪明。这也说明通用人工智能的工作原理仍是我们可以理解的,其行为也是可以通过对其经验加以影响来控制的,尽管它的运算速度可能很快,存储量可能很大,经验可能和我们非常不同,因此它的具体行为可能不是那么容易解释或预测。

  总之,人工智能研究的正当性既来自人类认识思维一般规律的长期渴望,也来自社会发展对复杂信息加工的实际需求。这项研究同时也带来了新的挑战,对此我们绝不能掉以轻心,但也不该盲目恐惧。要避免AI造成的危险,起码要把AI是怎么回事搞对吧?

  那些“AI必然导致灾难”的断言在这一方面往往都不及格,其结果是和风车作战,反而对可能性大很多的危险毫无提防。除非我们有足够的证据认为某项技术(包括各种意义下的人工智能)的确会是弊大于利,我们还是有充分理由来继续这项探索,同时拒绝廉价的保票,准备好对该技术的各种后果进行尽可能恰当的应对。
责任编辑:YYX

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分