电子说
在当前关于“人工智能”(Artificial Intelligence,AI)与“奇点”(Singularity)的讨论中,这两个词语的不同含义经常不同程度地被混用,成为诸多分歧产生的根源之一。本文对这些含义进行了辨析,进而提出“通用人工智能”(Artificial General Intelligence,AGI)所代表的智能观,认为AGI可以存在,但奇点却不会出现。
近年来深度学习进展神速,令“计算机能否比人更聪明”再度成为热点话题。在这类讨论中存在两种截然相反的观点:“无限论”者认为,从人工智能已取得的成果上一看便知,没有人工智能做不了的事情;“有限论”者则认为人工智能不可能真有多少智能,所以做不了很多事情。在我们看来,二者的论证皆有概念混淆的问题。下面我们从概念分析开始,希望在这团乱麻中理出些头绪,也为这炎炎夏日的火热论争带来一丝清凉。本文是我们一篇英文论文[1]的缩写版。
人工智能(AI)与通用人工智能(AGI)
“人工智能(AI)”没有公认的严格定义,尽管简而言之,这项研究是试图“让计算机像人脑一样工作”。尽管听上去似乎直截了当,这种看法实际上要求AI在某些方面与人类智能相似(甚至相同)。由于计算机既非生物有机体,也不可能过和人类一模一样的生活,故而期望人工智能与人类智能在所有方面都完全一样显然是不切实际的。但这是个自明的“潜假设”,很少被明确提及。其结果是当人们关注人类智能的不同方面时,提出和遵从的AI范式彼此迥异,其目标、需求、假设、路径和应用均大相径庭。
在相关讨论中,至少存在三种不同见解:
1、认为“AI”应该行为表现与人完全一致。
2、认为“AI”应该能够解决某些过去只有人脑才能解决的问题。
3、认为“AI”应该具有与人相同的认知功能。
在后面的讨论中,它们将分别被称为AI-1、AI-2和AI-3。就AI-1而言,最广为人知的形式莫过于一个能够通过图灵测试的计算机系统。由于通俗易懂,这种AI经常出现在科幻小说和电影中。在公众看来,这就是“AI”的含义。但事实上,这基本上不是人工智能领域的研究目标。
在AI研究的初期(上个世纪中叶),绝大多数研究者的确都试图创建在各方面均可与人类心智相媲美(尽管未必完全相同)的“思维机器”。然而,对这一目标的所有直接尝试均宣告失败。于是,主流AI研究者将“AI”重新诠释为AI-2,即在某一特定应用或认知功能上达到人类水平。常规AI教科书中几乎所有的内容都成为了AI-2的脚注,就连新近增补的深入学习和其他机器学习算法也无出其右。
尽管AI-2取得了令人瞩目的成就,业界内外的许多人仍然觉得这种系统其实更接近传统计算而非一般意义的智能。这也正是十几年前需要引入“通用人工智能(AGI)”这个新词的原因。尽管这类研究项目实际上从AI之初便一直存续至今,但是当主流AI已经在这个招牌下从事不同的经营活动之后,给这个目标取个新名字就成为必要的了。AGI将“智能”视为一种一般能力,而主流AI则将其视作多种具体能力的松散集合。因此,AGI更接近于前述AI-3。
许多人用“强AI”称呼AI-1和AI-3(以及AGI),而用“弱AI”指AI-2。虽然这个区分有其直观吸引力,很多AGI研究者通常并不用“强AI”来称呼自己的研究工作。理由一是避免该对语词背后潜藏着的哲学预设(“强AI”和“弱AI”的差别原本就不体现在外部功能上,而是系统是否有“内省”能力),二是AI-2与AI-3的主要区别不在于“能力的强弱”,而在于“适用的范围”。对某一确定性问题而言,专用方案的能力往往强于通用方案。因此,期望AI-2的技术变得“更强大”而最终跃升为AI-3是不现实的,因为二者的设计源自根本不同的出发点。换言之,将现有AI-2技术捆绑整合而成为AI-3系统的想法是不会实现的。
此外,AI-1侧重于系统的外在行为,而AI-3则侧重于其内部功能,但“强AI”这个概念却无法区分AI-1和AI-3。尽管有理由认为“行为表现与人脑完全一致的计算机系统”(AI-1)大约依赖于“与人类心智相同的认知功能”(AI-3),但反过来却未必成立。系统的行为(或其“输出”)不仅取决于内部的处理机制和功能,还依赖于系统的“输入”(可粗略称其为“经验”)。因此,“类人”的认知机制如果被给予“非人”的经验,其行为也不会像人。这就好比在输入值差别很大的情况下,即使两个数学函数几乎等同,但其输出值也可能有着天壤之别。
那么,为何不能给AGI人类的经验呢?原则上,人类感官及感知过程均可能被计算设备模拟到任意精度,但这在实际上却不太可能。以视觉为例:每种光感受器都应具有一定的灵敏度、解析度、反应时等等。人眼如此,其它动物的眼或各种电子感光设备也莫不如此。因此,“让计算机有视觉”和“让计算机有和人类完全一样的视觉”是两个难度相差悬殊的任务。
退一万步讲,即便能够在所有细节上模拟人类的全部感官,也仍然只能得到某人的直接的物理经验,依旧无法获取从人际交流中得到的间接的社会经验。因为社会经验的取得,需要计算机被其他人(或机器)视为人。这已然不是能否实现的技术问题,而是是否需要或值得去做的问题了。
为了便于讨论,假设全体人类社会确实像对待人类一般来对待AGI系统;在这种情况下,AI-1是有可能实现的。然而,这是基于对“智能”高度的人类中心主义的解释,其实它应该被称为“人工的人类智能”。用人类行为来刻画智能会令其他非人智能(如“动物智能”、“群体智能”、“外星智能”等)仅根据定义便成为不可能,仅仅因为它们并不具有类人的输入和输出。
这种人类中心主义的“智能观”总是作为隐含的预设立场而存在,却几乎未被明确地讨论过。一个突出的例子便是将图灵测试作为AI的操作性定义,尽管图灵自己只是将其视为智能或思维的充分条件而非必要条件。图灵本人写道:“难道机器不能进行一些与人不同却可称之为思维的活动?这个反诘很有力,但至少我们可以说,如果能够很好地应对角色扮演任务的机器可以被造出来,我们就不必为这种反诘而烦恼”。这就是说,即使“行为像人”说明有智能,“行为不像人”也未必就是没有智能。
在当前AGI研究中,几乎没有人将目标设定为建立AI-1系统;相反,将他们的工作视为某种AI-3的版本才更适合。他们认为,“思维机器”或“通用智能”不仅和人类心智有可比性,甚至可能在某种抽象意义上完全相同,尽管未必是行为细节的全部等同。就像我们认为鱼和鸟有视觉但却与人类之所见非常不同一样,这种行为差异的存在并不意味着非人系统无法拥有真正的智能。
“奇点”(Singularity)与通用人工智能(AGI)
“奇点”,也被称为“技术奇点”,是另一个既无准确含义也未被广泛接受的概念。尽管常见于一些作品而为公众所熟知,但实际上这并不是一个真正的计算机科学或技术术语。
“AI将导致奇点”这一观点的典型表述可以分解为下列三个结论:
1、系统的智能水平可以表示为一个数值。
2、经由学习或迭代改进,AI能够提升自己的智能水平。
3、当AI的智能水平超越人类,它的整个未来将被我们视作一个单点,因为从那以后这个系统将超出人类的理解范围。
当然,有人也仅使用“奇点”一词来指代“AI达到人类水平”或“计算机比人类更聪明”这个时间节点,而不做其他假设。接下来,我们将聚焦于上述典型表述,因为当它被分析之后,我们对其各种变体的看法也便一望而知了。
第一句话看似正确,毕竟一个“聪明”或“智慧”的系统应该可以解决许多实际问题,而人们也总是利用各式测验和检测来评估效果,比如人类自身便通常使用“智商”(IQ)来衡量智力水平。尽管为通用系统的问题解决能力的找到一个恰当的度量绝非易事,但为方便讨论,我们假设可以确立这样的一个度量S,代表系统在解题能力上所得的“分数”。即使如此,我们也不认为这是一个衡量系统“智能”的正确标准,因为它完全排除了时间因素。在通常意义下,人们往往把“智能”与后天习得的解决问题能力相联系,而非先天拥有的问题解决能力。出于这个原因,在某一给定时刻t,系统的智能应该用该时刻增速S'(t)而非S(t)来衡量,也就是说,智能水平不是指系统在此刻能解决多少实际问题,而是指其解题能力在此刻的增长速度。
图1 时间t与总分S的四种不同关系
图1更为直观地展示出S(t)和S'(t)之间的差异。就当前的讨论而言,就其所能解决的问题的数量S与时间t的关系可区分出四类不同的系统:
蓝线对应于一个完全没有学习能力的系统。系统能力完全由先天因素确定,即S'(t) = 0。所有传统的计算系统都属于这一类,尽管其中一些被人们视为“AI”。
紫线对应于一个学习能力有限的系统。此类系统中S'(t) > 0,但最终收敛至0。绝大多数的机器学习算法都属于该类。
绿线对应于一个学习能力基本恒定的系统。此时,S'(t)是一个正常数。包括我们团队在内的许多AGI项目都属于这种类型。
红线对应于一个学习能力本身在增长的系统,其S(t)和S'(t)均呈指数递增。我们认为这样的系统并不存在,在此仅将其作为一种可能性列出来。
粗略地说,这里的 S(t) 表示“解决问题的能力”,S'(t) 则表示“学习的能力”,“能够解决多少问题”与“能够学到多少东西”并不直接相关。如图1所示,取决于其中的常量和测量的时刻,四种类型中的任意一种都可能成为问题解决能力最强者,但其学习能力却各不相同,由弱至强可排序为:蓝线 < 紫线 < 绿线 < 红线。
我们认为,智能水平应由S'(t) 而非S(t) 来刻画,尽管这与当前主流观点不同,但事实上这种理解不仅更加符合“智能”一词的深层含义,也有助于开创AI研究的新局面。
上述结论与人类智商(IQ)的衡量方式其实并不冲突,虽然智商测试的直接目标上是问题解决能力。智商是人的“心智年龄”(由测试分数给出)除以所在年龄段之商。在人们先天的问题解决能力S(0) 并无明显差异的情况下,更高的S(t) 值意味着更高的S'(t) 值,所以可以用IQ来衡量某人的学习效能与他人的差异。然而,这对于AI系统却不能成立,因为不同的计算机系统可以有差异极大的S(0)值,取决于它们不同的设计与配置。
尽管在AI研发过程中“学习”往往与“问题解决”被置于同一层面,但“学习是智能的核心”的见解却早已有之。按照我们的理论,各类问题解决能力处于“对象层次”,而学习能力则是处于“元层次”。正如前面“AI与AGI”比较中所提及的,这一差异开启了另一扇窗:主流AI研究把智能视为解决特定问题的能力,由于不同的问题具有不同的问题特征,其解决方案也因此不同。相反,AGI关注的是独立于具体领域的“元问题”。其实,这两种方法既不重叠也非竞争,而是互补的。“绿线族”便是个很好的例子,这类系统将其元层次的知识和操作看做“智能”(主要来自系统先天预设),而将其对象层次的知识和操作视为“信念和技能”(主要来自系统后天经验)。当我们说此类系统达到“人类水平”时,实际上意指其元知识和元操作与人类的相类似,不论对象层的信念和技能和人有多大程度的重合。
在AI系统中元知识的习得并非不可能,但有几个重要问题却很少在相关讨论中被提及:
许多AI系统中虽然存在着“对象层次”和“元层次”之别,但其具体边界取决于系统的设计,所以某系统元层次上的学习可能对应于另一系统对象层次上的学习。
有的“元学习”算法用穷举尝试找寻最优解,但考虑其所消耗的时空资源及潜在风险,这种做法其实并不可取。
一个常见的误解是将“递归式的自我改进”与“系统修改自身源代码”相等同。对于Lisp和Prolog这样的编程语言,自身源代码修改和函数生成其实早已实现;但是,这些技术的实际使用并不会造成革命性的后果,因为其他编程语言也可以通过对某些数据的修改而实现同样的效果。请注意,“程序”与“数据”二者之间并无理论鸿沟,只是应用解释有别而已。
由于现有的机器学习技术是为对象层任务而设计的,因此对学习元知识并不能胜任。人类的大脑也是如此:作为一个个体,我们的心理机制大多是先天形成,只能通过有限的方式缓慢地加以调整。只有在规模上升到物种层面的讨论时,人类才会借由进化而“学习”,但付出的代价却是更慢的速度和更高的风险(对个体而言,不佳的改变往往致命)。于是,最好将群际内的元学习过程称为“进化”,而为个体对象层的学习过程保留“智能”一词。
时至今日,我们依然没有看到任何说明“红线族”系统可能存在的确实证据。虽然奇点的支持者经常把“指数增长”现象的存在挂在嘴边,其证据也不是关于一个能够自我改进的独立系统中的。纵然“智能”是一个程度的问题,也没有证据表明智能在“人类水平”之上依旧可以无限提升。“超人智能”往往是对应于“低于人类水平的智能”的一种类比,而这里的“智能水平”既包括对象层因素也包括元层次因素。在这里,S(t)值显然可以通过知识、技能或计算资源任意的增长而提高,但“超人智能”和高S(t)值不是一回事。在元层次上,“超人智能”意味着一种完全不同的思维机制,能够更好地满足适应的目的。当然我们不能否认这种可能性,但确实没有看到任何证明其可能存在的证据。
计算机能比人类更聪明吗?如果“更聪明”是指更高的问题解决能力的话,那么这在很多领域中早已发生了。计算机在很多方面都比人做得好,却尚不足冠以“智能”之冕,不然连数值计算和排序算法也都能算作其所在领域的智能标兵了。引入“AGI”一词的原因也正是要避免这种什么都算是“有智能”的局面。同样,尽管“机器学习”的字面意思也包括了“绿线族”系统,而且机器学习领域一开始还是“百花齐放”,但现在“机器学习”一词却几近等同为“统计学的函数拟合”,变得仅仅侧重“紫线族”而已。故此,不得不用一个新的名称来避免混淆。对“绿线族”或“红线族”而言,S(t) 虽能够提升至任意水平,甚至“比人类聪明”,但受到传感器、动作器及经验所限,并不意味着在每一个问题都能比人做得更好。在这一问题上,“绿线族”和“红线族”之间存在根本差别:由于“绿线族”内部的元知识由其设计者指定,所以即使其S(t)值远高于人类水平,人们仍然能够理解它的运行原理及基本工作过程。而相反,如若果真存在某个“红线族”系统,它将在某个时间点之后让人连它是如何工作都变得无法理解。
既然不相信“红线族”能够存在,我们也不认为“奇点”可能发生。但是,我们却坚信可媲美人类心智的AGI系统是能够创建出来。这种系统在元层次上的能力与人类大致相等(不高也不低但未必完全相同),而在对象层次上的能力则可高于人类(指总分,而非每项任务)。这些AGI系统仍旧可以经由人类或自身来持续改进,但不会突现一个机制全然不同的“超人智能”。
总结:AGI是等同于人类的计算机系统,无需处处一致
因此,我们的智能观是:
AGI将是在原理、机制和功能上与人类智能相似的计算机系统,却不必然非得在内部结构、外部行为或问题解决能力上与人一致。作为另一种智力形式,AGI将具有与人类大致相同的智能水平,既不会过不高也不会过低。对于具体的问题解决能力而言,由于躯体和经验的差别,AGI既可能比人强也可能不如人。
AGI的实现需要新理论、新模型和新技术。当前主流AI基本上延循着智能就是问题解决能力这一思路而发展,所以其发展路线并未朝向AGI,从而也具有与AGI所不同的理论和实践价值。
即使AGI已然实现,也不会导致一个奇点出现,以至于智能计算机系统变得完全无法理解、不可预知和无法控制。相反,AGI的实现意味着智能本质已为人所悉,这将进一步引导人们使用AGI来满足人类的价值和需求。
AGI的研究还处于初期,因此各方高见皆有价值。但正所谓“大川归道,百宝万货”,为了取得一个最低共识有必要澄清基本问题,以便避免驴唇不对马嘴的情况出现。
全部0条评论
快来发表一下你的评论吧 !