人工智能究竟会否对人类产生威胁?

电子说

1.2w人已加入

描述

近年来,一些悲观的媒体与专家开始担忧人工智能的高速发展将会对人类自身的生存产生威胁,甚至连理论物理学家、《时间简史》的作者霍金都曾公开告诫大众:“完全人工智能的研发意味着人类的末日”。特斯拉与Space X的创始人埃隆·马斯克与霍金有大致相似的担忧。马斯克说:我们必须非常小心人工智能。如果必须预测我们面临的最大现实威胁,恐怕就是人工智能。”

李开复博士在《人工智能》一书中提到了三种不同层级的人工智能来回答这个问题。

一、弱人工智能(Weak AI)

弱人工智能(Weak AI)也称限制领域人工智能(Narrow AI)或应用型人工智能(Applied AI),指的是专注于且只能解决特定领域问题的人工智能。毫无疑问,今天我们看到的所有人工智能算法和应用都属于弱人工智能的范畴。

Alpha Go是弱人工智能的一个最好实例。Alpha Go在围棋领域超越了人类最顶尖选手,笑傲江湖。但Alpha Go的能力也仅止于围棋(或类似的博弈领域),下棋时,如果没有人类的帮助(还记得Alpha Go与李世石比赛时,帮机器摆棋的黄士杰博士吗?),Alpha Go连从棋盒里拿出棋子并置于棋盘之上的能力都没有,更别提下棋前向对手行礼、下棋后一起复盘等围棋礼仪了。

一般而言,限于弱人工智能在功能上的局限性,人们更愿意将弱人工智能看成是人类的工具,而不会将弱人工智能视为威胁。也就是说,弱人工智能在总体上只是一种技术工具,如果说弱人工智能存在风险,那也和人类已大规模使用的其他技术没有本质的不同。只要严格控制,严密监管,人类完全可以像使用其他工具那样,放心地使用今天的所有AI技术。

二、强人工智能(Strong AI)

强人工智能又称通用人工智能(Artificial general intelligence)或完全人工智能(Full AI),指的是可以胜任人类所有工作的人工智能。

人可以做什么,强人工智能就可以做什么。这种定义过于宽泛,缺乏一个量化的标准来评估什么样的计算机程序才是强人工智能。为此,不同的研究者提出了许多不同的建议。最为流行、被广为接受的标准是图灵测试。

(图灵测试(The Turing test)由艾伦·麦席森·图灵发明,指测试者与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。

进行多次测试后,如果有超过30%的测试者不能确定出被测试者是人还是机器,那么这台机器就通过了测试,并被认为具有人类智能图灵测试一词来源于计算机科学和密码学的先驱阿兰·麦席森·图灵写于1950年的一篇论文《计算机器与智能》,其中30%是图灵对2000年时的机器思考能力的一个预测,目前我们已远远落后于这个预测。

但即便是图灵测试本身,也只是关注于计算机的行为和人类行为之间,从观察者角度而言的不可区分性,并没有提及计算机到底需要具备哪些具体的特质或能力,才能实现这种不可区分性。

一般认为,一个可以称得上强人工智能的程序,大概需要具备以下几方面的能力:

1)存在不确定因素时进行推理,使用策略,解决问题,制定决策的能力;

2)知识表示的能力,包括常识性知识的表示能力;

3)规划能力;

4)学习能力;

5)使用自然语言进行交流沟通的能力;

6)将上述能力整合起来实现既定目标的能力;

基于上面几种能力的描述,我们大概可以想象,一个具备强人工智能的计算机程序会表现出什么样的行为特征。一旦实现了符合这一描述的强人工智能,那我们几乎可以肯定地说,所有人类工作都可以由人工智能来取代。从乐观主义的角度讲,人类到时就可以坐享其成,让机器人为我们服务,每部机器人也许可以一对一地替换每个人类个体的具体工作,人类则获得完全意义上的自由,只负责享乐,不再需要劳动。

强人工智能的定义里,存在一个关键的争议性问题:强人工智能是否有必要具备人类的“意识”(Consciousness)。有些研究者认为,只有具备人类意识的人工智能才可以叫强人工智能。另一些研究者则说,强人工智能只需要具备胜任人类所有工作的能力就可以了,未必需要人类的意识。

一旦牵涉“意识”,强人工智能的定义和评估标准就会变得异常复杂。而人们对于强人工智能的担忧也主要来源于此。不难设想,一旦强人工智能程序具备人类的意识,那我们就必然需要像对待一个有健全人格的人那样对待一台机器。那时,人与机器的关系就绝非工具使用者与工具本身这么简单。拥有意识的机器会不会甘愿为人类服务?机器会不会因为某种共同诉求而联合起来站在人类的对立面?一旦拥有意识的强人工智能得以实现,这些问题将直接成为人类面临的现实挑战。

三、超人工智能(Superintelligence)

假设计算机程序通过不断发展,可以比世界上最聪明、最有天赋的人类还聪明,那么,由此产生的人工智能系统就可以被称为超人工智能。

牛津大学哲学家、未来学家尼克·波斯特洛姆(Nick Bostrom)在他的《超级智能》一书中,将超人工智能定义为“在科学创造力、智慧和社交能力等每一方面都比最强的人类大脑聪明很多的智能”。显然,对今天的人来说,这是一种只存在于科幻电影中的想象场景。

与弱人工智能、强人工智能相比,超人工智能的定义最为模糊,因为没人知道,超越人类最高水平的智慧到底会表现为何种能力。如果说对于强人工智能,我们还存在从技术角度进行探讨的可能性的话,那么,对于超人工智能,今天的人类大多就只能从哲学或科幻的角度加以解析了。

首先,我们不知道强于人类的智慧形式将是怎样的一种存在。现在去谈论超人工智能和人类的关系,不仅仅是为时过早,而是根本不存在可以清晰界定的讨论对象。

其次,我们没有方法,也没有经验去预测超人工智能到底是一种不现实的幻想,还是一种在未来(不管这个未来是一百年还是一千年、一万年)必然会降临的结局。事实上,我们根本无法准确推断,到底计算机程序有没有能力达到这一目标。

显然,如果公众对人工智能会不会挑战、威胁人类有担忧的话,公众心目中所担心的那个人工智能,基本上属于这里所说的“强人工智能”和“超人工智能”。

我们到底该如何看待“强人工智能”和“超人工智能”的未来?它们会像Alpha Go那样,以远超我们预料的速度降临世间吗?

科技发展瓶颈带来的缓冲带

那么究竟什么到什么时候强人工智能和超人工智能才能被制造出来?是有前提的,前提是人类科技总是以加速度形式跃进的基础上的。一种更有可能出现的情况是:特定的科技如人工智能,在一定时间的加速发展后,会遇到某些难以逾越的技术瓶颈。

有关计算机芯片性能的摩尔定律(价格不变时,集成电路上可容纳的元器件数目每隔18到24个月便会增加一倍,性能也将提升一倍)就是一个技术发展遭遇瓶颈的很好例子。计算机芯片的处理速度,曾在1975年到2012年的数十年间保持稳定的增长趋势,却在2013年前后显著放缓。2015年,连提出摩尔定律的高登·摩尔(Gordon Moore)本人都说:“我猜我可以看见摩尔定律会在大约10年内失效,但这并不是一件令人吃惊的事。”

正如原本受摩尔定律左右的芯片性能发展已遭遇技术瓶颈那样,人工智能在从弱人工智能发展到强人工智能的道路上,未必就是一帆风顺的。从技术角度说,弱人工智能与强人工智能之间的鸿沟可能远比我们目前所能想象的要大得多。而且,最重要的是,由于基础科学(如物理学和生物学)尚缺乏对人类智慧和意识的精确描述,从弱人工智能发展到强人工智能,其间有很大概率存在难以在短期内解决的技术难题。今天,学者们对超人工智能何时到来的问题众说纷纭。悲观者认为技术加速发展的趋势无法改变,超越人类智能的机器将在不远的将来得以实现,那时的人类将面临生死存亡的重大考验。而乐观主义者则更愿意相信,人工智能在未来相当长的一个历史时期都只是人类的工具,很难突破超人工智能的门槛。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分