人工智能
英国著名计算机科学家艾伦·图灵在1950年发表的论文《计算机器与智能》中,对人工智能的发展和人工智能的哲学作出了广泛的研究。1936年,图灵已经发展出了现代计算机的原理,并在二战期间在布莱切利园破解密码的过程中发挥了关键作用。在1950年的论文中,图灵探索了“机器”和“思考”的含义,在后来的“图灵测试”中,他提出,如果一台机器进行的对话无法与人类对话相区别,那么可以说这台机器能够“思考”。他在计算机方面的早期研究成果被送到伦敦数学学会(London Mathematical Society),并且证明了所有的数字计算机都有同样的功能(也就是说,只要有足够的内存和时间,任何计算机都可以模拟所有其他计算机的行为),这个实验表达出了一个强有力的、优雅且精确的概念。这篇论文至今仍被广泛阅读、讨论、引用和纳入选集。
人工智能领域的早期研究者们专注于开发必要的工具和技术,以帮助他们探索图灵的思想。早期的方法主要针对符号编程(也就是能够在自己的编程语言中操纵表达的程序),这是最有前景的范例。许多特殊目的语言都是以此为动力编写的,其中最著名的是美国的LISP语言,但也包括来自英国的重要贡献,比如POP-2(由爱丁堡大学的罗宾·波普和罗德·伯斯托发明)和Edinburgh Prolog(由爱丁堡大学的大卫·沃伦发明)。
1952年,克里斯托弗·斯特拉奇在曼彻斯特大学使用Ferranti?Mark?1系统编写了国际跳棋的玩法,在后来还编写了情书。人工智能已经参与到了越来越复杂的游戏中,这一直是其进步的标志。
另一位前布莱切利密码破译者是唐纳德·米奇,他后来在爱丁堡的机械智能与感知部门担任主管。当时他发明的连三子棋程序MENACE对当时的计算机来说太过复杂,而他最初是用300个火柴盒来实施这个过程的。
到20世纪60年代,人工智能技术被应用于更为复杂的问题,并被运用到实际中。前期计划包括制定解决问题的策略,从而逐步解决问题,比如自动推理,或者是规划依据(由艾伦·邦迪首创)。
理解自然语言是另一个重要的部分;例如,Karen Sprck Jones发明了从文档中检索信息的方式,而Yorick Wilks的偏好语义是一种用来消除单词歧义感的计算方法,这不仅是对人工智能的贡献,而且直接挑战了语言学中占主导地位的乔姆斯基范式。他们二人都是剑桥语言研究小组的校友,这是一个由维特根斯坦的学生Margaret Masterman创立的计算机语言学的传奇熔炉。
在随后的发展中,像爱丁堡的Freddy I和Freddy II这样的机器人系统已经能够将视觉、智能、多功能性和物理工程结合起来,来完成一些任务,比如组装物体(需要为机器人开发的专用AI语言)。人工智能系统也对认知心理学这一学科产生了影响。研究人员包括理查德?格雷戈里、克里斯托弗?隆格希金斯、菲利普?约翰逊-莱尔德和戴维?马尔,他们意识到,人类的认知过程可以被视为一种计算方式,并被模仿为计算机程序。
在全球以及在英国,人工智能经历了向前发展的阶段,也有相对停滞的时期(通常被称为“人工智能的冬天”)。其中一个重大事件发生在1973年,,詹姆斯·莱特希尔(Sir James Lighthill)发表了关于人工智能的报告,该报告建议将人工智能资金集中在少数几所英国大学。莱特希尔质疑了当时的人工智能能够通过扩大规模来解决现实世界的复杂问题,而且确实,20世纪60年代的主流方法,将复杂的推理建模为可能的决策树,很容易遇到组合性爆炸的问题。
但是,从长远来看,符号编程的进步使人们对人工智能解决复杂问题的能力有了更深入的理解,特别是在工具和技术方面取得了特别的进展,可以模拟或支持复杂的专家推理在结构相对良好的领域的应用(在工作场所的应用是非常理想的)。
Knowledge-Based Systems(KBS),被称为知识库系统,将人工智能技术与其他类型的计算推理和领域相关专业知识结合起来,为非常常用但重要的现实应用程序创建系统。KBS不引人注目但实际的成功,帮助化解了莱特希尔的“悲观情绪”,并为通过Alvey项目进行大规模的资金扩张铺平了道路。回顾过去,我们所看到的人工智能冬天都是过度炒作的产物——支持者夸大了错误的失败印象,并因此低估了研究中重要但未取成果的成就。
1983年至1987年期间,英国的Alvey智能知识库系统(IKBS)计划是为了响应其他国家的进展而开发的,尤其是日本(其这5年的项目依靠技术和语言,尤其是来自英国的Edinburgh Prolog)。Alvey影响了学术界研究能力的发展,也鼓励了行业应用,使其专注于已经取得进展的实际问题,尤其是自然语言处理、界面和KBS。
这些应用程序逐渐将人工智能领域的目标从制造“思考机器”(这个概念一直存在哲学争论)转变为了更可衡量的构想,即创造出能够发挥作用的机器,如果这些机器是由人类生产的,那么就可以将其作用归因于“智能”(图灵测试中隐含的一个概念)。这种智能的表现可能是由“蛮力”方法产生的,既没有反映,也没有试图反映人类的问题。有趣的是,英国培养了许多重要的哲学家,他们帮助发现了这些区别背后的概念,比如玛格丽特·博登和安迪·克拉克。
Alvey项目之后,AI的投资再次下降,但这一领域的前景已经出现了好转,因为新的编程方法不再依赖于符号推理的线性组合。尽管符号编程是人类语言最简单的编程类型,但模拟自然技术从感知环境(例如来自感官的信息)中也可以推断出很多信息,因为它们不包括陈述性或假设性知识的直接表述。
从自然中获得灵感的一个例子是遗传算法,它将一个程序编码为一组“基因”,然后以模仿进化的方式进行修改,寻找与不断变化的与环境的“契合度”(早期项目包括理查德·弗西斯的小猎犬系统,用于模式识别)。另一种是神经网络或连接主义系统,在这种系统中,人造“神经元”相互连接在一个系统中,这个系统的作用类似于人脑,由多个“神经元”相互刺激或抑制。与具有象征意义的人工智能一样,研究人员经常在模仿人类大脑时进行逆向推理,来提高其性能(例如,由杰弗里·辛顿开发的反向传播算法),但由史蒂夫·弗伯领导的大规模神经网络SpiNNaker(2005-)仍然是大脑直接建模的传统范式。其他与人工智能相关的非传统计算方法还包括并行处理(并行处理多个处理器来解决问题)、多智能体系统(在一个环境中有许多智能自动代理交互)和机器学习(算法可以学习在数据中找到重要的结构,并通过培训确定有趣的模式)。
其他国家和国际公司正在大力投资人工智能开发,但英国仍被视为人工智能研究和应用领域的专业中心,至少目前是这样。例如,DeepMind的两位创始人,在伦敦大学学院计算机神经科学组读博士时结识,而这一小组的创始主任正是杰弗里·辛顿。英国可以继续在图灵的遗产和追随他的人的基础上继续努力,继续成为人工智能的重要中心之一。
Kieron o'hara博士,南安普敦大学电子与计算机科学系副教授和首席研究员。
全部0条评论
快来发表一下你的评论吧 !