人工智能是真的懂我们吗

人工智能

635人已加入

描述

人工智能进步神速,获得一定的理解力,可以回答简单的问题。

理解是一个动态的能力增长区间。

为了让系统产生理解力,需在不同的概念、状态和操作之间建立系统联系。

原文来自Medium,作者Thomas G. Dietterich

针对人工智能的最新进展,一些批评家认为,尽管人工智能进步神速,但仍然没有达到“真实的”、“准确的”、“真正的”理解。这些词语说明“理解”是二元的:一个系统要么有“真正的”理解力,否则就没有。

这种看法的问题在于,人类的理解永远是不完整、不完美的。我认为“理解”是一个动态的能力增长区间。以“水”为例。大多数人理解水的特性:湿的,可以喝,植物需要,受冻成冰等等。

但是,很多人不知道水也是一种电导体,所以不要在淋浴间里吹头哦。然而,我们不会认为这些人对“水”缺乏“真实的”、“准确的”、“真正的”理解,相反,我们说他们的理解不完整。

因此,我们应该以同样的态度评估人工智能系统。现有的系统产生了一定的理解力,例如:如果我告诉Siri:“Siri,打电话给卡洛尔。”它会拨打正确的号码,Siri没有理解我的请求吗?那可是大错特错了。

如果我问Google:“谁被IBM的深蓝系统打败?”它会显示一个信息框,大大的字母写着“Kasparov”,它也正确理解了我的问题。当然,这种理解力是有限的。如果我再问:“时间?”,它会给出了字典中“时间”的定义,它无法结合上下文进行回答。

关于“理解”的争论可以追溯到亚里士多德时期,或许塞尔(Searle)的中文屋论证(Chinese Room argument)阐释更清晰。我推荐大家阅读《斯坦福哲学百科全书》(Stanford Encyclopedia of Philosophy)中科尔(Cole)的文章。

我认为理解是功能主义的一种形式。我们从功能的角度描述理解的特征,并根据大脑或人工智能系统中各种内部结构作用,评估它们各自的贡献。

从软件工程的角度,功能主义鼓励我们设计一系列测试测量系统功能。我们可以问系统(或人):“如果水的温度降到零下20℃会发生什么?”或者“如果在淋浴间里使用吹风机会怎样?”然后评价它们的反溃如果反馈相对合理,我们可以说系统能理解,而如果反馈是错的,我们则判断系统无法理解。

为了让系统产生理解力,我们需在不同的概念、状态和操作之间建立系统联系。今天的语言翻译系统正确地将英语中的“water”与西班牙语中的“agua”联系起来,但它们在“水”和“触电”之间没有建立任何联系。

对人工智能新进展的批评主要来自两个方面。首先,围绕人工智能的炒作(来自研究人员、其所属组织、甚至是政府和资助机构)已经无所不用其极。甚至引发了对“超级智能”和“机器人启示录”的恐惧。要反驳这种无稽之谈,理性批评还是可取的。

对于人工智能未来研究方向和政府资金分配的争论还在继续,批评是这一争论的一部分。一方是联结主义(connectionism)的倡导者,他们推动了深度学习,支持继续研究人工智能。另一方是人工智能符号和控制方法的倡导者(比如形式逻辑)。也有越来越多的人主张在混合架构中结合这两种方法。

批评同样对这个方面的争论有助益,因为人工智能一定会不断冲破我们的假设,并选择如何使用社会的资源和金钱推进人工智能科学和技术的发展。然而,我反对“深度学习系统没有产生真正的理解,因此应该放弃深度学习”这一观点。

这种观点和“深度学习系统已经取得了巨大进步,进一步研究我们对智能将一览无余。我喜欢拉卡托斯(Lakatos)的观点,研究项目会一直进行下去,直到它们不再有成果。

我认为我们应该继续追求联结主义、符号象征(symbolic representationalist)以及新兴的混合方案,因为它们在未来大有可为。

对深度学习的批评催生新的发展方向。特别是,深度学习系统在各种基准任务的表现堪比人类,却无法总结表面上非常相似的任务,这使机器学习产生了危机。研究人员正在思索新的应对方案,例如不变量、研究因果模型,这些既适用于符号学习,也适用于联结主义的方式。

我认为,我们应该追求人工智能科学技术的进步,而不是就“真正的”理解定义侃侃而谈。相反,重点该放在未来5年、10年或50年可以实现的系统功能上。我们可以在人工智能系统上执行测试来定义这些能力,从而测量系统是否拥有这些能力。

要做到这一点,这些能力必须具有可执行性。简而言之,人工智能的测试要以测试为导向。这要求我们把“理解”和“智能”的模糊概念转化为具体的、可量的能力。这本身就是一个非常实用的过程。

操作测试中,除了评估人工智能系统的输入输出行为之外,还可以检查产生这种行为的内部结构(数据结构、知识库等)。人工智能相对于神经科学的一大优势是,我们可以更容易在人工智能系统上进行实验,理解和评估它们的行为。

不过,还是要提醒大家注意。联结主义方法,包括深度学习,经常导致难以解释的内部结构,似乎我们的大脑也是如此。因此,我们不需要设定一个研究目标来确认某些结构(例如符号表征)的存在。相反,我们应该关注希望系统获得的行为能力,并研究其内部机制如何实现这些能力。

例如,一次成功的对话需要每位参与者留心交流过程中的前因后果。有很多方法可以做到这一点,我们没必要在一个深度学习系统中硬性要求明确的历史记忆。

相反,我们编写了一个特定的内部结构,并不意味着它就会按照我们预计的方式运行。德鲁麦克德莫特(Drew McDermott)在其著作《人工智能遇到自然愚蠢》(Artificial Intelligence Meets Natural Stupidity)中详细讨论了这个问题。

人工智能受批评,发展,再受批评的模式导致所谓的“人工智能效应”:时下最先进的系统没有产生“真正的理解”或“真正的智能”,人工智能等同于失败。这导致人工智能领域的成功被忽视,投入资金减少。例如,曾经有一段时间,人们认为系统如果能够达到人类下象棋或围棋的能力,就是智能的。

但是当1997年深蓝击败卡斯帕罗夫时,一位著名的人工智能研究人员认为,下国际象棋击败人类很容易,要显示出真正的智能,必须解决“小车倒车问题(truck backer-upper problem)”,即将一辆铰接式半拖车卡车倒进停车位。

事实上,九年前,阮(Nguyen)和威德罗(Widrow)已经通过强化学习解决了这个问题。今天,许多“深谋远虑”的批评者再次提出了新任务和新条件,测试一个系统是否产生了“理解”。

与此同时,人工智能的研发提升系统能力,并为社会创造价值。重要的是,无论是从学术诚信角度考虑还是为了继续获得投资,人工智能研究人员要能在成功时坦然接受赞美,失败时勇于承担责任。

我们必须压制围绕人工智能新进展的炒作、必须客观地衡量我们的系统在不同情况下是否能理解用户和其目标,客观地认识人工智能开拓的广阔世界。我们没有必要纠结于成果的“真真假假”,带上诚实有效的自我批评,让我们继续前行吧。

    责任编辑:ct

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分