9月6日,以“AI赋能,驱动未来”为主题的2018中国人工智能峰会(CAIS 2018)在南京国际博览会议中心成功召开。本次峰会汇聚了Leslie Valiant、吴恩达、周志华、李波等人工智能领域的多位顶级大咖以及京东、ARM、华为、小米、拜腾等企业代表。其中,2010年图灵奖得主、英国皇家学会会士,美国科学院院士,哈佛大学教授Leslie Valiant带来了主题为《Challenges for Machine Learning》的演讲 。
Leslie Valiant在演讲中说,人类在1950年就开始探讨机器学习。近年来,有一个重要概念就是监督学习,即首先获取信息以及知识然后执行一个动作。机器学习可以通过不断训练,不断得到反馈修正它的行为,减少错误率,从而提高机器预测的准确度。
机器学习的局限在于数据运算方式不能改变太多。人类可以在机器学习当中不断做进一步补充,让机器可以像人一样推理分析。机器学习可以实现分析推理,但需要训练它,让它获取知识然后进行训练或学习。
学习和推理能力对机器学习是一个巨大的挑战。因为学习和推理是按照不同方式构成的,它们之间目前还不兼容。对于人工智能方面的预测能力来说,只有训练数据可靠,才能让人工智能掌握一些人类具备的能力,执行一些人类目前才能执行的任务。
以下为Leslie Valiant演讲实录:
今天我给大家讲的主要是关于人工智能,介绍一下机器学习的历史,它的发展现状以及什么是人工智能。人工智能指的是计算机能够获取知识,可以根据获取到的知识执行一些指令做出行动。
首先,介绍关于它的历史背景信息。对于机器人也就是没有实体形状的大脑来说,在众多的游戏中,比如围棋、桥牌、扑克游戏、学习语言、翻译语言、密码学、数学。我们研究发现,机器在围棋和学习语言方面表现比较好,而翻译的表现就没那么好。另外想强调的就是语言学习,我认为语言学习对于机器是非常困难的。这就是图灵1948年的手稿内容。
在1950年开始有人工智能概念,此后一直都在不断发展,但还有一个尚未解决的挑战,即获取信息的问题。在1950年就开始探讨机器学习,知识获取是程序化还是像人类一样学习式的。众所周知,机器需要进行编程,但我想说这个观点也许有一点误导。在这个阶段,我们开始研究程序是如何运行的,机器的程序跟人脑的运作有哪些相同的地方以及不同的地方。
近年来人工智能领域研究以及发展有突破性的进展。有一个很重要的概念——监督学习。监督学习首先需要获取信息以及知识然后执行一个动作。比如识识别图像上的花朵,在获取知识阶段,它需要给图像加标签;在执行的阶段,需要对图像的信息进行分类。那机器的监督学习主要怎么做?
我们都知道图像识别和语音识别近年来发展很快,也是以这种方法进行的。重要的是,我们要了解这些现象背后的原理。有些人会担心智能机器人会不会有一天会取代人类,或者摧毁人类。其实,技术的发展总会给我们带来一些挑战及问题,它一定是有风险的,但如何寻找更加合理的方式去应对这种挑战以及风险,这是需要去考虑的。因为,科学也不是百分之百正确,有时候它们会犯一些错误,我们需要去梳理这其中的逻辑。我们应该把人工智能看作一项非常有前景的科研技术,但是也应该理性的去看待它。
监督学习是什么?我们都知道做预测无论是人或机器都会犯一些错误。如果我们增加训练的频率、计算的次数、预测的错误率会改变。在机器人学习里面,奖赏是很重要的概念。在不断训练中,机器不断得到反馈,然后修正它的行为。经过多次计算训练之后,错误率明显减少,因此机器的表现是跟训练的模式相关。通过大量数据的训练,可以逐步减少错误的概率,从而提高机器预测的准确度。
简单介绍机器学习后,接下来介绍机器学习能够帮助我们做什么、以及它的应用。这里有一些科学家做的研究并提出八个点,包括哪些机器学习能够去做、哪些是机器学习的局限。比如,我们有清晰定义的目标、衡量的方式、计算方式是非常明确定义的、我们需要清晰的输入、一定程度的容错区间、大量的数据集用于训练。
另外一个局限,这些数据运算方式不能不断去改变太多。比如推理,目前,这些推理和复杂环境相关的因素现在机器学习做得不够好,所以,机器学习还要进一步去推进。
我们可以在机器学习当中不断做进一步补充,让机器像人一样可以推理、分析。这些问题不那么容易解决。如果问人类“孔子是有笔记本电脑吗?”你能够简单的回答这些问题,机器学习也可以实现,但要去训练它。在人类看来很简单的问题机器也需要学习。当它回答“孔子到底有没有笔记本电脑这个问题”,需要去训练它,它首先要获取知识,然后再进行训练或学习,这个时候才可能回答这个问题。
通过回答古代的人是否有笔记本电脑这个问题可以说明,很多人能够简单做的事,机器很难做到。人们获取的知识是用自己的推理或分析,就可以回答一些之前没有见过的问题。这样一个简单的黑盒学习,图像是大象还是别的动物,对于机器来说需要先训练或学习才能回答。人类是凭知觉,是否有科学方式可以去问一些问题,在机器学习当中,我们到底还要做什么样的工作才能确保它们将来具备像人类那样的推理和分析能力。人类经常做完形填空的练习,比如,《中国日报》英文版上周有三句话,把其中的一个单词拿走,让人们做完形填空,来测试人类的智能和机器的智能,这很容易测试。因此,我们可以对此展开一些科学的研究,人会怎么样回答这个问题。如果你不知道这个背景知识,很难回答这样的一些问题,你需要背景知识,你必须要用已经储备的知识、认知和推理分析能力,才能进行黑盒学习,进行完形填空,以背景知识回答。
显然,机器学习需要进行训练,但人有推理能力,即使之前不知道也可以根据已有知识进行推理和分析。如果出现一个前所未有的东西,这时候需要人类才具备的推理能力,机器就落了下风。
讲到推理、常识方面的东西,可能这时候要带雨衣,因为有可能下雨。这对人类是简单的理解和推理,但让机器能够获取这一的知识和认知,很多时候机器是没有答案的。这对人类是尝试,不用写下来,但是这对于人工智能的挑战就是要让机器理解人类达成的尝试。即这个世界的通用规则,并且机器利还要用这些常识进行推理,然后产生人类才有的一些决策和行动。当然,可以通过监督式的学习进行对机器的训练。也有这样的一些规则可以使用,通过机器监督学习让它们获得这样的尝试,但之前那种编程式的方法是失败的。因为这个环节非常脆弱,编程的码农在这方面可能都会有自己的一些假设。
由此可见,这八个点在机器学习中哪些能做、哪些不能做、有哪些挑战。当中有很多黑盒,给大家举一些例子,在高层次做一些解释,一些基础的东西则不用解释。所有做决策给到的信息,只要部分的给到就可以做出一些判断、得出一些想法。如果给到机器足够的解释,是否它就能做和人类一样的推理和分析?
显然,挑战是存在的,一些业内精英也在这方面做具体的工作,逻辑推理、逻辑分析、通过监督机器学习的方式进行训练和学习,让它取得成功,这样机器可以学习人类世界更多的常识和规则。这个不随着时间的变化而变化,而是一些永恒不变的真理,或是人类社会的一些常识,让机器可以去掌握,那么,它就可能具备推理和分析的能力。目前的挑战在于,学习和推理是按照不同的方式构成的,它们相互之间目前还不兼容,因此,在大脑当中,学习和推理是形成统一体的,机器也必须做到这一点。我们需要某种机制,让它们像人类一样具备强大的学习和推理能力的结合。
我认为学习和推理能力的结合是一个巨大的挑战,很多人正在努力开展相关的工作。前面也讲过预测,预测能力在将来的人工智能方面是很重要的一个发展领域,能够产生数据组,有相关学习推理的方法,并可以不断改善。这方面还停不下来,在人类的一些智能方面还要进行很多研究,像对待人类精英教育一样,不断的用一些课件和方法来教会机器。这个挑战始终是存在的。因为需要去训练机器,而且我们提供给机器的训练材料或课件必须要适合机器的特点,所以,人工智能这方面目前有很多的挑战。
只有训练的数据可靠,才能让人工智能掌握一些人类具备的能力,从而执行一些人类目前才能执行的任务。这是挑战,我先讲到这里,感谢各位的耐心聆听。
全部0条评论
快来发表一下你的评论吧 !