对AI发展轨迹、趋势、技术需求分析 以创造更有用的AI和容易实现的目标

电子说

1.2w人已加入

描述

在2018年及其以后,深层神经网络和机器学习在更大的人工智能(AI)领域会如何发展?我们如何能开发出越来越复杂的机器以在日常生活中帮助人类?

这些都是普渡大学机器学习硬件教授尤金尼奥·库鲁尔塞罗(Eugenio Culurciello)关注的问题。请注意,本文的重点并非有关AI的预测,而是对该领域发展轨迹、趋势以及技术需求的详细分析,以帮助创造更有用的AI。当然,并非所有的机器学习都是针对AI的,还有些其他容易实现的目标,下面我们就仔细审视下。

目标

AI领域的目标是通过机器上实现人类和超人的能力,以便让它们在日常生活中帮助我们。自动驾驶车辆、智能家居、人工助理以及安全摄像头将是植入AI技术的首批目标,家庭烹饪和清洁机器人、无人侦察机和机器人则是第二批目标。

其他目标还有移动设备上的助理,全职陪伴助理(可以听到和看到我们的生活经历)。而AI领域的终极目标是打造完全自主的合成实体,它可以在日常工作中以相当于人类或超越人类的水平行事。

软件

在这里,软件被定义为通过优化算法训练的神经网络构架以解决特定的任务。今天,神经网络是用来学习解决问题的实际工具,其中涉及通过大数据集进行分类学习。但这并不是全部AI,它要求在现实世界中,在没有监督的情况下学习,也要吸取以前从未见过的经验,常常需要把以前学到的知识结合起来以解决当前的挑战。

如何让目前的神经网络演变成AI?

神经网络架构:几年前,当神经网络架构发展起来的时候,我们经常认为从数据中自动学习算法的参数拥有巨大优势,而且这比手工编写的算法功能更强大。人工智能

我们必须尝试从头开始训练多个架构,并看看哪一个最有效。这就是我们今天使用的、非常耗时的试错过程!我们应该克服这一限制,并在这个非常重要的问题上多加思考。

无监督学习:我们不能总是干预神经网络,引导它们的每一次体验。我们不能在每个实例中都纠正它们,并提供它们的性能反馈。我们的生活也要持续下去!

但这正是我们今天利用受监督神经网络所做的:我们为每个实例提供帮助,使它们能够正确执行。相反,人类只需从少数几个例子中学习,并且能够以连续的方式自我校正和学习更复杂的数据。

预测神经网络:目前神经网络的一个主要局限是它们没有人类大脑最重要的特征之一,即预测能力。关于人脑如何工作的一个主要理论是它能不断地预测,即拥有预测代码。

如果你仔细想想,就会发现我们每天都在使用它。你提起一个自认为很轻的物体,但结果它却很重。这会让你感到惊讶,因为当你接近它的时候,你已经预测它将如何影响你和你的身体,或者你的整体环境。人工智能

或者,在现代世界里,当我们匆忙出门时,我的手机落在哪里。 构建预测神经网络是我们与现实世界互动的核心,并能在复杂的环境中发挥作用。因此,这是任何强化学习的核心网络。

当前神经网络的局限性:无法预测,无法解释理由,以及暂时的不稳定性,因此我们需要一种新的神经网络。神经网络胶囊(Neural Network Capsules)就是解决当前神经网络局限性的一种方法,但我们认为它必须有些额外的特点:

1、视频帧操作:这很简单,因为我们需要做的就是让胶囊路由查看最近时间的多个数据点。这相当于在最近的重要数据点上建立起关联内存。请注意,这些不是最近帧的最新表达,而是它们最新的不同表达。

可以通过仅保存与预定义值不同的表达来获得不同内容的不同表达。这个重要的细节只允许保存最近历史上的相关信息,而不是一系列无用的相关数据点。

2、预测神经网络能力:这已经是动态路由的一部分,它迫使各层预测下一层表达。这是一种非常强大的自我学习技巧,在我们看来,它胜过了我们在社区中发展的所有其他非监督表现学习。胶囊现在需要能够预测长期的时空关系,但目前还没有实现。
人工智能

转移学习:或者称我们如何让这些算法通过观看视频自学,就像我们学习如何烹饪新的东西一样。这是一种能力,需要我们上面列出的所有因素,而且对于加强学习也很重要。现在你可以通过举例子的方式来训练你的机器去做你想让它做的事情,就像我们人类一样。

强化学习:这是深神经网络研究的“圣杯”,即教机器如何在真实的世界环境中学习!这需要自学、持续学习、预测能力,还有很多我们不知道的东西。在强化学习领域有很多东西需要了解,但对作者们来说,这只触及到问题的表面。

强化学习通常被称为“蛋糕上的樱桃”,意思是它只是塑料合成大脑上微不足道的训练。但是,我们如何才能得到一个“通用”大脑轻松地解决所有的问题呢?

这是个“先有鸡还是先有蛋”的问题!今天,要想一个个地解决强化学习的问题,我们需要使用标准神经网络:一个深度的神经网络,它接收大量的数据输入,如视频或音频,并将其压缩成表示;一个序列学习神经网络,如RNN,以便了解任务。

这两个部分都是问题的明显解决方案,目前显然是错误的,但这是每个人都在使用的,因为它们是当前可用的构建块。人工智能

不要更多的递归神经网络(RNN):因为它们在并行化方面表现特别糟糕,甚至在特殊的定制机器上也很慢,因为它们的内存带宽使用率很高,内存带宽存在限制。基于注意力的神经网络更高效,可更快速地进行训练和部署,并且在训练和部署方面的可伸缩性更少。

在神经网络中,注意力有可能使许多架构发生真正的改变,但它并没有得到应有的认可。联想记忆和注意力的结合是下一波神经网络发展的核心。我们认识到,基于注意力的神经网络将逐渐取代基于RNN的语音识别,并在强化学习构架和通用人工智能中找到它们的方法。

分类神经网络中信息的定位:实际上这是一个已经解决的问题,将被嵌入到未来的神经网络架构中。

硬件

深度学习硬件才是进步的核心。现在让我们忘记2008-2012年深度学习的快速扩展,近年的进步主要取决于硬件:在社交媒体的帮助下,每部手机上的廉价图像传感器都可以收集巨大的数据集,但其只处于次级重要程度。GPU允许加速深层神经网络的训练。在过去2年里,机器学习硬件蓬勃发展,尤其是针对深度神经网络的硬件。

有几家公司正在这个领域努力,包括英伟达、英特尔、Nervana、Movidius、Bitmain、Cambricon、Cerebras、DeePhi、谷歌、Graphcore、Groq、华为、ARM以及Wave Computing等,他们都在开发定制的高性能微型芯片,能够训练和运行深层神经网络。

关键是提供最低功耗和最高的可测量性能,同时计算最近有用的神经网络操作,而不是每秒钟的原始理论操作。但是在这个领域很少有人了解硬件是如何真正改变机器学习、神经网络和AI的,很少有人知道微型芯片的重要性以及如何开发它们。

培训或推理:许多公司都在制造能提供神经网络训练的微型芯片。这是为了获得英伟达市场的一部分,它是迄今为止事实上的培训硬件。但这种训练只占深层神经网络应用的很小部分。对于每个训练步骤,实际应用程序中都有上百万个部署。

例如,你现在可以在云端使用的一个目标检测神经网络,它曾经被训练过一次,并且在很多图像上都是可以使用的。但是一旦经过训练,它就可以被数以百万计的计算机用于数十亿的数据。

我们在这里想说的是,训练硬件的重要性和你所使用的次数相比是微不足道的,而制作用于训练的芯片组需要额外的硬件和额外的技巧。

这将导致相同性能却消耗更高的功率,因此不是当前部署的最佳状态。训练硬件是很重要的,而对推理硬件进行修改却很简单,但它并不像许多人认为的那样重要。

应用程序:能够更快、更低功率地提供培训的硬件在这个领域非常重要,因为它将允许更快地创建和测试新的模型和应用程序。但真正重要的一步是应用所需的硬件,主要是推理硬件。

今天有许多应用之所以无法使用,主要是因为硬件而不是软件。例如,我们的手机可以是基于语音的助手,目前是次优的,因为它们不能一直运行。就连我们的家庭助理也离不开电源,除非我们在周围安装更多麦克风或设备,否则就不能跟着我们。

但也许最大的应用是将手机屏幕从我们的生活中移除,并将其嵌入到我们的视觉系统中。如果没有超级高效的硬件,所有这些和更多的应用将是不可能的。

赢家和输家:在硬件方面,赢家将是那些能够以最低功耗发挥更高性能、并能将设备迅速投入市场的公司。想象用手机代替SoC,这种情况每年都会发生。现在想象下将神经网络加速器嵌入到内存中。这可能会更快地征服市场,并快速渗透,这就是我们所说的赢家。

应用程序

我们在上面的“目标”部分简要地讨论了应用程序,但是我们需要详细讨论一下。AI和神经网络将如何进入我们的日常生活?这是我们的名单:

分类图像和视频:已经存在于许多云服务中。下一步就是在智能摄像头领域做同样的事情,今天在这里也有许多供应商。神经网络硬件将允许移除云并在本地处理越来越多的数据,保护隐私和节省网络带宽将成为赢家。

语音助理:它们正在成为我们生活中的一部分,可以在我们的智能设备中播放音乐和控制基本设备。但是对话是一种基本的人类活动,我们常常认为它是理所当然的。

你可以对话的小型设备是一场正在发生的革命。语音助理正变得越来越好,可以更好地服务于我们。但它们仍然与电网相连,我们想要的真正助理应该能随时伴在我们身侧。

手机怎么样?硬件在这里再次胜出,因为它将使上述期望成为可能。Alexa、Cortana以及Siri可以始终陪伴着你。手机很快就会成为你的智能家居设备,这又是智能手机的又一次胜利。

但我们也希望它在我们的车里,并伴随我们在城市中移动。我们需要本地处理语音,减少云端支持。更多的隐私和更少的带宽成本。硬件有望在1-2年内提供给我们。人工智能

烹饪机器人:下一个最大的设备将是烹饪和清洁机器人。在这里,我们可能很快就有硬件,但我们显然缺乏软件。我们需要转移学习、持续学习和强化学习。

一切都像魔法那样,因为你知道:每个食谱都是不同的,每种烹饪成分看起来都不一样。我们不能硬编码所有这些选项。我们真的需要一个可以学习和推广的合成实体来做这个。

我们离它还很远,但并非遥不可及。以目前的速度前进,可能只需要几年就能实现。正如我在过去几年所做的那样,我感肯定这些都能实现。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分