人工智能AI芯片真的来了吗?是宣传噱头还是发展趋势?

电子说

1.3w人已加入

描述

随着AlphaGo的诞生,“深度学习”日益普及,人工智能开始从智能化工具向智能机器进军。原有的MCU已无法满足深度学习的高速海量数据运算要求,AI芯片便应运而生。如今嵌入式芯片领域正面临AI芯片的新一轮机遇。那么在AI成为风口的当下,AI芯片到底是噱头还是发展趋势?嵌入式系统又该如何面对AI芯片带来的新一轮机遇?《单片机与嵌入式系统应用》小编特邀请了几位专家和工程师谈谈对此问题的看法,也欢迎大家留言讨论!

业界声音

AI芯片已然存在,与既往的嵌入式处理器不可混淆!

北京航空航天大学教授   何立民

“AI芯片”的确存在,其概念不仅被广泛应用,也无法用其他的概念,如MCU、MPU等所替代。

有的人认为不存在AI芯片,可能认为AI芯片只是原有嵌入式处理器的功能扩展而已。殊不知随着嵌入式处理器的功能不断外延,已从量变产生了质变。自从人工智能进入机器的深度学习时代,原有MCU的硬件加速已无法满足高速海量数值计算要求,以及大数据的云间交互要求。这样一来,在嵌入式领域便出现了MCU与AI芯片两个有本质差异的芯片群。前者是满足工具智能化的智能控制芯片(以控制见长);后者是满足智能机器深度学习的计算芯片(以计算见长)。

未来,在人工智领域会逐渐形成智能化工具与智能机器两大领域。目前,智能化工具领域业已成熟,智能机器领域依托AI芯片、神经网络、深度学习、云际交互逐渐向强人工智能领域进发。当前,AI芯片形式多样,属于初级发展阶段,尽管有些概念尚可商榷,但原有的各种嵌入式处理器的概念已无法沿袭,“AI芯片”可能会约定俗成。

以人脸识别为例,用于门禁的实时人脸识别,也许可以用MCU+图形加速器方案,但要从众多人群中实时识别特定的人脸,就要引入深度学习,不断提高其识别能力。为了与众多人脸对比,还要与云端大数据交互,无论多么高明的MCU都无法承担如此重任。也许“深度学习”、“云端交互”是AI芯片的两大重要特征。

目前AI芯片领域竞争激烈,也许一时难以形式统一的结构体系,但逐步完善后,作为嵌入式领域中的又一新兵,在人工智能领域,与MCU相互补充、各尽其职,既不可相互替代,又有不同的技术发展方向。MCU与AI处理器用在不同领域,两者都有巨大的发展潜力。

AI芯片真的来了吗?

西安电子科技大学电子信息与通信工程学科专业国家级实验教学示范中心主任、教授  陈彦辉

AI是当前IT领域乃至社会关注的热点之一,其基本愿景是人类充分享受人工智能带来的智能成果。人工智能顾名思义是人造的智能体,而这个智能体只有在通过了图灵测试才能称之为人工智能体,从此具备了人类的智能。

人工智能技术的研究早已有很好的成果,诸如人机围棋大战的深蓝和AlphaGo,可以说通过了图灵测试,具备了人类的智能。但其难以普及,其基本原因是其算法复杂性高、实现平台成本高。IT领域需要开发轻量级的人工智能成果,使其融入到人类日常生活中,诸如自动售货机、自动驾驶。这种轻量级的人工智能成果发展得益于低功耗、高集成度的半导体制造和先进的通信网络。前者产出速度更快、功耗更低的多核处理器系统及大容量可编程器件,使复杂的算法通过高速运算变为现实产品供人类消费;后者提供量大速快的通信网络系统以及宽带移动互联产品,为人工智能的应用提供更为广阔的空间。

目前所谓的“AI芯片”是为轻量级的人工智能成果发展需求而应运产出。绝大多数本质上是面向应用所开发的人工智能高速计算专用电路,无论如何包装,这种芯片永远只是一种特殊的专用器件,这种专用的AI芯片针对特殊领域具备了人类的基本智能能力:计算能力、控制能力、通信能力、情感能力或者是它们之间的组合。

未来的AI芯片是智慧级的人工智能成果,应该具备包括适应能力和学习能力在内的人类高级智能能力,如同新出生的婴儿一样,其智能能力是逐步成长的,同时与他/她成长环境有关。将来有一天,研究人员把人工智能算法采用模块化分析和形式化描述并融入现代嵌入式系统中,智慧级AI芯片才会粉墨登场,它不仅是基于存储和计算的,同时也是面向通信和逻辑的,具有若干人工模拟神经元构成的可编程的片上通信逻辑网络,依据成长环境生成人工神经元,构建具备软硬协同并行处理的人类智能系统,开创人工智能新纪元。

(这位嘉宾帅到不好意思露真容啦)

谈AI芯片——谈算法不谈智能,谈实现不谈芯片

郑州大乘信息科技有限责任公司  段新亚

说起来所谓的人工智能热潮,人工智能寒冬,已经至少是第三次了。第一次,在20世纪50年代左右,被称为人工智能之父的约翰麦卡锡创造了lisp语言,也引领了以symbol概念为核心的符号主义人工智能。第二次,在20世纪70年代左右,BP算法的提出,则是引领了一波以神经网络这个概念为核心的连接主义人工智能。而现在这一波人工智能概念重新被人们拉出来炒作,则是所谓以机器学习这个概念爆炒。但单讲机器学习这个概念,却发现无论是蒙特卡洛算法、贝叶斯定理、贝叶斯网络、NN神经网络、RNN网络,还是提出了一个包含多隐层的所谓深度学习,其实并没有见到什么新鲜的面孔,反而都是些几十年前早已经有的东西。可能唯一的不同是现在的硬件性能远远高于从前的硬件性能,FPGA、GPU、ZYNQ等更新鲜的设计模型,芯片工艺的大幅提升,让制作芯片的成本急剧下降,让从前很多在数学,在理论上已经的东西,可以在一个人所能接受的速度和响应环境下工作。

这也就提到了上述我的观点,我们谈算法不谈智能。所谓强人工智能,确实不是我们现阶段能实现的,获取暂且是连头绪都没有的虚无缥缈的目标。至少人类的认知和意识的模型,我不认为是现在盛行的神经网络连接主义的主流想法,将大量数据作为“经验”堆积出的回归算法。无论是最大似然估计的思维方式、symbole描述的方式,还是贝叶斯最大后验估计的做法,我们与其说做的是智能,不如讲我们在使用“看起来比较智能”的算法。

就像是冯.诺依曼认为蒙特卡洛算法是最接近上帝的思维方式的算法那样。一个靠随机数据堆积的,几乎不能被称之为算法的算法,又算的上什么上帝的思维?又算得上什么思维?

笔者认为AI芯片,不过是狭义的机器学习派系中大量的算法的不同实现方式罢了。与其去谈用硬件作为AI算法载体的芯片是否存在,不如去讲是用硬件作为算法载体的芯片是否存在。原本AI算法在评估后,也只是与常规的算法本质上无异的“算法”而已。算法是否可以由硬件直接作为载体,而不需要通过软件这个概念,答案当然是肯定的,原本软件就是以硬件为载体工作的。那这个意义上的AI芯片当然是存在的。

简单畅想一下人工智能的未来:现在这波基于机器学习和深度学习算法引爆的人工智能热潮,笔者个人不认为会维持多久。虽然因为硬件和芯片工艺的提升,让从前因硬件成为瓶颈的问题得到了一定程度的缓解。但哪怕完全解决了运算速度瓶颈,我们制造的不是智能,只是将计算机与统计学几十年前的技术做了一次深度结合罢了。

“人工智能芯片”——一个商业概念

赛诺微医疗科技(浙江)有限公司电子设计主管  唐思超

“人工智能芯片”是一个商业性概念,因为其技术本质仍未跳出现有技术体系,没有技术层面的本质革新。

自20世纪50年代人类首次提出人工智能概念,其范畴始终随着时间的推移而发生变化。广义上,可以认为人工智能就是用机器模拟人类的思维和推理,即一个系统在其原始程序设定之外的学习能力。

以近期炙手可热的智能手机“人工智能芯片”为例。依据厂商的宣传,这类人工智能芯片的主要功能是图像识别。然而,基于通用CPU、GPU、DSP或FPGA 就可以完成图像识别工作,只是效率的问题。那么,为什么还要单独使用“人工智能芯片”?厂商宣称,人工智能芯片独立的数据处理能力大大减少了将数据发送到云端进行处理的需求,可减少云端的数据处理时间;可降低终端CPU使用率,让其有更多的时间专注于其他任务;同时减少电池的消耗。可见,这类人工智能芯片的意义在于:可以加速处理机器学习、深度学习和神经网络依赖的特定类型的任务,因为其比通用CPU、GPU或DSP具有更强的浮点运算能力,同时具有更低的功耗。然而技术层面上,其并无本质突破。

放眼全球,主流半导体厂商都有推出各自的人工智能芯片方案。Intel有基于众核架构CPU的方案;NVIDIA有针对人工智能的GPU方案;CEVA和Cadence推出用于人工智能的DSP IP核;Altera(现属于Intel)、Lattice等可编程逻辑器件厂商推出基于FPGA的方案。此外,谷歌和IBM也推出了相关方案。

综上所述,人工智能的实现无法脱离芯片的支持,但“人工智能芯片”就目前的情况看有过分炒作之嫌。一些媒体鼓吹中国将依靠人工智能芯片弯道超车,依靠人工智能芯片打破西方x86、ARM等技术垄断。但目前来看,所谓的“人工智能芯片”只是特定算法加速器,仍是CPU、GPU、FPGA、DSP等技术手段的集成,前述媒体的论调显然缺乏基本的技术常识。认清所谓“人工智能芯片”的本质才能使全社会的注意力从“新瓶装旧酒”的各种眼花缭乱的应用提法转向真正的技术突破,避免重蹈中兴事件的覆辙。

编辑视角

各方观点不同,原因在于AI芯片确实不是一个新出现的事物,一时之间难以有一个明确的统一定义,只是希望芯片搭乘AI这股东风的同时,能够提供更便捷、更智能的应用,也算是完成了一次进化!

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分