清华大学魏少军教授:从IA到AI,我们还要走多远

描述

7月1日,在雷锋网主办的2018CCF-GAIR全球人工智能与机器人峰会的AI芯片专场会议上,清华大学魏少军教授就人工智能技术和人工智能芯片面临的挑战,2025年人工智能技术推动的半导体市场增长趋势,人工智能芯片的架构创新怎么做等热点问题带来精彩的演讲。

图:清华大学信息科学技术学院 副院长 魏少军教授

人工智能对人类社会的影响非常深远。全球知名咨询企业麦肯锡对9个垂直领域的300多个实际案例分析,得出结论:人工智能将在几乎所有的垂直领域产生深远的影响。人工智能与移动互联网创新发生时不同的一点是:移动互联网创新大量发生在软件领域,而人工智能50%的创新将发生在硬件领域,硬件将占据人工智能技术产生价值的大部分。

魏少军教授指出,未来10年,人工智能和深度学习将成为提升硅片需求的主导因素。到2025年,人工智能将推动半导体产业收入超过600亿美元,接近全球半导体销售的20%。

现在业界的AI芯片是否做得很好呢?魏少军教授指出,西方学者认为与其说我们今天做的是人工智能(Artificial Intelligence),还不如说我们做的是增强智能(Intelligence Augmentation, IA)。基本人工智能算法还远远没有达到我们的要求。

魏少军教授认为,AI技术在不断进步,但目前还主要集中在单个事物的训练和推理上,要让AI真的可以像人类一样同时做出多个判断和决定,算法研究还需要更伟大的突破。

人工智能算法研究存在两大问题:第一、算法仍在不断演进,新算法层出不穷。第二、一种算法对应一种应用,没有统一的算法。一个复杂具有智能的系统应该具备多输入,多输出系统,具有高度复杂及高度灵活的互连结构,多任务且高度并行化运行系统,多处理器单元系统,并行分布式存储,并行分布式软件,分布式处理与集中控制系统。

人类大脑可以多个决策同时做,这恰恰是今天的人工智能远没有做到的。机器和人脑之间差别巨大,人的大脑140亿神经元,传输速率120米每秒,人脑可以完成每秒10的16次方的运算,我们大脑的功耗很低只有20多瓦。超级计算机可以用多个芯片来实现10的30次方每秒的运算,工作频率每秒42亿次,耗电量24兆瓦。占地面积720平方米,重量5吨。

魏少军教授指出,AI芯片是AI技术发展过程中不可逾越的关键阶段。不管有什么好的AI算法,要想最终得到应用,就必然要通过芯片来实现。
 

实现人工智能,只能用芯片。我们有CPU,GPU,FPGA,ASIC。这些芯片在人工智能出现之前就已经存在,为什么可以完成人工智能的任务?即便完成了,是否是最好的呢?计算是根本点,需要一个很好的计算引擎。高能效通用深度学习引擎是AI芯片,具备八大基本特征(见下图)。

魏少军教授强调说,AI芯片的应用,除了给出更为智慧的结果外,最重要的是它具备了不断学习和优化的能力,这将使得芯片随着应用的增加不断进化,变得更聪明,更有差异化。

要想让AI芯片能够在使用中变得更加聪明,架构创新是它面临的一个不可回避的课题。实现智能的软件必须有办法让芯片的功能不断变化,以支撑更“智能”的应用需求。

实现智能的核心是软件,智能软件,是实现智能的载体。智能软件有自己学习的能力,形成知识和经验的能力,持续改进和优化的能力,再生和组织能力,思维逻辑推理的能力,做出正确判断和决策的能力。智能芯片则是承载所需的计算。

美国最新推出电子复兴计划(ERI),其中软件定义硬件是ERI 6个子项目之一。美国人看到软硬件结合,硬件的可变性是未来的趋势,建立在运行时可以实时变化的软件和硬件,能够达到专用集成电路的系统,同时数据运行又不失其可编程性,即软件定义芯片。

魏少军教授指出,可重构芯片技术允许硬件架构和功能随软件变化而变化,实现软件定义芯片,在实现AI功能时具有独特的优势和广阔的前景。动态可重构技术芯片技术是替代ASIC和FPGA的新型电路技术,有望为我国芯片技术摆脱跟随模仿、实现跨越提供一条全新路线。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分