未来研究领域再发力 英特尔推出两款计算芯片

电子说

1.2w人已加入

描述

据《数据中心白皮书(2018年)》统计,2013年以来,我国数据中心总体规模快速增长,到2017年底,我国在用数据中心机架总体规模达到166万架,总体数量达到1844个,规划在建数据中心规模107万架,数量463个。

其中,大型以上数据中心为增长主力,截至2017年底,大型以上数据中心机架数超过82万,比2016年增长68%,数据中心总体规模占比近50%,比2016年增长10%,预计未来占比将进一步提高。

“这是一个数据飞速增长的时代。”英特尔高级首席工程师、大数据技术全球CTO戴金权在15日英特尔开发者大会上说到,海量的数据的增长需要更大容量和更短的时延,因而网络则需要变得更智能。

他表示,英特尔正在创造创新技术来推动网络的转型。基于英特尔至强可扩展处理器的平台性能通过持续地投资也在不断增强。自平台推出以来,其针对框架优化速度提升了2.8倍,而INT8推理速度则提升了5.4倍。随着新一代面向AI重新设计的英特尔至强可扩展处理器的推出,推理速度更有望提升至11倍。英特尔深度学习加速将采用矢量神经网络指令集(VNNI),用于加速推理。

未来研究领域再发力英特尔推出两款计算芯片

未来对英特尔傲腾数据中心持久内存的平台支持Cascade Lake,还将扩展CPU附近的内存容量,以支持对更大数据集的训练。除此之外,Cascade Lake优化了内存层级,缓减了安全风险等。

值得一提的是,日前英特尔宣布英特尔至强处理器产品家族迎来两位新成员:Cascade Lake-AP(预计2019年上半年发布)和面向入门级服务器的英特尔至强E-2100处理器。

“尽管人工智能发展迅猛,但我们仍处于AI的早期。”戴金权表示,展望未来,英特尔将在研究领域发力,推出代号“Loihi”的神经计算芯片以及代号“Tangle-Lake”49量子计算芯片。

Loihi芯片采用14纳米FinFET工艺

“人工智能是一种工具,而不是目标。”英特尔中国研究院院长宋继强大会上说到,将赋能给开发人员,让人工智能在商业中大显身手。而在此背景中,可自主学习的芯片应运而生。

2017年9月,英特尔就曝光了其代号为“Loihi” 的首款能够进行自主学习的神经拟态芯片,这是一种为英特尔的概率计算而设计的芯片。英特尔认为,概率计算是通往人工智能的重要一步。

Loihi芯片可以像人类大脑一样,通过脉冲或尖峰传递信息,并自动调节突触强度,通过环境中的各种反馈信息,进行自主学习、下达指令。它可以利用少量的数据就能进行自主学习并作出推断,随着时间的推移将变得更加智能,不需要以传统大量数据训练的方式进行。

不过,当时还只是FPGA模拟,而现在已经完整成型,是一颗拥有完整功能的硅芯片。在此次开发者大会上,宋继强再次详细推出了此款芯片,包括128个神经拟态内核,支持128K神经元和128M突触,具有高级脉冲神经网络特征集。并且支持高度复杂的盛景网络拓扑结构。

“这款芯片区别有现在市场的芯片是可自主学习。”宋继强表示,Loihi芯片可扩展片上学习能力,支持远多于以往的学习算法。

此外,此款芯片采用英特尔14纳米FinFET工艺技术制造,预计2019年投入使用。

在人工智能与大数据紧密结合的今天,基于现有大数据集群的AI模型训练与推理就显得尤为重要,英特尔APache Spark作为“统一分析+AI平台”而“降生”。

戴金权在大会上介绍,基于APache Spark的BigDL 是面向 Spark的分布式深度学习库,可在现有的 Spark 或 Apache Hadoop集群上直接运行。其允许将预先训练的 Torch模型载入Spark 框架,并且有效地进行横向扩展,以针对大规模数据实施数据分析。

事实上,Big DL 等框架与最终的AI应用还是有很大距离。英特尔在 Apache Spark和Big DL的基础上又构建了Analytics Zoo大数据分析和人工智的平台。某种意义上,它是Spark 和 BigDL的扩充,其目的是方便用户开发基于大数据端到端学习的应用,除了内置的模型和特征工程操作之外,里面还提供了大量的高级的流水线支持,能够使用Spark DataFrames、ML Pipelines的深度学习流水线,通过迁移学习的API 构建API模型的定义。

目前,Analytics Zoo和BigDL能在包括AWS、阿里云、百度云等几乎所有的公有云平台上使用。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分