Nvidia制定了清晰的AI战略,英特尔在AI芯片市场该如何反击?

人工智能

633人已加入

描述

8月27日,英特尔已经是x86服务器市场的垄断者,成功遮住了双眼,它忽视了移动设备的崛起,对GPU加速系统大爆炸反应迟钝,最终,当奄奄一息的AI再获新生、变成一个前景可观的市场时,Nvidia成为主角,英特尔落选。

AI就是下一代计算,Nvidia制定了清晰的AI战略,它用历史数据来认证自己的观点:GPU已经打破摩尔定律设置的障碍。有些人甚至开始高呼“黄仁勋定律”。黄仁勋正是Nvidia的创始人。在过去3年里,Nvidia营收翻了一倍,股价更是上涨10倍。

以前,在英特尔眼里Nvidia只是小角色,向自己的PC伙伴提供小众产品,一夜之间,它成为新市场举足轻重的玩家,而英特尔却呆呆旁观。

巨人已经觉醒。英特尔明确向世人暗示,在AI市场,它不会重蹈移动市场一样的错误,不会将AI市场割让给对手。英特尔已经知道,AI是数据中心业务增长的关键,在未来5年里,AI芯片销售额的年复合增长率估计会达到30%。

正因如此,在最近的数据中心创新峰会(Data-Centric Innovation Summit)上,英特尔才会高调进军AI芯片市场,还说去年公司的AI芯片营收已经达到10亿美元。

AI芯片市场不只有GPU还有其它

Nvidia刻意强调说,目前的AI发展以是GPU作为根基的,它的说法有相当高的可信度,但是忽视了一些事实。

按照英特尔的解释,这种说法最大的问题在于忽视了AI软件与GPU硬件的融合,AI运行是相当复杂的,不可能一招通吃,所以上述论断过于简单。

英特尔AI产品集团主管 Naveen Rao曾经在博客中指出,近几年AI取得成功主要依赖三大支柱:一是软件工具的优化和成熟,二是硬件更加出色(多种形式的硬件,不限于GPU),三是研发生态系统欣欣向荣,而且许多时候还是开源的。

Naveen Rao进一步强调说:

“客户发现,没有什么单一的好硬件可以应付各种各样的应用,因为AI的类型不是单一的。受到应用的限制,从数据中心到边缘设备,需要的能力各有不同,所以我们需要多种多样的硬件组合形式。覆盖多种多样的应用,就可以为英特尔客户带来最高的投资回报。”

深度学习模式越来越复杂,需要强大的并行处理能力,不过Naveen Rao认为,它只是AI软件生命周期的一部分。

联想一名AI高管曾经在文章中介绍说,从构想到部署,总个周期相当漫长,涉及到规划、数据收集、验证,开发部署模型时也要经历这样的流程。

Naveen Rao在峰会上曾表示,AI的执行环境多种多样,有小设备,比如物联网传感器和手机,也有自动驾驶汽车,远程设备,它们处在网络边缘,还有分散系统,比如云数据中心。

英特尔AI战略的基石是“宽度”,就是说英特尔有多种多样的技术,可以用在多种多样的环境中使用,另外,英特尔还向开源项目投资,增强软件性能,提高开发者的生产力。

按照Naveen Rao的说法,英特尔AI战略会用“三条腿”走路:一是工具(软件),二是硬件,三是社区(开发者生态系统)。 从英特尔的AI产品组合可以看出,它能满足各种需要,无论是端点、边缘系统还是数据中心,都可以使用英特尔产品。在英特尔帝国内已经有许多AI技术,有些是英特尔自己开发的,有些是收购的,比如:

——低能耗Atom处理器,内置Movidius视觉处理单元(VPU),用于物联网和移动设备。

——Mobileye先进驾驶员辅助系统(ADAS)和EyeQ芯片,用于无人驾驶汽车。

——桌面及移动x86处理器,内置GPU、GNA神经网络协处理器和Inference Engine加速技术。

——基于Altera开发的FPGA,它既给低能耗嵌入式系统用(Arria 系列产品),也给高性能数据中心用(Stratix系列产品),在实时数据评估中,可以加速深度学习模型的执行速度。Altera是英特尔收购而来的。

——Nervana神经网络处理器,它用高性能、灵活的GPU处理相同类型的模型训练和推断任务。

——Xeon Scalable x86处理器,用于执行一般任务,训练轻量级AI模型,完成繁重的模型推断工作。

产品消息不多

在峰会上,英特尔的重点只是讲述战略,所以没有过多谈到产品,这也是情理之中的事。不过在会议上英特尔的确谈到一些新AI技术,以及升级的AI技术,具体有如下几种:

——DL Boost x86指令,通过支持低精度16位浮点运算,它可以让深度学习运算加速,与AVX-512指令是兼容的。

——VNNI指令集(Vector Neural Network Instruction),它相当于AVX-512的扩展指令,通过支持8位乘法和32位加法,可以让深度神经网络训练进一步加速。Cooper Lake Xeon处理器将会引入DL Boost和VNNI,新处理器2019年推出,它是Cascade Lake的接班人。

——nGraph编译器,它可以优化AI代码,方便代码应用于不同的硬件平台。nGraph支持多种技术开发的模型。

——升级MKL-DNN数学库,改进矩阵乘法性能。

——展示Nervana NNP L-1000 神经处理器,它的目标是挑战GPU,帮助数据中心完成深度学习任务。

英特尔数据中心CPU架构主管 Sailesh Kottapalli介绍说,除了提升矩阵乘法计算能力,支持低精度和混合精度运算,未来Xeon处理器还会增加各个层级的缓存大小,扩充存储带宽,缩短延迟时间。所有这些都会提升AI性能,让通用CPU有能力替代GPU,完成许多工作。

最好的思考

英特尔收购了许多AI企业,比如Nervana,Movidius、Mobileye,最近还收购了Vertex.ai,这样英特尔就可以制定连贯的策略,解决各种AI问题。

因为AI工作多种多样,运行AI软件时设备的资源受到限制,所以英特尔拥有多种组合产品还是蛮重要的。不过英特尔的战略横跨几个处理器架构和指令集,所以优化工作必须做好。

Nvidia的产品没有英特尔那么丰富,它的GPU分成大中小三等,分别是Volta、Xavier和Jetson,都用到了CUDA编程平台。虽然Nvidia拥有先发优势,但是随着时间的推移,它的优势会削弱,因为开发者会接受更加先进的AI框架,比如TensorFlow,先进框架可以让开发者瞄准其它平台。

另外,Nvidia的神经网络优化GPU(配有Tensor内核)性能不错,现在还有优势,但是未来优势会缩小,因为下一代英特尔Xeon处理器推出之后,x86系统的性能会进一步提升,可以帮助数据中心做更多的事情。

英特尔说去年它的AI芯片销售额达到10亿美元,如果数据是真实的,我们可以断言英特尔已经在早期赢得许多企业的支持,在飞速膨胀的市场,它已经成为重要的竞争者。

就眼下来说,在硬件和软件工程方面,英特尔需要将关键工作做好,然后将各部分融合,将产品抛向市场,让购买者无法抗拒诱惑。

整个市场都对Nvidia入迷,不过如果认为英特尔已经失败,无力反击,那就大错特错了。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分