四大芯片巨头在AI领域的布局

人工智能

621人已加入

描述

导读:近来,芯片巨头在AI领域动作频频。

5月下旬,在英特尔首届AI开发者大会(Intel AI DevCon 2018)上,其全球副总裁兼人工智能产品事业部总经理Naveen Rao表示,英特尔正在开发第一个商用神经网络处理器产品英特尔Nervana NNP-L1000(Spring Crest),计划在2019年发布。据他表示,该芯片相较于去年10月推出的代号为“Lake Crest”专用人 工智能芯片NNP优化实现3-4倍的训练性能。

本月初,英伟达正式发布了全新AI芯片“Jetson Xavier”,在CEO黄仁勋看来:“这台小电脑,将成为未来机器人的大脑”,将该芯片的使用范围清晰定义在机器人领域。

AMD近日公开了全球首款7纳米制程,名为“Radeon Vega”的GPU芯片原型。

IBM在近日提出了全新的芯片设计,可以通过在数据存储的位置执行计算来加速全连接神经网络的训练。

英特尔:深度学习训练性能提升100倍

对于英特尔来说,想要在巨头扎堆的AI芯片战场上站稳脚跟并不容易。PC时代,英特尔以90%的市场份额几乎完全垄断了CPU市场,但随着GPU和各类可替代处理器的不断推陈出新,CPU的市场开始萎缩。

正是发现了这一趋势,英特尔也开始依托产业平台转型,争取搭上人工智能的未来浪潮。收购“Nervana”便是浓墨重彩的一笔。

2014年4月,Nervana以打造“深度学习专用硬件”为主营业务正式成立,从成立之初到三轮共2050万美元融资,到被英特尔收购。三年半时间,终于去年10月公布了Nervana NNP系列初代芯片“Lake Crest”,于去年年底开始出货。

据了解,这款神经网络处理器的设计目的是为了快速解决AI应用遇到的数学问题,特别是神经网络,是目前比较流行的机器学习技术分支。

前Nervana CEO、英特尔全球副总裁兼人工智能产品事业部(AIPG)总经理 Naveen Rao

在此基础上,本次AI开发者大会上Naveen Rao公开了英特尔新一代AI芯——英特尔Nervana NNP-L1000,代号为“Spring Crest”的专用人工智能芯片,与“Lake Crest”只供应给一小部分英特尔合作伙伴不同,“Spring Crest”成为英特尔第一款商用神经网络处理器,并计划在2019年发布。

英特尔的目标是,到2020年将深度学习训练的性能提升100倍,具体实现路径是通过Crest的家族,与前代相比,新一代芯片将实现3-4倍的训练性能。

英伟达:Titan+DRIVE+Jetson

去年12月,英伟达推出了重磅产品“Titan V”PC GPU,该款GPU拥有110万亿次浮点运算性能,是其去年4月份公布的架构Titan Xp的9倍,和用于数据中心的英伟达Tesla V100 GPU一样,Titan V也更加清晰地面向AI。

据黄教主介绍说,“Volta”系列的“创生”主要为推动高性能计算和人工智能的极限:“我们用新的处理器架构、指令、数字格式,以及存储器架构等打开新的局面。”

在自动驾驶领域,英伟达的“DRIVE”系列也是各个性能爆表。去年10月,发布了“DRIVE PX Pegasus”自动驾驶平台,载了两颗Xavier芯片,以及Volta架构GPU,高配置让其拥有了高达320 TOPS的深度学习处理能力,这个数值是上一代DRIVE PX平台的数倍。而仅仅在两个月后的“CES 2018”上,黄教主在主题演讲中展示了NVIDIA最新的自动驾驶技术“DRIVE XAVIER”,在各种“核弹”级参数下,这款芯片在2018年Q1开始流片。

作为Issac项目的嵌入式硬件平台,Jetson主要面对的应用场景是机器人。相较于此前TX1(Maxwell架构)、TX2(Pascal架构)型号,加了“Xavier”的Jetson含了六颗处理器,每秒可执行30万亿次操作。

据了解,打造这款芯片足足耗费了五年的时间——三年设计、两年筑造,共有超过8000人参与了设计与开发,是Nvidia单独做过的最长的处理器项目。它的处理能力与配备了10万美元GPU的工作站大致相同,但功率仅为30瓦。当前Nvidia的技术,已经被一些企业用于自主仓库机器人、机器采摘和农业机器人。

AMD:与英特尔合作牵制英伟达

无论在CPU还是GPU的市场份额上,AMD在短期内都无法撼动英特尔和英伟达的行业霸主地位。

但面对英伟达频频推出“核弹”,英特尔和AMD开始了合作牵制策略。去年11月,AMD和英特尔又联手向英伟达发起挑战,正式宣布联手推出集成英特尔处理器和AMD图形处理器的用于轻薄便携笔记本电脑芯片。

分析人士称,AMD、英特尔、英伟达未来的竞争主要在人工智能领域。

AMD首席执行官Lisa Su展示最新的7nm GPU

AMD此次公开展示的全球首款7纳米制程的GPU芯片原型是对这个预言的应验。这款含有32GB高带宽内存的芯片,专为人工智能和深度学习设计,用于工作站和服务器。

据了解,Vega性能相比上一代节点(14纳米)性能提高35%,能效提高两倍,密度也翻了一番。

IBM:DNN算力是GPU100倍

IBM在最近发表在Nature上的一篇论文中表示说,IBM Research AI团队用大规模的模拟存储器阵列训练深度神经网络(DNN),达到了与GPU相当的精度。

用GPU运行神经网络的方法近年来已经通行人工智能领域,然而两者的组合其实并不完美。IBM 研究人员希望专门为神经网络设计一种新芯片,使前者运行能够更快、更有效,据研究人员称,IBM全新芯片可以达到GPU 280倍的能源效率,并在同样面积上实现100倍的算力。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分