GPU/FPGA脱颖而出,CPU/DSP还有哪些可能

处理器/DSP

869人已加入

描述

2017年12月,IBM推出首个为AI而生的服务器CPU POWER9,旨在为数据密集型人工智能工作负载管理自由流动数据、流传感器及算法。该处理器采用14纳米技术,嵌入80亿个晶体管。

POWER9试图通过最新的技术和联盟来解决系统短板——异构处理器是否有足够的带宽与系统的其它部分进行通信。

从通用CPU到AI定制CPU,POWER9代表了CPU行业在AI领域的发展趋势。

对于云端AI芯片市场,小公司只能觊觎,这是一场属于寥寥可数大公司的权利游戏,云端发展不只需要有高运算力的芯片,还得营造出生态系,基本上供应商就是这几家巨头。但对于终端市场,能实现更小功耗、更低成本的xPU与ASIC将成为主流。这就注定通用AI芯向专用AI芯发展的趋势。

AI通用芯玩法

CPU & GPU

黄仁勋曾表示:GPU不会替代CPU,它是携手和CPU共同工作的,这也是我们为什么把它称之为加速器,CPU是通用型的,什么场景都可以适用。但是GPU在一些专门的问题上是能量非常大的。它的性能要比CPU超过10倍,50倍甚至百倍。最完美的架构就是“万事皆能的CPU”+“胜任重大计算挑战的GPU”。

我们先来看看CPU与GPU的对比情况:

dsp

英特尔CPU与英伟达GPU性能对比图

CPU功能模块很多,能适应复杂运算环境;GPU构成相对简单,对Cache需求小,大部分晶体管可以组成各类专用电路、多条流水线,使得GPU的计算速度有了突破性的飞跃,拥有了更强大的处理浮点运算的能力。

dsp

CPU与GPU结构对比示意图

GPU未来的主攻方向是高级复杂算法和通用性人工智能平台。但GPU无法单独工作,必须由CPU进行控制调用才能工作。这也就是黄仁勋为何强调“CPU+GPU”的模式了。

CPU向AI发力的重要一大方向就是加速了CPU和GPU、FPGA甚至TPU之间的通信。POWER9也印证了这一观点,POWER9将加速POWER和GPU、FPGA、TPU之间的合作。比如支持最新的英伟达Nvida NVLINK技术,可大幅提升GPU与CPU之间的数据交换速度。

dsp

GPU未来的主攻方向是高级复杂算法和通用性人工智能平台。

FPGA

FPGA兼顾了低功耗和高运算能力的优势,FPGA在AI领域的优势是加速和异构计算,比如腾讯云的FPGA加速可以实现比通用CPU型服务器快30倍的性能。

FPGA和GPU未来在超级数据中心将成主流应用,尤其是在深度学习方面,在这方面GPU强在训练,而FPGA强在推断。

赛灵思曾表示:伙伴厂商利用FPGA芯片进行基因体定序与优化语音识别所需的深度学习,察觉FPGA的耗能低于GPU且处理速度较快。相较于GPU只能处理运算,FPGA能以更快速的速度一次处理所有与AI相关的信息。

DSP

DSP是AI通用芯里面最低调的,或者说最受重视的。

我们先来看看骁龙845如何发挥AI实力吧。

与华为、苹果采用ASIC方式来不同,高通骁龙845利用基于分布式架构的神经网路处理引擎(SNPE),运行在骁龙异构平台的CPU、GPU、DSP等每一个单元上。

dsp

dsp

Hexagon 685 DSP不仅只是一块用于处理语音和音频的解码器,由于采用了异步计算架构,支持矢量计算,因此可用于AI以及神经运算,在虚拟现实、增强现实、图像处理、视频处理、计算视觉等功能中发挥作用。

DSP核心主要供货商CEVA认为,若要在嵌入式系统中实现CNN(卷积神经网络),DSP将能取代GPU和CPU,因CNN在本质上,就十分适合运用DSP。

DSP能够实现平行处理,核心利用率高。据悉,相较GPU只能达到40~50%的使用率,DSP甚至达到90%以上的核心使用率。业内专家表示,对于一些应用场景,以DSP架构驱动的CNN引擎,在成本与功耗上皆具优势。

关于AI通用芯的情况就讲完了。

回顾2017,我们发现我国的AI芯热主要集中于半定制化芯片与全定制化ASIC芯片领域。与非网友关于“集成电路最难攻克的环节(芯片),在AI大环境下,一切都变得那么EASY?”的问题,我们将在下期《AI发现》中找出答案。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分