一文知道人工智能芯片的算法

电子说

1.2w人已加入

描述

  人工智能的三大核心,是深度学习算法、数据和算力。在这三大要素中,大数据的获取和处理难度在下降,算法也在深度学习模型的基础上不断优化,而统一协调数据和算法的AI芯片能否获得大的飞跃,成为市场关注的焦点。

  根据Gartner数据,全球各大芯片公司、互联网巨头和创业企业都在AI芯片市场竞争,预计到2023年全球市场规模将达到323亿美元,其中数据中心、个人终端和物联网芯片是增长重点。

  

  深度学习算法对芯片性能需求主要为:大数据在计算和存储单元之间的高速通信需求;专业计算能力需求,深度学习算法中有大量卷积、残差网络、全连接等特殊计算需要处理,需要需要提升运算速度,降低功耗;大数据对芯片提出的新要求,非结构化数据增多,对传统芯片结构造成较大压力。

  通用CPU在深度学习中可用但效率低。比如在图像处理领域,主要用到的是CNN(卷积神经网络),在自然语言识别、语音处理等领域,主要用到的是RNN(循环神经网络),虽然这两种算法模型有较大差别,但本质都是向量和矩阵运算。

  正因为CPU在AI计算上的弱点,给了可以实现海量并行计算且能够计算加速的AI芯片开拓了市场空间。AI芯片,包括基于传统架构的GPU、FPGA以及ASIC,也包括类脑芯片和可重构AI芯片等。

  AI芯片还可以按照部署位置划分为云端芯片和边缘端芯片。云端芯片部署位置包括公有云、私有云、混合云等,主要用于处理大数据和大规模运算,还能够支持语音、图片、视频等非结构化应用的计算和传输,可用多个处理器并行完成相关任务;边缘端AI芯片主要应用于嵌入式、移动终端等,如摄像头、智能手机、边缘服务器、工控设备,此类芯片一般体系小、耗电低,性能要求略低,一般只具备少量AI能力。

  同时AI芯片按照任务还可以划分为训练芯片和推理芯片。训练芯片通过大量标记过的数据在平台上进行“学习”,并形成具备特定功能的神经网络模型;推理则是利用已经训练好的模型输入新数据通过计算得到各种结论。训练芯片对算力、精度要求高且需要一定的通用性,推理芯片更注重综合能力,包括算力能耗、时延、成本等。

  训练芯片由于对算力的要求,只适合在云端部署,多采用“CPU+加速芯片”,加速芯片可以是CPU、FPGA或者ASIC。AI训练芯片市场集中度高,英伟达和谷歌领先,英特尔和AMD正在发力。推理芯片在云端和终端都可以进行,门槛低,市场参与者多,比如英伟达、谷歌、赛灵思、寒武纪等。终端推理芯片市场较为分散,参与者有英伟达、英特尔、ARM、高通、寒武纪、地平线、云知声等。

  GPU、FPGA、ASIC各有特点和优势。GPU是由大量核心组成的大规模并行计算架构,专为多任务并行运算处理设计的芯片。以英伟达的GPUTITANX为例,其在深度学习中所需的训练时间是CPU的1/10以下,但缺点是功耗高。

  FPGA灵活性最高,可根据用户需求,用硬件描述语言对FPGA的硬件电路进行设计。同时FPGA具有算力强、功耗优势明显、成本可控等优势,但是技术难度大,目前国内公司差距明显。基于此,FPGA被广泛应用在AI云端和终端推理,亚马逊、微软都推出了基于FPGA的云计算服务,国内包括腾讯云、阿里云和百度大脑也有所布局,但差距较大。从市场上看,FPGA被赛灵思、英特尔、Lattice和Microsemi垄断,其中赛灵思和英特尔市场份额超过90%。

  ASIC是对特定用户需求设计的定制芯片,性能强、体积小、功耗低、可靠性高。ASIC是一种技术方案,产品和功能可以是多样的。越来越多的公司开始采用ASIC芯片进行深度学习算法加速,比如Google的TPU。但是ASIC研发周期长,商业应用风险大。国内寒武纪开发的Cambricon系列处理器就在此列中,华为海思的麒麟980处理器搭载的NPU就是寒武纪的处理器IP。

  整体来看,短期GPU仍然主导AI芯片市场,GPGA使用更为广泛。长期来看GPU、FPGA和ASIC三大技术路线将并存。GPU主要方向是高级复杂算法和通用型人工智能平台,FPGA在垂直领域有较大空间,ASIC长远来看适用于面向各种场景的定制化需求。

  目前国内人工智能芯片行业发展处于起步阶段,在GPU和DSP设计上处于追赶状态。但全球芯片生态上并没有形成全封闭式垄断,国内芯片厂商尤其是专用芯片设计厂商,还是存在弯道超车的机会,其主打的应用场景为云端数据中心、自动驾驶、智能家居和机器人领域。随着5G和物联网等应用的成熟落地,相关芯片产品的市场空间将进一步扩大。
 责任编辑人:CC

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分