电子发烧友网报道(文/李宁远)近日,韩国政府拟与AI芯片、云计算企业联合,组建团队研发高算力、低能耗的神经网络处理器NPU推理芯片。这一举措的目的是与英伟达竞争并避开英伟达主导的图形处理单元GPU市场。
自OpenAI旗下的智能聊天机器人程序ChatGPT去年年末发布后,全球掀起了一波人工智能热潮,热度持续至今。ChatGPT超出人们预期的智能化表现掀起了人工智能领域的技术革命。这一场生成式人工智能热潮催生了海量的数据,处理海量的数据离不开背后庞大的基础算力作为支撑。
CPU、GPU和DPU作为人们熟知的人工智能场景中重要的算力芯片,能够为高带宽、低延迟、数据密集的计算场景提供计算引擎,是未来处理超算流量和安全网络存储的核心硬件。而神经网络处理器NPU作为一种专门用于进行深度学习计算的芯片,在大算力应用场景的应用优势也正被业界广泛看好。
NPU,为深度学习计算而生
早在2011年,Google就已经提出了利用大规模神经网络进行图像识别的技术,由于深度学习计算需要大量的计算资源和算力支持,此时传统的CPU和GPU并不能完全满足这种需求,因此NPU应运而生。
设计NPU的目的就是为了进行深度学习计算,其特点是具有极高的计算效率和能耗效率,能够运行多个并行线程在短时间内完成大规模的神经网络计算任务。NPU的计算单元通常采用矩阵计算、向量计算等方式以保证快速完成计算任务。
同时为了计算单元快速处理数据,其存储通常采用高速缓存和显存的结合方式,方便更快地存取和读取数据。这种设计在降低计算延迟和提高复杂计算任务稳定性有着很明显的帮助。
NPU和TPU、BPU这些AI芯片一样,同属于ASIC专用集成电路,是为特定应用场景(如NPU的神经网络和深度学习场景)而设计的定制芯片,其开发成本高且周期长,但在性能和功耗上优于同时期的GPU和FPGA。
传统的ASIC在开发完成后是不能更改的,这一点上NPU还是略有差异,NPU一般会具有一定的可编程性,可以通过更改配置适配不同的计算任务,所以其日后的应用空间也远不止局限于深度学习模型。
NPU这种专用芯片在特定的人工智能需求下提供了一种提升算力和能效比的新思路。虽然GPU已经针对AI算法加强了并行计算单元,但NPU更容易从高规律性的深度神经网络中获益,短时间内完成大规模的神经网络计算任务。
在ChatGPT拉高算力需求的背景推动下,NPU开始进入发展快车道。
大模型需求推动NPU产业发展
目前,国内人工智能芯片行业里GPU仍然是首选,根据IDC的数据,GPU占有90%以上的市场份额,而NPU、FPGA和其他ASIC等非GPU芯片占有的市场份额相对较少,整体市场份额接近10%,其中NPU的占比为6.3%。
在这条新赛道上,还没有哪一家厂商成为巨头主导市场,韩国政府与AI芯片、云计算企业联合发展高算力、低能耗的NPU也正是为了避开了英伟达主导的GPU市场,开辟一条新的增强AI芯片实力的道路。
今年4月已有韩媒BusinessKorea报道,三星半导体已成功量产采用三星14nm制程工艺第一代WarBoy NPU芯片,速度可以达到普通GPU的十倍,预计不久后投入市场,同时第二代WarBoy NPU芯片预计采用5nm工艺,明年或可推出。
国内NPU行业也是潜力十足,不同于CPU、GPU国内起步较慢,国内芯片设计公司在NPU这条赛道的起步时间不晚,已经有不少相关产品量产并推出应用。
华为海思自研的Da Vinci架构昇腾NPU已经在移动端AI计算领域中崭露头角,张量化的立体运算单元提供了业界领先的量化精度,在移动端AI计算中用于图像识别、语音识别、AR SLAM等应用大幅提升了运算速度。
紫光展锐的NPU也在旗下多颗SoC中搭载,采用新一代高能效NPU+VDSP架构,垂直优化计算能力,其中NPU算力达到8TOPS,相比上一代提升67%,支持图像超分、视频增强、语义分割、目标检测、文本识别等AI应用。
阿里的含光NPU也是用了自研的硬件架构,集成了达摩院先进算法,针对CNN及视觉类算法深度优化计算、存储密度。国科微的NPU芯片同样自主自研,目前相关产品正在落地,今年会择机发布嵌入自研NPU、带算力的相关产品。
寒武纪的NPU也是国内很早进入NPU赛道的玩家,目前NPU产品主要包括寒武纪1A、寒武纪1H、寒武纪1M等,其IP指令集已扩大范围授权集成到手机、安防、可穿戴设备等各类终端芯片中,整体性能上与国外厂商比肩。
芯原股份的Vivante NPU IP也已经应用于百款人工智能芯片中,不仅可满足多种芯片尺寸和功耗预算还可以结合芯原自有的其他处理器IP。同时芯原还将自有的GPU和NPU原生耦合,利用芯原独有的FLEXA低功耗低延迟同步接口通信技术,实现二者的高效协同计算和并行处理。
还有不少国内厂商在NPU已有建树,如中星微的VC0616 NPU、OPPO的自研NPU MariSilicon X、瑞芯微的自研NPU、爱芯元智的Neutron NPU等等。
未来NPU如何发展?
NPU作为一种专门针对深度神经网络计算的硬件器件,随着深度学习技术的不断发展,越来越多的算法模型加入,NPU 的多样化肯定会越来越重要。目前NPU在图像识别、自然语言处理以及传感器数据处理上所展现出的强大计算性能,已经从IoT、消费电子领域开始向汽车自动驾驶领域等更广泛多样的场景延伸应用。
另一个发展趋势则是独立化,目前大多数NPU都需要与其他CPU/GPU等配合使用才能完成整个计算任务,对其他芯片的依赖度较高。未来NPU集成度进一步提高,能独立完成计算任务后其应用空间将更为广阔。
写在最后
NPU的诞生就是为了应对深度神经计算,在ChatGPT将算力需求再推上一个新台阶后,NPU芯片显著的能耗节约优势和高效的计算效率在算力需求愈发凸显的当下已经显露了不少发展机遇,在市场需求的推动下相关产业发展也开始加速。
和其他AI芯片相比,NPU依赖定制化,国内厂商在这一方面很有优势。在这个赛道上,可以预见竞争会越来越激烈,不过市场还没有被巨头垄断,国内厂商空间更大,可以争夺的生态位更多,国内厂商在这一细分AI芯片领域前景可期。