人工智能算力为什么需要GPU?

人工智能

635人已加入

描述

随着人工自能,特别是GPT的出现,引起了各种自动化的模型,处理这些信息就需要算力。借着ChatGPT的热度,AI最重要的硬件支持之一,算力硬件也在不自觉中再度上了科技类热搜。

GPU,英文全称是Graphics Processing Unit,即图形处理器,也就是我们所说的显卡。真正用来作为人工智能算力支持的GPU,不是普通的显卡,而是GPGPU。

GPU前面加一个“GP”,就变为General-Purpose Computing on Graphics Processing Units,即通用计算图形处理器。我们去术语化,可以直接说这是一种用于处理非特定需求(通用类型)计算目的的算力单元(芯片)。通常,它们也被简称为通用GPU。

如果朋友们还有记忆的话,肯定记得国内电子货币“挖矿”一度盛行时,带起了显卡的市场价格。这些显卡中有不少,就是目前主流被用于提升算力的通用GPU。

gpu

对比GPU和CPU:虽然两者本质都是算力芯片(最早的GPU,也就是显卡概念,也是由通用CPU演化而出),但最后在构架上的区别,导致了GPU在面对AI大数据流算力时,能够做的更好

gpu

简单来说,CPU更擅长复杂逻辑的运算,而GPU构架相对简单,但运算核心多,适用于大量逻辑简单但高并发量的高密度计算。(CPU最多也就十几个核心,GPU动辄几百上千个核心)成本方面,虽然FPGA和ASIC芯片也被用于AI领域,但由于它们是针对其中某些需求的半定制和全定制芯片(主要是模拟人脑神经元结构),在通用领域的性价比完全无法和较为成熟的GPU相比。

gpu

详细一点可以这样认为,并行计算一般有2种类型:基于任务的并行处理和基于数据的并行处理。前者主要指的是把算力任务拆分成若干个小的但不同的任务,然后再根据算力芯片内的不同核心做不同的计算分,从而形成一条算力流水线。后者主要指的是将数据分解为多个部分,让多个运算单元分别去计算这些小块的数据,形成一个计算网格,最后再把这些网格完成的任务汇总起来。

gpu

我们常说的CPU多线程编程偏向于前者,GPU的并行编程模式则偏向于后者。后者对庞大但逻辑简单的算力需求,有明显更强更高效的支持能力。

gpu

或者我们也可以这么认为:AI领域的大数据流运算本来就是一个模糊概率问题,并没有多少很精准的计算需求,也就不要那么多的算力“牛人”(CPU),需要的是很多能够干一般活的“工人”(通用GPU)

从发展的时间线来看,通用GPU是一个近年来才产生,并在短期内高热度计算机芯片概念。它的出现,是一个与人工智能相互成就的过程。

gpu

最早提出GPU概念的是英伟达(NVIDIA)。早期英伟达提出GPU概念,是为了把电脑显示芯片独立出来,减少影像处理输出过程对CPU的依赖,且可以部分分担CPU的工作。

2012年发生的一件事,让人工智能领域研究者认识到了,GPU在算力支持领域的发掘潜力。

gpu

2012年,前谷歌计算机科学家Alex Krizhevsky利用深度学习+GPU的方案,赢得Image Net LSVRC-2010图像识别大赛,并奇迹般地将识别成功率从74%提升到85%。事件发生后,NVIDIA洞察到了这一趋势,耗费巨资对自家的传统GPU做改造。

gpu

3年后,NVIDIA提出了基于自家GPU的CUDA深度学习生态系统的算力GPU,将GPU的性能直接提升了65倍。

gpu

此外,为了建立自己的通用GPU生态,NVIDIA还开放了基于自己GPU的从后端模型训练到前端推理应用的全套深度学习解决方案让全球范围的内一般开发人员都可以非常容易地使用GPU进行深度学习开发或高性能运算,最后奠定了自己在GPU算力领域的老大地位。

gpu

作为目前AI服务器最主流的算力选择,2021年通用GPU服务器销售额占据我国AI加速服务器市场的88.4%,其中80%以上的国内市场被NVIDIA占据。

gpu

回到我们开头说的。ChatGPT的正式推出,一方面可以说是“启动了人工智能革命”,另一方面也可以说是“拉开了新一轮的硬件竞赛”。截止最新的市场报,ChatGPT在微软Azure AI云服务器上完成训练,总算力消耗为3640PF-days,已经导入超1万颗英伟达高端GPU。Citi Bank(花旗)等预测ChatGPT能促使NVIDIA 12个月营收增加30亿美金。

另据相关市场机构测算,ChatGPT模型进入线上运营阶段后,每亿活跃用户将带来13.5Eflops的算力需求,需要6.9万台NVIDIADGXA10080G服务器支撑。根据中国信通院数据,2021年全球计算设备算力总规模达到615EFlops,其中超算算力规模为14EFlops。换言之,在每个用户每天收到1500字回答的情况下,以2021年全球超算算力的规模,仅能支撑Chatgpt最多拥有1亿日均上线人数。那么假设未来最后全球有5-6家科技巨头能够在3年内各自拥有一款活跃人数2亿的ChatGPT类应用,则会带来至少162EFlops超算算力需求——是目前的10倍以上。

参考招商证券以商汤AIDC计算的市场估值:每新建1Eflops算力需要投资15亿元,其中ICT硬件投资占比72%。活跃人数每增加1亿人需要新增投资203亿元,其中ICT硬件投资146亿元。依旧是未来5-6家科技巨头有这类产品,3年后ICT硬件投资将新增需求1,755亿元。叠加未来AIGC技术向音频、视频等领域蔓延,算力硬件的市场需求会更大。

gpu

只不过,根据一份去年8月底9月初的“GPU产业专家交流要点纪要”显示,虽然我国在该领域的市场前景很大,但是主要生产企业却面临“比较尴尬”的情况。其中最重要的一点是,仅仅是做GPU的公司数量不少,但是整体产品层次不高。看起来有这个市场需求,但是很多订单国内厂商抢不下来。

如果要做高端的产品,去年美国在这块也开始卡我们,直接加大了国内大厂想要在这个领域发力的门槛。比如重要的芯片IP(一般也被成为IP核,指的是芯片中具有独立功能的电路模块的成熟设计)供应商都是美国公司。

设计工具EDA方面,全球3大EDA占据了绝大多数的市场。30年前,我们曾尝试过使用制度性优势做EDA,但最后3巨头把产品免费送给高校,导致国产EDA不仅失去了市场(销售供养研发),更失去了建立生态的机会。到了今天,我们的数字电路设计EDA缺乏全流程工具。即使是去年炒作过的华大九天等公司有模拟电力设计EDA,但仅仅是有流程平台,工艺支持等能力还亟待加强。

gpu

编辑:黄飞

 

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分