电子发烧友网报道(文/吴子鹏)据国信证券统计,ChatGPT今年1月的月活跃用户超过1亿,用户过亿只用了2至3个月,其速度远超过去的推特、海外版抖音等。ChatGPT爆火之后,如何打造中国版的ChatGPT成为热门话题,并且与之相关的AIGC以及其他AI大模型应用也都受到广泛关注。
作为国内头部通用GPU高端芯片及超级算力系统提供商,天数智芯认为,ChatGPT的推广进一步验证了人工智能给工作、生活带来很大帮助,甚至不亚于工业革命的影响,可以亲身体验到其带来的效率上的提升。这种应用是建立在巨大算力模型训练基础上带来的智能处理,因此也带动了0座的需求。
确实,随着以ChatGPT为代表的AIGC应用大火,背后大模型训练所需要的算力也随之暴涨。统计数据显示,ChatGPT的总算力消耗约为3640PF-days(即假如每秒计算一千万亿次,需要计算3640天),整体部署大约需要7-8个500P算力的数据中心。而根据微软官网的消息,微软Azure为OpenAI建设了一个单独的超算中心,具有超过28.5万个CPU核心、1万个GPU和400 GB/s的GPU服务器网络传输带宽。
从成本上看,ChatGPT就像一个吞金兽。数据显示,其运行一次的费用大概需要430万美元。这主要是因为ChatGPT背后的预训练大模型——GPT大模型的GPT-3.5版本是一个“庞然大物”。目前,GPT-3.5模型的参数规模已经达1750亿,原始数据规模达45TB。
天数智芯表示,目前大模型参数已经突破千亿,并有更高的要求,对于训练芯片的通用性及兼容性有更高的要求。训练芯片要能支持更多的算法及改进,而且由于算力需求的规模越来越大,甚至单个算力集群无法满足,对于异构算力、多集群协同等方面有更高的要求,进而对于异构算力上的兼容性就会有更高的要求。同时,由于数据量的急剧提升,对于数据的隐私保护也会有所要求,对于隐私计算在训练芯片上的支持也会有要求。
从微软对ChatGPT的介绍能够看出,这套系统除了模型预训练和日常运行,Finetune模型调优也是关键一环。因此,确实如天数智芯所言,虽然ChatGPT目前的算力规模和运行费用很高,但是这些数字还会与日俱增。
随着ChatGPT在全球范围内大火,目前国内众多科技巨头也相继宣布,将推出自己的类ChatGPT应用。比如国内的百度,根据百度创始人、董事长兼首席执行官李彦宏在一封名为“百度站在AI浪潮之巅”的内部信中表示,百度即将在3月份推出新一代的大语言模型“文心一言”。这也是继“文心一格”(AI作画)、“文心百中”(产业搜索)之后,百度推出的又一大重磅的AI大模型应用。
在中国版ChatGPT不断涌现后,算力芯片作为供给端核心环节将率先受益,而其中又以拥有数量众多的计算单元和超长的流水线的通用GPU需求最为迫切。天数智芯表示,大规模的普及应用会对大模型算法有更高的要求,很多科研及企业也投入到大模型算法的研究中,对于算法模型会有优化和改进,因此对于算力底座支持的通用性及扩展性有很高要求,因此一定程度上会降低对于定制化AI芯片的需求,促进通用GPU市场的发展。
天数智芯自2021年3月推出云端训练通用GPU产品--天垓100,并于2022年12月推出云端推理通用GPU产品--智铠100,截止目前,天数智芯订单规模就已经突破5亿元。目前,基于天垓100训练的模型种类超过了两百种。天数智芯表示,公司在训练芯片上坚持通用GPU架构、主流生态兼容等发展路线,对于通用性、兼容性、安全性等方面都进行了支持,可以为ChatGPT的发展提供有效安全的算力底座。
当然,正如中信证券在研报中指出的,目前在通用GPU方面,国际厂商在高精度浮点计算及CUDA生态方面还手握核心的技术壁垒,***和方案在软硬件方面都还有一定的差距。对此,天数智芯回应称,坚持通用GPU发展的路线,全面覆盖训练和推理两条产品发展主线。结合行业解决方案为各行业、各产业发展提供完整成熟的软硬件一体化方案。在未来的产品发展上,逐步缩小和国际先进产品的差距,为国内人工智能发展提供强有力的支持。
从中长期来看,ChatGPT的火爆以及中国版ChatGPT的陆续推出,对通用GPU有着巨大的需求。同时,国内AIGC市场将和信创市场出现叠加效应,让天数智芯等相关厂商长期收益,并借此机会提升产品迭代的速度,逐渐达到国际领先水平。
全部0条评论
快来发表一下你的评论吧 !