AI引动万亿未来,各路巨头围猎芯片市场

描述

电子发烧友网报道(文/黄山明)近半年以来,以ChatGPT为首的生成式AI席卷全球,技术升级带来的生产力巨大提升,也将对各个产业带来革命性的改变,甚至产业逻辑也需要被重估。而AI背后的“卖铲人”最先受益,也让英伟达一举迈入了万亿美元市值俱乐部。
 
巨大的市场空间,以及超乎想象的前景,勾动诸多大厂参与其中,前不久AMD便发布了对标英伟达的H100的MI 300X。近日,思科宣布推出用于AI超级计算机的SiliconOne系列网络芯片。此外,包括谷歌、特斯拉、百度、阿里等,都开始进军AI芯片领域。
 
各大厂商布局AI芯片
 
随着AI技术的发展,诱人的前景牵动着厂商的心。或许看到了市场对英伟达的积极回馈,众多大厂纷纷入局AI芯片领域,思科也在近日发布了面向AI超级计算机的网络芯片SiliconOne G100,这是SiliconOne系列的最新产品,也是当前业内首款能够提供每秒25.6 Tbps带宽的芯片。
 
据了解,G100主要基于7nm工艺,支持P4可编程及全共享数据缓冲区的网络芯片,处理数据包的速度为同类产品的三倍,功耗仅为50%,还可以将最多32000个GPU连接起来,为AI应用提供强大算力。
 
思科透露,当G100在执行AI、机器学习任务时,不仅功耗大幅降低,并且交换次数会减少40%,延迟时间也会缩短。这款新芯片的发布,也将与博通和Marvell的产品正面竞争。
 
其中博通在上半年发布了一款以太网交换机芯片Jericho3-AI,主要是为了降低在网络间进行人工智能训练时间。该款芯片结构的主要特点在负载平衡,可以确保在高网络负载下实现最大的网络利用率,无拥塞操作,无流量对冲和抖动,以及具有高以太网径向。
 
而高基数让Jericho3-AI也可以连接32000个GPU,以及零影响故障切换,确保可以低于10ns的自动路径收敛,这些特性都帮助AI减少工作负载的完成时间。
 
前不久AMD发布的MI300X便是用于训练大模型的AI芯片,直接对标英伟达的H100,新能上支持192GB的HBM3内存,HBM内存带宽达5.2TB/s,Infinity Fabric总线带宽为896GB/s,晶体管数量达到1530亿个,远超英伟达H100的800亿个。有业内人士认为,这款芯片将成为英伟达H100的有力竞争者。
 
英伟达的H100更是已经享誉全球,这款GPU被黄仁勋称为全球首个为AIGC设计的计算机芯片,产品可以帮助AI系统更快输出顺畅自然的文本、图像和内容。
 
也正是因为当前AI需求高涨,英伟达凭借通用型和易用性的优势,市场份额超过60%。有机构预测,AI芯片2023年出货量将增长46%。如此旺盛的需求,让英伟达2023年一季度总收入达到71.9亿美元,并且到了5月底,成为首家市值突破1万亿美元的芯片公司。
 
当然,在市场中众多企业的追赶下,英伟达也并没有停下自己的脚步。5月29日,黄仁勋表示,基于GH200的系统产品接受订购,产品将在今年晚些时候上市。
 
据了解,作为生成式AI的引擎,首个加速计算处理器GH20整合了英伟达基于Arm架构的Grace CPU和Hopper架构GPU,内置共计超过2000亿个晶体管,配备96GB HBM高速显存以及576GB显存,在系统内可提供高达900GB/s的总数据吞吐速度,是当前行业标准PCIe Gen5接口速度的7倍。
 
众多企业纷纷涌向AI芯片制造领域,势必将带动AI相关产业的大爆发,同时也将进一步加速推进生成式AI的发展。同时上下游的相关产业也将受益,如代工厂、云计算厂商等。
 
AI产业红利正在向外辐射
 
生成式AI带来的影响不仅仅局限在AI芯片中,或者反过来说,为何如今有这么多企业涌入到AI芯片领域,也证明了下游的庞大需求。比如云计算厂商通过提供超大规模和特定需求的计算、存储和网络技术在基础设施层面占据了市场的主导地位。并且云计算厂商通过提供可扩展的计算资源,并采用按消费计价的定价策略被证明是有效的。
 
而AI本身需要非常庞大的计算能力,许多公司通过向云计算厂商购买相关服务来解决算力问题,双方一拍即合,互利共赢。目前亚马逊是全球云计算市场的领头羊,而微软、IBM、谷歌、阿里云等都占有不小的份额。
 
这也让许多拥有云计算业务的互联网企业开始向芯片厂商下达大额采购订单,前不久,有消息人士透露,字节跳动今年已经向英伟达订购了超10亿美元的GPU产品,包括10万块A100与H800加速卡,其中H800于今年3月才开始生产。
 
仅字节跳动一家的采购量,就已经接近英伟达去年在中国商用GPU的销售总额。目前了解到,包括字节跳动、阿里等大公司都在与英伟达直接洽谈采购项目,因为代理商及二手市场难以满足其庞大的需求,英伟达也会根据这些巨大数量的订单,给予一定的优惠。
 
AI芯片的超额需求,成为各大企业布局AI芯片的主要原因。而在上游的代工层面,受惠于AI芯片的大量订单,让台积电、三星等代工厂开始受益。
 
尤其是台积电,随着生成式AI的火爆,英伟达已经多次追加了台积电的订单,累计超过1万片晶圆,包括H100、A100、H800和A800的急单,也推升了台积电7/6nm和5/4nm这两大制程工艺家族的产能利用率,后者的产能已接近饱和。
 
为此,在6月初,市场中还传出消息称,台积电紧急订购了一批封装设备用来满足英伟达AI芯片的制造需求。
 
但仅靠台积电一家很难满足目前AI芯片的火热需求,从生产周期来看,服务器制造商需要等待至少6个月才能拿到英伟达最新的GPU。因此英伟达也在寻求更多代工厂来满足其暴增的订单需求,甚至黄仁勋还公开表示,公司将寻求供应链多元化,对未来与英特尔合作开发人工智能芯片持开放态度,并透露英伟达已经收到了基于英特尔下一代工艺节点制造的测试芯片,测试结果良好。
 
此外,AI芯片除了对算力提出更高要求外,内存同样成为其中的关键指标。SK海力士在今年的一季度财报中便直接指出,大语言模型和AIGC的开发商用化,将带动HBM在2023年的需求上扬。三星在一季度财报中也明确表示,将为AI 带动的 DDR5 和高密度内存模块需求做好产能准备。
 
在今年AI产业的快速发展下,不仅极大提高了对AI芯片的需求,也带动了上下产业链同时受益,进而加速AI技术的发展。或许,AI技术的发展进度,将比我们想象的要更快。
 
写在最后
 
2017-2018年,国内受产业互联网、区块链等技术的影响,对AI人才需求大增,数据显示,2017年AI人才需求同比增长了4.7倍,2018年需求同比增长了3.6倍。但随着这些技术迟迟无法落地,AI人才开始从需求旺盛,走向供给过剩。众多企业的相关项目,也如过眼云烟随风而散。
 
随后到2020年,元宇宙概念开始提出,对AI技术的需求再次提升,不过与区块链一样,元宇宙技术短时间难以落地,最终只能暂时退场。
 
到如今ChatGPT的带动下,生产式AI的出现,让AI再次爆发,与前两次不同的是,生成式AI具有极为丰富的落地场景,将切实的改变众多行业的发展逻辑。因此,这次的故事终于打动了众多芯片厂商,这或许才是他们如今正式参与其中的真正原因。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分